6 PASOS CLAVE PARA UN ANÁLISIS DE BIG DATA MÁS EFECTIVO
![]() |
José Martínez |
Big data es un término aplicado a conjuntos
de datos que superan la capacidad del software habitual para ser capturados,
gestionados y procesados en un tiempo razonable. Según Gartner, las tres
características principales de Big Data corresponden a: cantidad o volumen de
los datos; velocidad de creación y utilización de la información; y variedad de
tipos y fuentes de datos no estructurados como por ejemplo la interacción
social, videos, audio o cualquier otro que no se pueda clasificar dentro de una
base de datos.
Los volúmenes de Big Data se encuentran
constantemente en un movimiento creciente, en 2012 se encontraba dimensionada
en un tamaño de una docena de terabytes hasta varios petabytes de datos en un
único data set. Sobre esto EMC, en su estudio de Digital Universe, previó que
el universo digital se duplica cada dos años y se multiplicará por diez entre
2013 y 2020, de 4,4 millón de millones de gigabytes a 44 millones de millones
de gigabytes.
Sin embargo, Big Data no está enfocado sólo
al volumen de datos, sino a la complejidad de estos, en los cuales, el número
de variantes puede ser indeterminado a priori, por lo cual, sus relaciones
crean diversas formas de analizar o visualizar la información.
Para que su empresa sea parte de las
organizaciones que utiliza Big Data, debe aprender a almacenar enormes
cantidades de datos generados por humanos que se toman de forma selectiva de
sitios Web, aplicaciones móviles, sitios de social media, etc. Y después
practicar análisis a los datos. Para ello se requiere considerar 6 puntos clave:
1.
Identificar
piezas faltantes, sean herramientas o datos. La brecha más grande está en las
herramientas diseñadas para recopilar, eliminar duplicados, etiquetar y
procesar nuevos tipos de metadatos. Estas herramientas dan el contexto y
significado que Big Data sea valioso.
2.
Entender
los datos que se tienen y los que se requieren.
3.
Saber
lo que se intenta lograr. Crear requisitos de negocio claros y de fácil
entendimiento es un paso decisivo. Sin objetivos claros es imposible planificar
los tiempos y pasos específicos para completar el proyecto.
4.
Localizar
y contratar científicos de datos. Esto es absolutamente decisivo para el éxito
de cualquier proyecto de Big Data, debido a que concreta la capacidad para definir,
entender, manejar y contextualizar datos de muchas fuentes en muchos formatos.
Se trata de un reto que aplica a los conocimientos de una descripción laboral
que es ajena a la mayoría de los departamentos IT, e incluso para la mayoría de
las corporaciones: el científico de datos. El 45% de los proyectos de BI
fracasan por falta de conocimiento de los datos del personal. Así lo concluyó
una encuesta realizada en abril por GigaOm. Los requisitos de los conocimientos
de Big Data son más rigurosos que los de la mayoría de los proyectos de
Business Intelligence, lo que significa que los índices de fracaso debido a la
falta de conocimientos son aún mayores.
5.
Entender
la velocidad y manejar las expectativas. Un elemento decisivo de Big Data es la
rápida adquisición y análisis de datos, características que son raras en
cualquier sistema IT descrito con la palabra “Big”, a decir de Chad Richeson,
CEO de la firma consultora de BI, Society Consulting. En su visión, los
sistemas de Big Data deben ser de fácil y rápida adaptación, en vez de estar
restringidos por los ciclos de desarrollo de 18 a 24 meses típicos de la
mayoría de los proyectos de datos.
6.
Verificar
con los usuarios finales. Este pase debe estar presente desde el comienzo de un
proyecto de Big Data, y repetirse a lo largo de todo el proceso de
implementación y más allá. Las iniciativas de Big Data deben responder
preguntas específicas que ayuden a los empleados de las unidades de negocio a
hacer su trabajo. “La analítica impecable es formidable –señala Boyarski, de
JasperSoft–, pero no encaja con respuestas simples y directas a preguntas que
tienen un impacto real en los usuarios finales.”
No hay comentarios:
Publicar un comentario