El ‘big data’ y la transformación analítica
febrero 22, 2017 6:12 pmLa puesta en marcha de la transformación analítica y la gestión de datos puede ayudar a los objetivos estratégicos de las empresas.
A la hora de poner en marcha un proyecto de big data, surge la pregunta de por dónde empezar. Los datos podemos clasificarlos de tres formas: por volumen, por variedad y por velocidad. Las nuevas tecnologías permiten crear una gran variedad y cantidad de datos y la velocidad de creación de estos es abismal. Sin embargo, el volumen de datos no es tan importante; resulta más interesante la combinación de variedad y velocidad de los mismos. Así lo explicó el profesor de Operaciones, Innovación y Data Sciences de ESADE, Manu Carricano, durante el Programa de Continuidad Big data: extraer valor de la transformación analítica.
Un proyecto de big data
Para Carricano, las patas sobre las que se sustenta la creación de un proyecto de big data son cuatro: las fuentes de datos y las herramientas que permitan su conexión, la infraestructura para el tratamiento de toda la información, el análisis de los datos y, por último, las aplicaciones, la interfaz que le llega al usuario y le permite tomar decisiones.
Según Manu Carricano, algunos de los retos, o frenos, a los que se enfrenta un proyecto de big data son la dificultad del acceso a los datos, su calidad y la propiedad de los mismos; la falta de orientación del negocio a los equipos; tratar de manera separada las dos patas del big data (la arquitectura de datos y las analíticas); y la tendencia a ir a lo más sofisticado cuando a veces el mejor resultado se obtiene con lo más sencillo.
La ventaja competitiva no es tener datos, sino crear una propia plataforma o herramienta con los datos que tenemos. Aquí es donde entran en escena los algoritmos, que permiten construir, entregar y consumir productos analíticos.
La transformación analítica
La transformación analítica, que no debe ser solo de un departamento sino para toda la organización, capacita la orientación y supone una competencia nueva para resolver problemas en tiempo real, haciendo uso de los flujos de información. Como ejemplo, Procter & Gamble ha democratizado el acceso al dato, creando un programa que les proporciona predicciones de cuotas de mercado en distintos plazos de tiempo, entre otros indicadores, y, para ganar en eficiencia, han analizado todos los contratos con cientos de agencias para renegociarlos.
Otras empresas que han invertido esfuerzos en el big data son Walmart, que ya tiene casi la misma capacidad que Amazon y que es el big data más potente de Estados Unidos en cuanto a tamaño; o GE Digital, que ha virado la empresa hacia el software, con una solución muy potente. Y, en el caso de España, destacan LUCA, de Telefónica, y BBVA Data & Analytics, que llevan tiempo dedicados a la creación de productos analíticos.
La receta de la transformación analítica
Sobre cómo llevar a cabo la transformación analítica, el profesor Carricano expuso seis ingredientes:
1.- Tener una arquitectura de datos escalable, porque hay que pensar a medio y largo plazo. Las variables que se emplean van a alimentar un flujo más analítico, comenzando por cosas sencillas que ganen en complejidad con el tiempo.
2.- Un equilibrio entre producción, de datos y de herramientas, y exploración, lo que podríamos considerar la I+D del big data, para crear herramientas en el futuro.
3.- El acceso rápido a los resultados por una gran parte de los usuarios, presentado indicadores claros y precisos.
4.- Orientar las analíticas a las preguntas del negocio.
5.- Un mix de algoritmos, la receta mágica que nos va a solucionar el problema.
6.- La fuerza gravitatoria que mezcla todos los ingredientes: qué objetivos queremos conseguir, qué acciones tenemos que tomar y qué impactos se quieren alcanzar.