En un reciente post recapitulamos algunas cuestiones acerca del estado actual y lecciones aprendidas de los años transitados desde que se inició y extendió la ola de la transformación digital a nivel global. 

Mencionamos como, una contraparte orgánica de la paulatina digitalización de los negocios y las organizaciones, es la generación permanente e imparable de volúmenes de datos cada vez mayores. 

Para dar un ejemplo realmente ilustrativo, según un estudio de ProjectPro, Walmart colecta 2,5 petabytes de datos sin estructurar por hora, el equivalente a 167 veces la totalidad de los libros de la biblioteca del Congreso de los Estados Unidos. Es uno de los retailers más grandes del mundo, pero es sólo uno de ellos. Si ampliamos y extendemos esta idea a todas las empresas, gobiernos y organizaciones del mundo, la dimensión se vuelve absolutamente inabarcable. 

Todas estas miles de millones de fuentes de datos, cajas registradoras, ecommerces, cámaras de seguridad, sensores de temperatura, scanners, etc., etc., generan permanentemente datos “crudos” que, para volverse “digeribles” de alguna manera, deben pasar por todo un procesamiento.   

Este ciclo de vida del dato, muy bien explicado en un excelente artículo de la Harvard Data Science Review, va desde la recolección, pasando por el procesamiento, el almacenamiento, la gestión. Luego, en una etapa posterior vendrá el análisis, la visualización y la interpretación. 

Aquí detengámonos unos minutos. No todo el volumen de datos recolectados es útil ni se almacena necesariamente. Pero aquel que sí se colecta, se procesa y se almacena en bases de datos, debe pasar por un procesamiento para que se pueda volver productivo, es decir para que sea confiable y, por lo tanto, posibilite ser incorporado en estrategias basadas en datos. 

Gran parte de las personas consumimos habitualmente dashboards, visualizaciones de datos de distinto tipo. Desde el tablero de nuestro coche, hasta algo tan extendido como el gráfico de uso de almacenamiento que nos muestran nuestros teléfonos móviles cuando nos estamos quedando sin espacio. Pero de lo que no somos conscientes es de que, desde el almacenamiento a la visualización, hay procesos necesarios e indispensables para que la información que vemos sea certera, confiable y lo suficientemente estructurada como para poder mostrarla. 

Los más comunes de ellos son el data cleansing (limpieza que descarta la información innecesaria), o data wrangling, diversos procesos que hacen que la información cruda esté disponible para ser analizada: limpieza, estructuración, consolidación. 

Todos estos pasos, claramente detallados en un artículo de Harvard Business School, incluyen como parte central la validación: el proceso de verificar que los datos son consistentes y de calidad.  

En el estado actual de la digitalización de los negocios, realizar estos procesos de manera manual ha dejado de ser una opción viable. El mercado global ya cuenta con herramientas como Conciliac EDM que pueden realizar estos procesos no solo de forma automática sino totalmente desatendida a través de tecnologías como el RPA (Robotic Process Automation). 

Para ilustrarlo con un ejemplo, vamos a suponer que una cadena de tiendas de indumentaria, genera datos de venta y de sus usuarios y los colecta en diversas fuentes de datos. Por un lado, las ventas de cada local, por otro lado las ventas de su eCommerce, en una tercera fuente los datos de los clientes, por otro lado los pagos ingresados por diferentes medios de digitales, tanto en la tienda física como online. 

Lo más probable es que, a la hora de optimizar el mix de opciones de pago la información almacenada no esté consolidada ni conciliada, ni pueda arrojar datos certeros de qué opción de pago prefiere cada consumidor en cada canal, y cuáles de ellos son los más convenientes para la compañía. Por lo tanto, la conclusión a la que seguramente se pueda llegar es que, los datos almacenados, aunque exhaustivos, no son lo suficientemente confiables para sustentar una decisión informada.     

La realidad es que hoy, observando a los líderes del mercado, podemos afirmar que nos encontramos en un estado avanzado en la transformación digital, pero aún incipiente en lo que respecta a la productivización de los datos. Cada vez más las empresas y organizaciones se adentran en el desarrollo del data management, pero aún muy basado en la analítica a partir de hacer visualizables las enormes cantidades de datos recolectados. Pero, si como está sucediendo cada vez más, toda la estrategia de nuestras compañías se basará en la interpretación de esos datos, es hora de abordar y poner foco en los procesos que, como los mencionados más arriba, nos puedan garantizar que lo que vemos en nuestros dashboards es real y confiable porque ha sido validado. 

Escrito por

Virginia Lopez

CMO – Conciliac