En la industria tecnológica, la migración de infraestructuras a entornos cloud es un asunto recurrente. Lo que no se tiene en cuenta en muchas ocasiones es que se debería priorizar una estrategia de uso y optimización de los datos en la nube sobre la migración sin más. Este es el principal error que cometen muchas empresas, según Unisys: las organizaciones se centran en replicar los modelos de datos heredados, sin conexión entre ellos y pierden la oportunidad de sacar las máximas ventajas a los entornos en la nube.
Las empresas acceden y generan millones de datos que, si se ponen en común, pueden proveer de inteligencia muy valiosa para la toma de decisiones, especialmente si se combinan con herramientas de inteligencia artificial, pero que si se mantienen en silos hacen perder oportunidades de negocio muy claras, reducen el rendimiento empresarial y aumentan los costes sin sentido.
La primera forma de crear una sinergia entre los conjuntos de datos es fusionarlos en un “lago de datos” (Data Lakes) basado en la nube. Los lagos de datos pueden incluir datos estructurados procedentes de bases de datos relacionales, sistemas ERP o incluso de archivos Excel; y no estructurados, sacados de redes sociales o del correo electrónico. Un análisis profundo dentro de este lago de datos puede crear puntos de referencia cruzados y descubrir oportunidades de alto valor no esperadas.
Para sacar el mayor partido a los datos, Unisys plantea cuatro sencillas preguntas.
1. ¿Qué datos transformamos y llevamos a la nube?
Una estrategia de modernización de datos debe comenzar con la creación de sinergias internas entre las unidades de negocio en tiempo real. Cuantos más datos estén disponibles para el análisis, mayores opciones de obtener resultados positivos. Para conseguir esto, es importante derribar silos y crear lagos de datos.
Los análisis sobre las demandas actuales de cada cliente son críticos para informar a los responsables de los procesos de fabricación, pero también es importante tener en cuenta el análisis predictivos sobre los comportamientos de los clientes que, en ocasiones, se ocultan en las áreas de marketing. De la misma manera, algunos análisis sobre clientes permiten, combinándolos con los esquemas de producción y las hojas de ruta de cada producto, realizar un trabajo más eficiente al área de RRHH.
“Las empresas manejan muchísima información en cada área y tratarla de forma independiente no lleva a ningún lado”, alerta José Ramón Travé, director de desarrollo de negocio en Unisys. “Fusionar los datos y los análisis a lo largo de toda la organización es beneficioso para todos los departamentos y resulta en mayores eficiencias, productividad más alta y experiencias de usuario y cliente más satisfactorias”.
2. ¿Cómo manejar miles de millones de datos dispares?
Según IDC, en 2025, se crearán 175 zettabytes de datos anuales, es decir, cuatro veces más que lo que se generaba en 2020. ¿Cuántos de estos datos tendrán valor? ¿Cuánto tiempo se deberían almacenar? Desde Unisys se recomienda tener en cuenta lo que la compañía denomina las tres V del almacenamiento de datos: volumen, variedad y velocidad. Las grandes cantidades de información en diferentes formatos y la rapidez de su extracción amenazan con reducir su utilidad si no somos capaces de sacar inteligencia provechosa de ellos.
Los almacenes de datos heredados tenían las limitaciones de espacio de disco pero la nube, teóricamente, ofrece espacio ilimitado. El coste de esta estrategia, sin embargo, puede llegar también a ser infinito. Por eso, desde Unisys recomiendan contar con políticas de gestión de datos adecuadas, de manera que se aprovechen los datos de la forma menos costosa posible y se puedan purgar los datos no actualizados.
3. ¿Quién debe ser el responsable de la integración y el análisis de los datos?
Los especialistas de datos, así como una planificación estratégica del repositorio de datos en la nube, son vitales para conseguir sacar el mayor partido, y lo antes posible, a los lagos de datos. También es fundamental, según se apunta desde Unisys, un enfoque basado en la evolución continua.
El uso de análisis basados en inteligencia artificial puede convertir datos que parecían sin valor en inteligencia muy valiosa y dirigida. De hecho, Gartner cree que cuando un responsable de datos se involucra en la generación de objetivos y estrategias, el valor del negocio puede multiplicarse por 2,6. Y según LinkedIn, los trabajos relacionados con Machine Learning y ciencia de datos se encuentran en el top 5 de los 15 trabajos con mayor proyección hoy en día.
Sin expertos en datos, el lago de datos se puede convertir en la “ciénaga de los datos”, contaminada por datos anticuados que no solo no aportan valor, sino que pueden corromper la información de que disponemos. Por ejemplo, pensemos en el equipo de RRHH, que está planificando las necesidades de crecimiento de la plantilla para los próximos meses y analiza cuántos estudiantes están cursando grados relacionados con las necesidades de la organización y en qué ciudades viven esos candidatos para saber si deben ofrecer contratos de teletrabajo a los profesionales idóneos. Si se usan datos pre-pandemia, probablemente la información que se obtenga no sea útil a la hora de publicar ofertas de trabajo y no llegarán a los mejores perfiles.
4. ¿Están protegidos sus datos?
Los lagos de datos basados en la nube guardan información crítica que debe ser protegida. Para ello, es fundamental, apuntan desde Unisys, incluir las estrategias de seguridad desde los marcos de trabajo iniciales e incluir herramientas de proveedores de confianza, que cuenten con cifrado, gestión de accesos con confianza nula o remediación y monitorización continua en tiempo real.
La obligación de proteger información personal y datos sensibles es responsabilidad de la estrategia de ciberseguridad. Un fallo en este punto, recuerdan en Unisys, provocará no sólo un daño reputacional difícil de recuperar, sino también la desconfianza de los clientes y sanciones muy altas que pueden impactar en la cifra de negocios.
Almacenar datos en la nube facilita la protección gracias a técnicas como la microsegmentación definida por software, que ofrece múltiples controles de seguridad para gestionar quién accede a cada dato, su posición y dónde se almacenan los datos.