El mercado del almacenamiento es muy maduro y está muy consolidado; sin embargo, aunque pudiera parecer que apenas incorpora novedades, lo cierto es que dos grandes motores están impulsando la innovación en el sector. Uno de ellos es la inteligencia artificial; el otro, la seguridad. Precisamente estos han sido los dos ejes conductores del Storage Innovation Summit 2024 que, un año más, ha celebrado IBM, junto a Evolutio, Inetum, Logicalis y Seidor, con Data Center Market y Computing. Bajo el título de “IA y seguridad en la nueva era digital”, el evento acogió a más de 200 personas en el renovado Estadio Santiago Bernabéu.
Lucía Bonilla, directora de Data Center Market, fue la encargada de introducir el encuentro haciendo un breve resumen de los retos a los que se enfrenta esta industria. Tras dar la bienvenida a los asistentes y comentar los principales temas que se iban a tratar durante la jornada, la directiva dio paso a Carolina García Rebollo, directora de Almacenamiento de IBM, que centró su intervención en el poder de la innovación en el sector del storage. Una innovación que en los últimos años se ha hecho de rogar en este terreno, pero que ahora viene pisando fuerte de la mano de la inteligencia artificial. Y es que, como indicó la directiva, si queremos ser ágiles y flexibles para poder diferenciarnos en el mercado necesitamos la IA para modernizar, agilizar y administrar los datos de manera sencilla. Una IA cuyos modelos están en continua evolución y que necesita un entrenamiento.
Durante su ponencia explicó las principales prioridades de las empresas en almacenamiento y lo que está haciendo IBM para responderlas. Así las cosas, indicó que, desde la multinacional trabajan en la evolución de la cloud híbrida hacia el multi cloud computing, la fundación de modelos para la plataforma de IA con tecnología quantum y el papel de los semiconductores, presentes en cada uno de los dispositivos que utilizamos hoy en día y que cada vez son más pequeños, rápidos y confiables. En este sentido, el año que viene esperan poder incorporar nuevos chips de mainframe que marquen la diferencia a partir de la inferencia.
Además, están focalizando sus esfuerzos en avances en storage computacional y en la detección en tiempo real de ransomware. No en vano, la seguridad es un aspecto fundamental para las organizaciones e IBM proporciona una visión holística de todos los sistemas -tanto distribuidos como mainframe-, evitando la fragmentación y el trabajo aislado que existe en la actualidad, y cumpliendo con la normativa. La propuesta de la firma en este ámbito es Storage Defender, que brinda resiliencia de los datos, gestión de los mismos, detención temprana y capacidad de recuperación.
Y en ese camino hacia la innovación, Carolina reconoció el apasionante momento en el que nos encontramos, con el surgimiento de nuevos avances para el mercado del almacenamiento y cómo la IA está generando nuevas necesidades disruptivas de datos no estructurados. Así como desafíos en cuanto al coste de la capacidad y del rendimiento, la escalabilidad, el time to value y el data governance. Para solventarlos, la solución es ir al AI Content-Aware Storage (AI CAST), una propuesta full stack de RAG que permite el acceso a los datos con rendimiento multiprotocolo, almacenamiento en caché, servicios de automatización basados en políticas y herramientas de recuperación. En concreto, suministra datos de manera activa basándose en conocimiento avanzado de los datos almacenados y hace que la inferencia con RAG se más rápida, más rentable y más segura y posibilita una Gen IA en tiempo real.
Índice de temas
La importancia de los modelos fundacionales
Óscar Laviña, director técnico de Almacenamiento de IBM, hizo un repaso por las tres fases de la IA desde la clásica -reconocer-, que ya ha alcanzado su madurez; pasando por la generativa -que permite crear- y en la que nos encontramos actualmente llegando a un punto de inflexión; y, por último, la NeuroSimbolic AI, cuyo reto es el de razonar a través de modelos neuronales. De estos estadios, watsonx -la plataforma de IA y datos de IBM para la empresa-, cubre los dos primeros tipos de IA.
No obstante, cuando hablamos de IA generativa hablamos de modelos fundacionales, lo que implica que no hay intervención humana y que se pueden ajustar, pero hay que entrenarla. En este caso el peso está en el ajuste que realizamos. Por el contrario, en la IA tradicional etiquetamos datos y, con ellos, entrenamos al modelo. Esto sirve para un caso de uso y el gran peso radica en etiquetar.
En este contexto, existe un tanto por ciento muy pequeño de datos de las organizaciones utilizados para entrenar. El reto es traer los datos de las empresas a estos modelos. Aquí es donde el almacenamiento tiene un poder fundamental. Pero a ese almacenamiento le pedimos traer los datos de forma muy rápida, con baja latencia. También que sea capaz de organizar una gran cantidad de datos o que sean accesibles siempre. En otras palabras, najar funciones que se están haciendo a nivel de GPU al almacenamiento.
En su intervención el directivo aludió a la capacidad de la compañía para utilizar modelos fundacionales de IBM y de otros para compararlos, de ofrecer mayor flexibilidad. Mencionó la solución abierta con arquitectura estándar IBM Fusion HCI, los requerimientos diferenciales de almacenamiento para IA (latencias bajísimas y gran rendimiento), los componentes esenciales (servidores, GPU, red de alta velocidad) y la importancia del entrenamiento.
Mitos de la IA y claves de futuro
Posteriormente, Julián Jiménez, director de Equipos Técnicos de IBM, hizo un resumen de las últimas novedades en torno a la inteligencia artificial, desvelando los cinco mitos de la IA:
- La IA del consumidor es la misma que la IA empresarial. La escalabilidad y los datos en los que se basa es lo más importante.
- Se puede confiar en todos los modelos.
- Los grandes modelos LLM resuelven todos los problemas.
- La IA generativa es la única solución.
- La IA va a reemplazar a todos los desarrolladores. Con IA podrá generar muchas más líneas de código.
Asimismo, analizó cómo integrar la IA con las inversiones existentes insistiendo en cómo la arquitectura empresarial debe estar perfectamente conectada con las aplicaciones y los datos, los activos que hacen trabajar a las organizaciones. En este sentido, todos los productos de IBM ya tienen embebida la IA, pero ésta ha de pasar del lenguaje natural a la automatización. Por eso, en la próxima generación de la inteligencia artificial se busca que sea autónoma, no determinística, que haga un análisis contextual y “no human in the loop”, es decir, que sea capaz de poder tomar decisiones de forma autónoma sin la intervención de un humano.
¿Cómo vamos a conseguirlo? Mediante agentes, las pequeñas piezas de software que piensan en cómo integrar la IA, piensan en un problema, configuran un plan para actuar con otros agentes y analizar si lo que ha hecho es correcto o no correcto. De hecho, se abre una nueva era de disrupción con agentes. Frente a agentes tradicionales con IA basada en reglas y predefinidas todas las acciones; luego se pasará a asistentes con agentes únicos (basados en un tarea, control limitado y problemas de rendimiento a escala); y a asistentes multiagente (basado en dominios, agentes especializados, control y comunicación de agentes y varias arquitecturas).
En su discurso, Julián Jiménez también apuntó varias ideas clave sobre el futuro de la IA como los autonomus RAG que ya están resolviendo problemas reales; la creación de propios SLM (Small Language Models) frente a los grandes LLM (Large Language Models); y el lakehouse híbrido que combina lagos y almacenes de datos.
Caso de éxito con Telefónica: Movistar Plus
La incorporación de la IA en el negocio ya es un caso de éxito en Telefónica Servicios Audiovisuales. Durante el IBM Storage Innovation Summit 2024 se expuso la colaboración del proveedor con la operadora, un trabajo conjunto fruto del cual Movistar Plus incorpora etiquetas inteligentes proporcionadas por IA. Mediante avanzados modelos multimodales, el sistema ve, oye y comprende los diálogos.
Este proyecto -llevado a cabo en el sector de media, un segmento híper tradicional y conservador que trabaja con herramientas propietarias on premise-, busca la hiperpersonalización de la TV y del contenido. Para ello, el dato cobra una elevada relevancia y la IA se ha incorporado para lograr tales objetivos, con la infraestructura de IBM como base.
Como detalló José Luis García Cabrera, COO de Telefónica Servicios Audiovisuales, en un primer momento empezaron con algo muy básico como transcripción de voz a texto. Ahora son capaces de generar contenido en tiempo real para el usuario, como resúmenes deportivos, por ejemplo.
Resiliencia de los datos y ciberseguridad
Se trata de un campo fundamental para IBM. Por ello, el evento contó con la presencia de Ian Shave, VP Data Resilience Technology Sales de la compañía, quien centró su presentación en la importancia de securizar los datos, el activo más valioso de cualquier empresa. Teniendo en cuenta que un ciberataque puede llegar a costar hasta cinco millones de dólares, y que el coste de las brechas de seguridad se está incrementando un 10% cada año, y merece la peña reflexionar y tomar medidas sobre la protección adecuada de nuestros datos.
Monitorizar las amenazas y asegurar la integridad de los datos en un entorno cada vez más presionado por las regulaciones y normativas, es un “must”. No es una opción. Además, la inteligencia artificial está añadiendo aún más presión sobre la ecuación, ya que, como no podía ser de otra manera, también se usa con fines maliciosos.
Consejos de IBM para alcanzar una resiliencia de los datos
1. Cargas de trabajo críticas. El 75% de las compañías ha sufrido ataques de ransomware. Y el impacto no solamente es económico: el 30% del coste de un ataque supone la pérdida de negocio. Es imprescindible securizar esas cargas de trabajo que están haciendo ganar dinero al negocio cada segundo del día.
2. Seguridad inmutable. Incorruptibles, los datos no pueden modificarse ni borrarse para ofrecer un punto de recuperación asegurado.
3. Detección de amenazas. Teniendo en cuenta que el 58% de las brechas no fueron identificadas por los equipos y herramientas de seguridad de la organización, es recomendable que aumente la inteligencia con una detección adecuada de amenazas. Encuentre las amenazas activas rápidamente a medida que se escriben los datos.
4. Velocidad de recuperación. Resulta imprescindible conseguir una rápida recuperación operativa en segundos, minutos u horas. Es aconsejable evitar el pago de rescates. Y es importante recordar que un descubrimiento más rápido de la amenaza es igual a una recuperación más rápida.
5. Automatización y pruebas. Un paso imprescindible. Es importante conseguir una simplificación de las operaciones y una mayor capacidad para probar y demostrar la recuperabilidad Integración entre ciberseguridad y ciberresiliencia.
Casos de éxito: Correos y Metro de Madrid
Nada mejor que ejemplificar los consejos anteriormente descritos que a través de dos entidades como Correos o Metro de Madrid. En el primer caso, Daniel López Limón, subdirector de Explotación e Infraestructuras de Correos, explicó el importante proceso de transformación digital vivido por esta organización centenaria. El responsable detalló su viaje hacia la nube para determinados procesos, agilizándolos y facilitando ciertas tareas operativas. Todo ello teniendo en cuenta también la modernización de los centros de datos y, por supuesto, el cumplimiento de normativas, también energéticas y de sostenibilidad. El resultado de todo ello es un almacenamiento más eficaz, con un modelo híbrido eficiente.
Por su parte, Sergio Rivas Castellano, administrador de Almacenamiento y Backup de Metro de Madrid, señaló la importancia de invertir para asegurar que todos los sistemas están disponibles 24/7, sobre todo en el tiempo de servicio a sus usuarios. Siendo conscientes de la importancia del dato, el almacenamiento y su accesibilidad, la réplica, los backups y todas las medidas de seguridad y protección contra amenazas como el ransomware no son opcionales, sino imprescindibles.
Una nueva generación de almacenamiento
¿El mainframe ha muerto? Definitivamente, no. Roberto Catalina, arquitecto de Almacenamiento de IBM, ha augurado una larga vida al mainframe, teniendo en cuenta que el 70% de las transacciones pasan por estos sistemas. ¿Qué tiene en cuenta IBM a la hora de desarrollar nuevos sistemas de almacenamiento? Fundamentalmente aspectos como una alta disponibilidad, disaster recovery o ciberresiliencia. Igualmente, Catalina se centró en desvelar las últimas novedades relacionadas con las cabinas IBM Storage DS8000 y TS7700, con la incorporación de nuevas familias como DS8A10 y DS8A50, que tendrán plena disponibilidad el año que viene, y de las que se irá dando información detallada en los próximos meses.
Caso de éxito: Banco Sabadell
Si alguien tiene experiencia de haber incorporado las últimas soluciones de almacenamiento de IBM es el Banco Sabadell. De la mano de Oriol González Llobet, director de Control de Servicio y Explotación, y de Carlos Seseña, director de Producción de Mainframe, los más de 200 asistentes al evento pudieron conocer las más recientes incorporaciones de la entidad financiera que ejecuta más de 4.300 millones de transacciones al mes, para hacer un almacenamiento y uso adecuado de sus datos. La exigencia de funcionamiento 24/7 ha llevado a Sabadell a tener que elegir muy bien a sus partners tecnológicos, ya que una parada en el servicio no es algo que se puedan permitir, por no hablar de la imperiosa necesidad de conseguir latencias bajas. Las copias de seguridad están en la nube para una rápida recuperación de la información en caso necesario.
El valor de los partners
No podían faltar a la cita los partners de negocio de IBM. Ana Picazo, responsable de Soluciones de Almacenamiento de la compañía, moderó una mesa redonda con José Chivato Hernando, IT & Alliances Sales Manager de Evolutio;, Francisco J. Martínez, Infrastructure IT & SW Sales Director de Inetum;, Antonio Iglesias López, Sales Manager de Logicalis; y David Moreno, Global Head of Infrastructure Presales de Seidor. Todos ellos hablaron de los motivos que les han llevado a apostar por la tecnología de IBM Storage para ofrecer soluciones de almacenamiento a sus clientes, al tiempo que destacaron ciertas funcionalidades de la tecnología de IBM Storage, como flexibilidad de dimensionamiento, velocidad de respuesta, un esquema de precios flexible, rendimiento o seguridad, entre otras ventajas.
La jornada se completó con la clausura a cargo de Juan Castillo, VP de Infraestructura de IBM.