ENCUENTROS

La arquitectura tradicional de TI no está preparada para la IA



Dirección copiada

La inteligencia artificial implica cargas más intensivas en cálculo y un mayor consumo de recursos energéticos. Los centros de datos convencionales han de hacer frente a estos desafíos replanteándose su diseño. La IA se impone como la causa y la solución al mismo problema: la búsqueda de CPD más eficientes y sostenibles

Publicado el 30 oct 2024

Cristina Albarrán

redactora jefe de DCM



Asistentes al encuentro sobre IA y data centers celebrado en colaboración con Schneider Electric
Asistentes al encuentro sobre IA y data centers celebrado en colaboración con Schneider Electric

El impacto de la inteligencia artificial en los centros de datos es transformador. No sólo incrementa la demanda de una infraestructura más potente, escalable y eficiente, sino que también está cambiando la forma en que se diseñan, gestionan y optimizan los data centers. Está impulsando innovaciones tanto en hardware como en software, y está ayudando a hacer que estas instalaciones sean más sostenibles frente a la creciente demanda de almacenamiento y procesamiento de datos. Existe, pues, una doble cara de la moneda con la entrada de esta tecnología en el CPD.

Por un lado, la IA requiere un poder de procesamiento mucho mayor debido a la complejidad de los modelos y algoritmos. Las GPU (unidades de procesamiento gráfico), TPU (unidades de procesamiento tensorial), y otras arquitecturas especializadas se están incorporando en los data centers para manejar las cargas de trabajo de IA que son mucho más intensivas en cálculo que las aplicaciones tradicionales. También impulsa el uso de tecnologías de virtualización y contenedores, lo que permite a las aplicaciones de IA ejecutarse de manera más eficiente y escalable en múltiples entornos.

Por otra parte, la inteligencia artificial está impulsando el despliegue de capacidades de computación fuera de los grandes CPD tradicionales hacia el borde de la red, el llamado Edge computing. Esto permite procesar los datos más cerca de donde se generan, pero también desafía las arquitecturas tradicionales y obliga a repensar cómo se gestiona la infraestructura en una escala más distribuida.

Tampoco podemos olvidar que, a medida que los modelos de IA se hacen más complejos, su consumo de recursos también aumenta, lo que genera preocupaciones sobre su impacto ambiental. Las infraestructuras de los data centers están bajo presión para ser más ecológicas, utilizando menos agua y energía, y reduciendo su huella de carbono.

¿Qué pasa con la infraestructura de nuestro centro de datos? ¿Cumple con los requisitos de los nuevos tiempos? ¿Cómo afecta la IA al diseño y a la implementación de todas las instalaciones de diferentes tamaños y formatos que estamos buscando construir, alquilar o renovar para acomodar estas nuevas tendencias? ¿Qué factores debemos tener en cuenta?

Para dar respuesta a estas preguntas, Data Center Market, de la mano de Schneider Electric, organizó un almuerzo de trabajo con clientes en el que participaron activamente portavoces de las empresas Cretschmar, Henry Schein, ING, Movelia/Tecnova, Nationale Nederlanden y Sanitas.

ASISTENTES (de izquierda a derecha y de arriba a abajo) 1. Víctor Gago, Secure Power IT & ET Channel Sales Manager de Schneider Electric 2. Manuel Pérez-Tabernero, Secure Power End Users Sales Manager de Schneider Electric 3. Daniel Dorrego, Head of Cloud & Tech de ING 4. Pedro Martínez, Director de Operaciones IT de Sanitas 5. José Luis Campuzano, Head of Data de Nationale Nederlanden 6. Javier Santos, Director de IT de Tecnova 7. Óscar de María, Director de IT de Movelia 8. María Minaya, Digital, eCommerce and New Business Development Manager Spain and Portugal de Henry Schein 9. Daniel Martínez, IT Manager de Cretschmar

Los nuevos requisitos de la infraestructura de TI

A día de hoy, podemos decir que la inteligencia artificial se encuentra todavía en un estadio inicial de desarrollo. Pero, aunque bien es cierto que la mayoría de los proyectos actuales no han superado la prueba de concepto, cada vez conocemos más iniciativas reales que ya han entrado en fase de producción en el ámbito de la creación de contenido (documentación, resúmenes, traducciones simultáneas…); de la puesta en marcha de estrategias de e-commerce, así como en la gestión optimizada de rutas de transporte, de citas médicas o de bajas de clientes; la monitorización de pacientes mediante el análisis de constantes vitales u otros parámetros de salud, o la implantación de herramientas personalizadas de atención al cliente como chatbots o de formación de empleados, por citar algunos ejemplos.

No obstante, los proyectos -sobre todo de IA generativa-, dependen del sector y del tipo de compañía. Algunas van con “pies de plomo” en este terreno básicamente por el tema de la regulación que es la que está marcando el camino y el cuidado de los datos privados

Estos avances que, aunque tímidos, irán aumentando, nos llevan a preguntarnos si las infraestructuras actuales están preparadas para la IA. Como hemos comentado antes, la inteligencia artificial implica cargas más intensivas en cálculo, así como un consumo mayor de recursos energéticos. Así pues, el principal reto al que se enfrenta la industria es que la arquitectura convencional de los centros de datos no está capacitada para el aumento densidad por rack, esa cantidad de energía que consumen los equipos para funcionar. Si antes hablábamos de entre 2 y 5 kW, con la IA estas cifras se elevan hasta los 30 kW o los 40 kW cuando la inferencia entra en acción. Es decir, cuando un modelo de la IA, después de mucho entrenamiento con conjuntos de datos seleccionados, es capaz de razonar y sacar conclusiones de datos que no haya visto anteriormente, realizando predicciones de forma que imite las habilidades humanas.

A ello se añade otra preocupación más: la refrigeración óptima de estos entornos sin perder la eficiencia. Las tecnologías de ventilación por aire no resultan suficientes en estos casos extremos de consumo intensivo de datos. Habrá que pasar a soluciones híbridas que combinen aire y agua.

Imagen de los asistentes al encuentro sobre el impacto de la IA y de las nuevas cargas de trabajo en los data centers.
Imagen de los asistentes al encuentro sobre el impacto de la IA y de las nuevas cargas de trabajo en los data centers.

Apuesta por la nube (y ahora más por la IA)

Asimismo, durante la tertulia se ha constatado la apuesta de las organizaciones por la nube. En la mayoría de los casos es la fórmula híbrida la que más está funcionando con el mantenimiento de data center más reducidos como centros de respaldo o para depositar en ellos los activos core de la compañía. También es la nube privada la que más convence -por una cuestión de tener más controlados los datos, de legislación-, aunque la opción de ir hacia la pública figura igualmente en los planes de algunas empresas.

Sea como fuere, la migración es un hecho. Las demandas de velocidad, escalabilidad y capacidad de resiliencia son puntos a favor para la cloud. A ello se suma la preocupación de los departamentos de TI por la obsolescencia tecnológica y los parcheados y actualizaciones de seguridad, cuestiones que también solventa la nube. En este sentido, muchas compañías consideran que la nube les aporta tranquilidad, permitiéndoles centrarse en dar valor al negocio y no en mantener infraestructuras.

Paralelamente se empieza a ver una tendencia de retroceso hacia las soluciones on premise, principalmente porque las empresas tienen una sensación de estar “secuestradas” por un proveedor en el medio y largo plazo. Y esa repatriación se está realizando de los activos core del negocio. Las razones de esta vuelta tienen que ver con los costes, básicamente el no poder tener un control de los mismos ante picos de actividad. Vencer la sensación de vértigo que produce el no tener todo bajo control, en definitiva, cómo gestionar los imprevistos y avalar la predictibilidad. Aspectos como la seguridad del dato, la latencia… comienzan a cobrar importancia.

Sin embargo, el tema de los costes no está tan claro. ¿Por qué la nube es más cara? Muchas veces no somos capaces de predecir cómo va a ser la carga, pero también con la infraestructura física se consumían ciertos recursos que no se tenían contemplados. Los famosos costes ocultos. Anteriormente se trataba de una apuesta en CAPEX, pero se olvida que esto también supone tareas de gestión, licencias, etcétera, explicaron algunos portavoces durante el encuentro. Aunque también es cierto que, normalmente, al subir al cloud, se tarda unos cuantos años en recuperar la inversión.

Y esta disyuntiva entre los pros y los contras de la nube, aparece la IA. Su llegada, de hecho, está incentivando de nuevo ese mayor uso de la cloud. Y es que, en este nuevo escenario, el CPD convencional deja de ser suficiente. Pese a que se ha hablado mucho de los costes de tener en cloud aplicaciones en productivo, de qué fácil es subir a ella y lo que cuesta salir, este incremento de precio se va a disparar al incluir aplicaciones de inteligencia artificial en la ecuación. Además, todavía estamos ante un camino experimental en IA y algunas empresas, a la hora de tomar decisiones acerca de dónde mover la carga, se están planteando incluso dejarlas en local, en un entorno más controlado, porque no quieren que los datos que se utilizan para alimentar los modelos de inteligencia artificial estén expuestos.

Pero hay una cuestión en este debate que no admite dudas. Cuando hablamos de servicios más complejos como la IA, la nube ofrece más rendimiento y disponibilidad de los datos. Rebobinar con estas tecnologías tan nuevas es más difícil y puede resultar un desastre. Una vez que se está en la nube, la operativa resulta mucho más cómoda. Eso sí, no se puede ir a la nube mediante un lift and shift, son proyectos que requieren una transformación organizativa.

Ciberseguridad y latencia como puntos a considerar

Desde otra perspectiva, a la hora de adaptar la infraestructura TI a las nuevas exigencias tecnológicas también hay otros factores que se imponen como la ciberseguridad y la latencia.

Ni que decir tiene que la ciberseguridad cada vez preocupa más. El riesgo de un ataque y de un secuestro de los sistemas es muy real e implica daños económicos y pérdidas de clientes. Tener este aspecto controlado es un requisito imprescindible hoy en día.

Por otro lado, la latencia también es crucial en muchos escenarios pues se ha demostrado que tiene un impacto en los servicios que se prestan a los clientes. En algunos casos que se produzca un delay de un milisegundo afecta de lleno a la customer experience, perdiendo esa agilidad que se demanda en el empleo de ciertas aplicaciones. Tener la capacidad de cómputo cerca de dónde se produce el dato logra disminuir ese retardo en la propagación de paquetes en una red y incentivará la adopción del edge computing, impulsado todavía más por la llegada de la IA.

El círculo vicioso de la IA sostenible

Junto a la ciberseguridad y la latencia, también se impone con mayúsculas la SOSTENIBILIDAD. La premisa del compromiso medioambiental está sobre la mesa de las políticas empresariales y se materializa a la hora de seleccionar un proveedor de nube, ya que se mira cada vez más que los centros de datos en los que se alojan los datos cumplan con los criterios de sostenibilidad. Y en esta búsqueda surge la IA que aportará una mayor personalización, una reducción del tráfico de conectividad, de interacciones… Casos de uso muy relacionados con esta protección ecológica.

¿Es sostenible la IA? Realmente podemos decir que es la causa y la solución del mismo problema. Para ponerla en marcha vamos a tener necesidades de consumo energético muy altas. De esta manera, con los recursos actuales tradicionales no resulta muy sostenible, aunque, por otra parte, utilizando la inteligencia artificial como herramienta nos permitirá digitalizarlo todo. Aun siendo gran consumidora de energía, va a ayudar a reducirla, compensando la balanza.

En el mundo de hoy y del mañana con la IA, la infraestructura de TI es la columna vertebral, la autovía. Y en el diseño de estas infraestructuras que son los CPD vamos a pensar ya en hacerlos sostenibles recurriendo a equipos como SAI y sistemas de refrigeración más eficientes, así como al empleo de fuentes de energía renovables.

En este contexto, España puede presumir de una posición privilegiada en tanto en cuanto es uno de los pocos países que no tienen problema de generación de energía. El data center es un gran consumidor de algo que tenemos en exceso. Consumimos la misma cantidad que en 2005 y debemos continuar apostando por las renovables. Eso sí, necesitamos una industria que consuma ese excedente de energía que se produce y avanzar en electrificación, una tarea pendiente en la que vamos súper atrasados, lo que nos hace ser poco sostenibles y eficientes.

Artículos relacionados

Artículo 1 de 5