La inteligencia artificial es una de las cargas de trabajo informático más intensivas de nuestro tiempo, por lo que no es de extrañar que el consumo de energía y el coste energético asociados a los sistemas de IA estén creciendo y lo sigan haciendo. De hecho, a principios de este año, la Agencia Internacional de la Energía (IEA) reveló que los centros de datos, a nivel mundial, utilizaron el 2% de toda la electricidad en 2022, y predice que podría ser más del doble en 2026[1].
Aunque la eficiencia ha mejorado en los aceleradores de nueva generación, el consumo de energía no hará otra cosa que crecer con la adopción de la IA. Los centros de datos necesitarán ejecutar las cargas de trabajo de inteligencia artificial de forma más eficiente, y las instalaciones actuales no están equipadas para soportar las demandas de refrigeración de la creciente potencia de los procesadores. Y es aquí donde la refrigeración líquida juega un papel importante.
Las futuras infraestructuras de IA que utilicen los últimos aceleradores requerirán esta innovación en refrigeración líquida para abordar los problemas de eficiencia energética, sostenibilidad e incluso resistencia de los sistemas, que son fundamentales para mantener en funcionamiento las cargas de trabajo de IA. Y es que, comparada con la refrigeración por aire tradicional que utiliza ventiladores, con la refrigeración líquida – y más concretamente con la refrigeración líquida directa –, el refrigerante se bombea directamente a un servidor para absorber el calor emitido por los procesadores y se transfiere a un sistema de intercambio de calor fuera del centro de datos.
A continuación, vamos a analizar las cuatro razones principales por las que la refrigeración líquida es la solución perfecta para los centros de datos basados en IA.
Índice de temas
Algunos chips simplemente no pueden soportar el calor
Otras empresas del sector han hecho un trabajo increíble diseñando aceleradores de nueva generación para ofrecernos un rendimiento increíblemente superior para la IA con una mayor eficiencia del sistema.
Estos nuevos chips están diseñados para proporcionar aún más rendimiento en menos espacio, pero eso también significa que será más difícil refrigerar todos los componentes críticos de su interior. Y si no podemos enfriar los chips lo suficientemente rápido, los centros de datos podrían sufrir problemas de sobrecalentamiento que provocarían fallos en el sistema y, en última instancia, tiempos de inactividad no planificados en la ejecución de trabajos de IA.
La refrigeración líquida puede enfriar estos chips de forma más rápida y eficiente, ya que el agua contiene tres veces más capacidad térmica que la refrigeración por aire[2], lo que le permite absorber más calor emitido por los aceleradores y otros componentes como CPU, memoria y conmutadores de red.
Aprovechar el valor de la IA con un menor impacto ambiental
La refrigeración eficiente de los aceleradores de nueva generación para garantizar la fiabilidad del sistema es una prioridad, pero también se lo debemos a la Madre Naturaleza, por lo que es igual de importante hacerlo de forma más sostenible.
La refrigeración líquida presenta importantes ventajas en cuanto a sostenibilidad y costes para los aceleradores de nueva generación. Tomemos como ejemplo un centro de datos HPC con 10.000 servidores. Si estos se refrigeran por aire, un centro de datos emitirá más de 8.700 toneladas de CO2, en comparación con los servidores refrigerados por líquido, que emiten alrededor de 1.200 toneladas de CO2[3]. Esto supone una reducción energética del 87% y evita que se liberen a la atmósfera casi 17,8 millones de libras (más de 8 millones de kilos) de CO2 al año3.
No hay duda de que esta reducción masiva de energía también implica un importante ahorro de costes, algo que agradecerá cualquier director financiero que controle el gasto energético. Con un centro de datos de 10.000 servidores refrigerados por líquido, sólo pagará 45,99 dólares anuales por servidor, frente al coste anual de 254,70 dólares que genera un servidor refrigerado por aire. Esto supone un ahorro de casi 2,1 millones de dólares anuales en costes operativos3.
Reutilizar la energía de los sistemas de IA
Tras captar el calor, los sistemas de refrigeración líquida lo transfieren a un sistema de intercambio fuera del centro de datos, donde el agua calentada puede reutilizarse como fuente de energía para alimentar otros edificios o instalaciones.
El Laboratorio Nacional de Energías Renovables (NREL) del Departamento de Energía de Estados Unidos, uno de los principales centros de energías renovables del mundo, lleva años haciéndolo con éxito. Reutilizó el 90% del agua caliente captada de su sistema Peregrine, un superordenador HPE Cray refrigerado por líquido, como fuente de calor primaria para sus oficinas y laboratorios de la Energy Systems Integration Facility (ESIF).
QScale, en Quebec, ya está planeando hacer esto también, pero en su caso, para contribuir en el cultivo de productos y hacer frente a la escasez de alimentos. Con refrigeración líquida, QScale espera alimentar los invernaderos locales – que tienen casi el tamaño de 100 campos de fútbol – para producir el equivalente a 80.000 toneladas de tomates al año.
Del mismo modo, en Noruega, nuestro socio Green Mountain planea suministrar su agua calentada para apoyar los esfuerzos de piscicultura en Hima, la mayor piscifactoría de truchas en tierra del mundo, basada en Sistemas de Recirculación Acuícola (RAS), una tecnología que recircula agua de montaña pura y limpia. Hima aspira a producir unas 8.000 toneladas de trucha Hima de primera calidad, equivalentes a 22 millones de cenas al año.
Más rendimiento IA, sistemas más pequeños
A medida que los centros de datos planifican y se preparan para adoptar las futuras infraestructuras de IA, la densidad será un factor clave para hacer sitio a las soluciones avanzadas de inteligencia artificial. Dado que los ventiladores y todo el equipo necesario para soportarlos en las soluciones refrigeradas por aire no son necesarios para la refrigeración líquida, los centros de datos podrán colocar menos bastidores de servidores, más apretados, para maximizar el espacio o ampliarlo según sea necesario.
Basándonos en el ejemplo del centro de datos de 10.000 servidores anterior, con servidores refrigerados por líquido una instalación puede reducir el espacio necesario hasta un 77,5%3. Además, en cinco años, las soluciones de refrigeración líquida consumirán un 14,9% menos de energía en el chasis y ofrecerán un 20,7% más de rendimiento por kW que las soluciones refrigeradas por aire[4].
Cuando se trata de IA, merece la pena confiar en expertos con años de experiencia y diferentes patentes en refrigeración líquida que construyan sistemas de refrigeración líquida sostenibles y sofisticados, que permitirán a las empresas operar durante varios años consecutivos sin problemas.
Notas al pie
- IEA Report, publicado en 2024: Electricity 2024 – Analysis and forecast to 2026
2. Fuente: Bridge Ocean Science Education Resource Center: “El agua tiene un calor específico de 4,186 J/g ºC, frente al aire, que tiene un calor específico de 1,005 J/g ºC”.
3. Fuente: datos internos de HPE. Estos cálculos se han realizado basándose en un centro de datos de 10.000 servidores y suponiendo 0,105 dólares por kWh. El escenario refrigerado por aire asume 18 servidores por rack, mientras que la refrigeración líquida directa asume 80 servidores HPE ProLiant XL225n por rack 48U. El ahorro de energía por refrigeración se basa en las mismas estimaciones de HPE.
4. El ejemplo compara refrigeración por aire en un sistema HPE Cray XD2000 frente a la prueba de rendimiento DLC SPEChpc 2021, MPI+OpenMP 64 ranks, 14 threads (est)(por chasis HPE Cray XD2000). Los resultados mostrados son estimaciones basadas en pruebas de rendimiento internas realizadas por HPE en abril de 2023. Enlace al estudio.