La supercomputación ha evolucionado mucho en los últimos años, de tal forma que podemos decir que ya no estamos ante una tecnología al alcance un puñado de compañías de gran tamaño. Su uso se ha democratizado, impactando de lleno en cada uno de nosotros y tratando cuestiones más cotidianas. En sus orígenes su empleo se limitaba a la resolución de complejos problemas matemáticos, pero en la actualidad su aplicación abraca el estudio genómico, la medicina especializada, la fabricación de productos, el análisis de riesgos en banca o seguros e, incluso, la predicción meteorológica. Todo aquello que requiera el procesamiento de grandes volúmenes de datos. Y, precisamente, la producción y gestión de datos y más datos es el pan nuestro de cada día.
Para profundizar sobre las principales tendencias en HPC (High Performance Computing), Data Center Market, en colaboración con Dell Technologies e Intel, organizó un live webinar al que asistieron un nutrido grupo de empresas y entidades -como universidades y centros de investigación-, tanto del sector público como privado de nuestro país.
El evento estuvo moderado por Lucía Bonilla, directora de Data Center Market, y fue inaugurado por Miguel Fajardo, director Data Center Compute España de Dell Technologies. Durante su breve intervención, el directivo indicó que la computación de alto rendimiento se perfila como un área de crecimiento importantísima a nivel global, convirtiéndose en un activo clave para la innovación y la competitividad nacional. De hecho, las consultoras pronostican un aumento de la inversión en todo lo relacionado con estas arquitecturas en los próximos años. Según Hyperion Researchel mercado global de HPC superará los 18,9 billones de dólares en todo el mundo para 2024. En España, moverá para esa fecha 224 millones de dólares, creciendo a una tasa compuesta anual del 5,7%.
Caso de éxito: Universidad de Cambridge
Tras la introducción de Miguel Fajardo, el Dr. Paul Calleja, director de Investigación en Computación de la Universidad de Cambridge, explicó que la HPC había cambiado mucho en estos últimos años de manera que hoy se concibe como una herramienta básica y esencial para todos.
“No se puede separar la computación a gran escala de la vida diaria de las personas”, sentenció. En su opinión, esta tecnología supone dar toda una serie de posibilidades y capacidades que son flexibles, bajo demanda, y permanentemente evolucionadas, para todo tipo de usuarios. Esta popularización ha rebajado el coste de esta tecnología, a la par que se han incrementado los flujos de trabajo. Se ve como una capacidad vital a nivel nacional, acaparando la atención gubernamental, y se aplica a multitud de sectores, incluso para lo que se ha dado a conocer como “computación de emergencia”, que se ha podido probar con la pandemia de la Covid-19.
Asimismo, el doctor señaló que este avance es la fusión de la computación a gran escala, la Inteligencia Artificial y las tecnologías de análisis de datos, todo combinado con la explosión de grandes data center en todo el mundo. Sostuvo que hemos pasado de una forma monolítica de hacer computación a gran escala, hacia modelos ágiles y configurables. Por otra parte, Calleja detalló el papel del Cambridge Research Computing Service en este progreso y el trabajo conjunto realizado con Dell Technologies e Intel. La Universidad de Cambridge es una de las principales del mundo y posee un clúster TIC muy activo en cuanto a investigación e innovación. Su relación con la arquitectura HPC data de hace más de 70 años, desde los primeros sistemas hasta la actualidad en la que disfruta de modelos de computación que incluyen la nube y que han convertido a este centro en el más importante en supercomputación del Reino Unido. La clave del éxito del Cambridge Open Exascale Lab está en el co-diseño, es decir, en fomentar la participación en el diseño de usuarios, intermediarios y proveedores de servicios que trabajan juntos para crear soluciones personalizadas con estándares abiertos. Como centro de excelencia de Dell Technologies e Intel, realizan talleres, reuniones y revisiones de tecnología con empresas interesadas en embarcarse en el ámbito de la HPC.
Eficiencia y rendimiento, los grandes desafíos
Posteriormente, el Dr. Martin Hilgeman, director técnico de HPC para EMEA en Dell Technologies, centró su charla en cómo aprovechar las nuevas novedades tecnológicas en HPC para la configuración de los centros de supercomputación. Hilgeman hizo un repaso del historial del Dell Technologies en el negocio de HPC, una presencia que muchas personas desconocen y que se remonta a los años 90 en el primer HPC cluster de la Universidad de Cornell y que sigue creciendo hasta nuestros días.
Esta actividad de la compañía en este entorno ha venido marcada por la búsqueda de una mayor eficiencia y rendimiento de las soluciones lanzadas al mercado. Con el reto de ser neutrales en las emisiones de carbono en 2030, la multinacional trabaja en el diseño de arquitecturas optimizadas para su uso y en las que se mejoren los subsistemas IO y de memoria, todo ello para poder construir arquitecturas a demanda más eficientes para los usuarios. Frecuencia, densidad, software y rendimiento son parámetros a tener en cuenta que se combinan para lograr responder a las necesidades cambiantes de las empresas y de las personas. Pero las leyes físicas se imponen y muchas veces no es posible hacer modificaciones a nivel de hardware para optimizar las prestaciones requeridas, algo que sí podría llevarse a cabo a nivel de software.
El directivo analizó las principales tendencias a nivel de sistemas, nodos y redes y argumentó los beneficios de una infraestructura “componible” (composable), es decir, de una infraestructura modular, en cuanto a incrementos de agilidad, operar de manera eficiente y aportar más valor. La propuesta de Dell Technologies en este campo es Gen-Z, una arquitectura basada en sistemas abiertos diseñada para interconectar procesadores, dispositivos de memoria y aceleradores. Esta solución permite el aprovisionamiento y el uso compartido de recursos para admitir una amplia gama de aplicaciones y aportar flexibilidad para la reconfiguración del sistema a medida que cambian las demandas de las aplicaciones para diferentes recursos. Una solución en que admite una comunicación de alta velocidad con dispositivos y memoria remotos; y que se sustenta en la redundancia, la seguridad, la flexibilidad y la compatibilidad.
Comunidad HPC de Dell Technologies
Dell Technologies cuenta con una comunidad de supercomputación que comenzó a funcionar en 2016 y que ya supera los 1.000 miembros registrados en todo el mundo. Este ecosistema lleva a cabo sesiones periódicas y continuas sobre esta tecnología y dispone de un equipo de soporte específico y dedicado al ámbito de IA y HPC. Avalada por amplia gama de soluciones TI de la compañía (cómputo, almacenamiento y networking), trabajan con diferentes partners del sector como Intel. Con tres cluster -Zenith, Rattler y Minerva gestionados por ingenieros de la compañía-, la comunidad también consta de varios centros de excelencia como es el caso del Cambridge Open Exascale Lab que ocupa un lugar importante dentro de esta plataforma. El proveedor está trabajando en la creación de una comunidad en España para responder a la enorme demanda de soluciones de supercomputación que se esperan en los próximos años.
Más información sobre esta comunidad: dellhpc.org e info@dellhpc.org.