“Con Ice Lake abordamos nuevas demandas y cargas de trabajo para una nueva era”

Entrevista con Patricia Pozuelo, EMEA Territory Technical Sales Manager de Intel Corporation para saber todos los detalles de los nuevos chips para data centers.

Publicado el 07 Jun 2021

Patricia Pozuelo, EMEA Territory Technical Sales Manager de Intel Corporation

Hablemos de Ice Lake… ¿cuánto tiempo ha llevado su desarrollo y qué características tiene su arquitectura?

Ice Lake marca un antes y un después. Dentro de toda la familia escalable de Intel, Xeon normalmente se ha visto como un procesador convencional, es decir, para soportar las cargas de trabajo del centro de datos. Pero ahora hemos dado un paso más allá, y estamos abordando nuevas cargas de trabajo y demandas según las necesidades de los usuarios, como por ejemplo, entornos multi cloud o características de Inteligencia Artificial como parte del ADN del propio chip para acelerar inferencias dentro del mismo Xeon. Igualmente importante, ha sido prepararlos para la nueva generación de 5G. En definitiva, estamos muy enfocados en esta nueva y tercera generación y también en sus componentes, por ejemplo, Optane 5800x que viene con varios sabores, desde el formato SSD como la memoria persistente, y ambos dan soporte total a esta nueva generación de Xeon, que viene a marcar un antes y un después. Ice Lake surge como respuesta a esa gran demanda de nuevas cargas de trabajo asociadas a la nube, y que se han visto muy potenciadas a raíz de la pandemia.

¿Qué supone incorporar la IA a los chips de Ice Lake? ¿por qué es revolucionario y en qué casos aplica?

Tenemos una propuesta de valor y un departamento en exclusiva investigando sobre temas de inteligencia artificial. Estamos invirtiendo mucho en GPU y tarjetas gráficas muy enfocadas a la inteligencia artificial, pero en Xeon la cantidad de datos que manejamos diariamente hace que la parte de proceso necesite también ese motor de inteligencia artificial para acelerar la inferencia y modelos predictivos. Es decir, tenemos no solamente componentes dedicados, sino que en el procesador más convencional, podemos facilitar y acelerar esa inferencia. Lo que hemos añadido es una tecnología a la que hemos llamado Deep Learning Boost que aprovecha las capacidades de la nueva arquitectura Ice Lake para utilizar su capacidad de cálculo de redes neuronales en forma de cálculos de menor precisión, lo que se traduce en reducciones de latencia y de consumo de energía.

Estamos invirtiendo en GPU y tarjetas gráficas enfocadas a la IA, pero en Xeon la cantidad de datos que manejamos hace que la parte de proceso necesite también ese motor de inteligencia artificial para acelerar la inferencia

¿En qué medida un procesador como Ice Lake puede optimizar los despliegues de Edge computing?

Si, al final todo está muy ligado, y el tema de la comunicación es clave para nosotros. En el Edge se trabaja en una solución end-to-end. Llevamos diez años trabajando y optimizando tanto las tarjetas de red como las controladoras, para reducir lo máximo posible la latencia. Tenemos años de experiencia, y soluciones optimizadas para el edge. De hecho, según un informe de la consultora Mckinsey, de cara a 2024, va a haber una inversión en el edge y en redes de comunicaciones muy importante, y ahí la fotónica del silicio, ya que habilita un gran ancho de banda al tiempo que facilita implementaciones de infraestructura definida por software (SDI) con el fin de separar los recursos de hardware y software para centros de datos desagregados. Todo ello redundará en soluciones paquetizadas que te abrirán opciones de edge. Además, como complemento, tenemos soluciones paquetizadas, llamadas IoT Market Ready Solutions.

Tenemos varias tecnologías, como Software Guard Extensions (SGX) para dotar de seguridad al hardware

¿Son seguros?

Sí, y de hecho ha sido un factor determinante a tener en cuenta. Es un pilar clave, y siempre la vamos mejorando. En ese sentido, hemos añadido Software Guard Extensions (SGX), que son nuevos controles basados en hardware que aísla los datos y los códigos de aplicaciones específicas en memoria. Es una tecnología que inicialmente se utilizaba para procesos de blackchain porque garantizaba un enclave de seguridad desde el arranque de una aplicación hasta la propia aplicación. Es útil incluso para la migración de las cargas de máquinas virtuales, garantizando la seguridad de los datos. En su día, esta tecnología fue de gran éxito especialmente para entidades bancarias, pero fuimos ampliando su alcance y características al end-to end. Pero también tenemos otros desarrollos para garantizar esa seguridad como complementos, como por ejemplo Total Memory Encryption, o Intel Platform Firmware Resilience, que añaden capas de prevención para prevenir posibles ataques a nivel hardware.

¿A qué tipología de clientes está orientado? ¿a grandes centros de datos?

Sí, fundamentalmente para clientes finales tipo entidades financieras y bancos y en el sector público, que también está saltando a la nube, junto con compañías eléctricas y de nube. También por supuesto para integradores de servicios, junto con proveedores de software independientes.

¿En qué plataformas o servidores están ya preparados para correr y hay clientes de Ice Lake en España?

Los chips fueron lanzados el pasado 6 de abril, y se han distribuido unas 200.000 unidades. Los fabricantes y OEMs lo están adaptando ya y para este mes o el que viene lo adaptarán para sus usuarios finales. En Intel tenemos el programa Early Adopters que adelanta ciertas unidades para que los integradores lo puedan homologar a sus sistemas, eso siempre se trabaja con tiempo para tener lista la plataforma y poderla dar a los clientes lo antes posible.

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

Lucía Bonilla
Lucía Bonilla

Artículos relacionados

Artículo 1 de 3