Intel presentó sus procesadores de red neuronal (NNP) Intel Nervana para entrenamiento (PNN-T1000) e inferencia (PNN-I1000), el primer circuito integrado de aplicación específica (ASIC) de la firma para un aprendizaje profundo complejo con una escala y una eficiencia increíbles para clientes con centros de datos y en la nube. Intel también dio a conocer su Unidad de Procesamiento de Visión (VPU) de última generación Intel Movidius Myriad para medios Edge, visión por ordenador y aplicaciones de inferencia.
Estos productos siguen reforzando la cartera de soluciones de IA de Intel, que previsiblemente generará más de 3.500 millones de dólares en ingresos en 2019. Con la mayor amplitud y profundidad del sector, la cartera de IA de Intel ayuda a los clientes a habilitar el desarrollo y despliegue del modelo de IA a cualquier escala, desde nubes masivas a diminutos dispositivos Edge, y todo el espectro que los separa.
Los nuevos NNP Intel Nervana, actualmente en fase de producción y entrega a los clientes, se enmarcan en un enfoque de IA a nivel de sistemas que ofrece un completo conjunto de software desarrollado con componentes abiertos y la integración de un marco de aprendizaje profundo para su máximo aprovechamiento.
El NNP-T Intel Nervana logra el equilibrio perfecto entre informática, comunicación y memoria, además de permitir una adaptación prácticamente lineal y con un consumo energético eficiente, desde pequeños grupos hasta los mayores superordenadores. El NNP-I Intel Nervana presenta un consumo energético eficiente a un precio asequible y resulta ideal para ejecutar inferencias intensas y multimodales a escala real a partir de factores de formas flexibles. Ambos productos fueron desarrollados pensando en las necesidades de procesamiento de IA de clientes a la vanguardia de esta tecnología, como Baidu y Facebook.
Además, la VPU de última generación Intel Movidius, que previsiblemente estará disponible en el primer semestre de 2020, incorpora avances de arquitectura únicos y tremendamente eficientes que se espera que arrojen los mejores resultados (más de 10 veces el rendimiento de inferencia de la generación anterior) con hasta seis veces la eficiencia energética de los procesadores de la competencia. Intel también ha anunciado su nuevo Intel DevCloud para Edge que, junto con el kit de herramientas Intel Distribution of OpenVINO, aborda un punto problemático clave para los desarrolladores, permitiéndoles así probar, crear prototipos y testar soluciones de IA en una amplia gama de procesadores Intel antes de adquirir el hardware.
Son necesarios datos, técnicas y modelos increíblemente complejos para avanzar en el razonamiento y el contexto del aprendizaje profundo, lo que trae consigo la necesidad de reconcebir las arquitecturas.
Dado que una inmensa mayoría ejecuta alguna parte de su IA en procesadores Intel Xeon Scalable, Intel no deja de introducir mejoras en esta plataforma con características como Intel Deep Learning Boost con Instrucción de Red Neuronal de Vectores (VNNI), que potencian el rendimiento de inferencia de IA en despliegues tanto en centro de datos como en Edge. Si bien esto seguirá sentando una sólida base para la IA durante años, las necesidades de entrenamiento de aprendizaje profundo más avanzado de los clientes de Intel exigen una duplicación del rendimiento cada tres meses y medio, y esta clase de avances solo se producirá con una cartera de soluciones de IA como la de Intel.
La firma cuenta con las herramientas para tener una visión global de la informática, la memoria, el almacenamiento, la interconexión, el embalaje y el software con el objetivo de maximizar la eficiencia, la capacidad de programación y garantizar la capacidad crítica para ampliar la distribución del aprendizaje profundo a través de miles de nodos con el objetivo, a su vez, de impulsar la revolución del conocimiento.