Amazon Web Services anuncia la disponibilidad de las instancias P3 para Amazon EC2

Esta nueva generación de instancias GPU ha sido diseñada para aplicaciones de uso intensivo de cómputo que requieren rendimiento de punto flotante paralelo masivo, como Machine Learning.

Publicado el 27 Oct 2017

Machine Learning

Amazon Web Services ha anunciado la disponibilidad de las instancias P3 para Amazon Elastic Compute Cloud (Amazon EC2), el servicio de AWS que proporciona capacidad informática en la nube segura y de tamaño modificable. Esta nueva generación de instancias GPU ha sido diseñada para aplicaciones de uso intensivo de cómputo que requieren rendimiento de punto flotante paralelo masivo, como Machine Learning, dinámicas computacionales fluidas, análisis sísmico, modelado molecular, genómica y sistemas de conducción autónoma. Las instancias P3 son las instancias GPU más potentes disponibles en la nube. Además, son las primeras en incluir GPUs NVIDIA Tesla V100.

Las instancias P3 permiten a los clientes crear e implementar aplicaciones avanzadas con un rendimiento hasta 14 veces mayor que las instancias de cómputo GPU de Amazon EC2 de la generación anterior, y reducen el entrenamiento de las aplicaciones de aprendizaje automático de días a horas. Con hasta ocho GPU NVIDIA Tesla V100, las instancias P3 proporcionan hasta un petaflop de precisión mixta, 125 Teraflops de precisión simple y 62 teraflops de rendimiento de punto flotante de doble precisión, así como 300 GB/s así como también una interconexión de NVIDIA NVLink de segunda generación de 300 GBS que permite la comunicación GPU a GPU de alta velocidad y baja latencia. Las instancias P3 también cuentan con hasta 64 vCPU basadas en procesadores Intel Xeon E5 (Broadwell) personalizados, 488 GB de DRAM y 25 Gbps de ancho de banda de red agregado dedicado utilizando el adaptador de red elástico (ENA).

“Cuando lanzamos nuestras instancias P2 el año pasado, no podíamos creer lo rápido que las adoptaron”, afirma Matt Garman, vicepresidente de Amazon EC2. “Hoy en día, la mayoría del aprendizaje automático en la nube hoy se realiza en instancias P2. Sin embargo, los clientes necesitan instancias más potentes. Al ofrecer hasta 14 veces mejor rendimiento que las instancias P2, las instancias P3 reducirán significativamente el tiempo de entrenamiento de modelos de aprendizaje automático, proporcionando agilidad para que los desarrolladores experimenten y optimizando el aprendizaje automático sin requerir grandes inversiones en clusters GPU on premise. Además, las aplicaciones informáticas de alto rendimiento se beneficiarán de hasta 2,7 veces de mejora en el rendimiento de punto flotante de precisión doble”.

Airbnb ofrece acceso a millones de alojamientos únicos y experiencias locales en más de 65,000 ciudades de 191 países. “En Airbnb estamos utilizando el aprendizaje automático para optimizar las recomendaciones de búsqueda y mejorar la orientación dinámica de precios para los anfitriones, lo que se traduce en mayores conversiones de reserva. Estos casos de uso son altamente específicos para nuestra industria y requieren modelos de aprendizaje automático que usan varios tipos diferentes de fuentes de datos, tales como preferencias de huéspedes y anfitriones, listado de ubicación y condición, estacionalidad y precio”, afirma Nick Handel de Airbnb. “Con las instancias P3 de Amazon EC2 tenemos la capacidad de ejecutar cargas de trabajo de entrenamiento más rápido, lo que nos permite iterar más, crear mejores modelos de aprendizaje automático y reducir los costos”.

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

D
Redacción Data Center Market

Artículos relacionados

Artículo 1 de 3