NEWS

OVHcloud ofrece GPU de última generación para cargas de trabajo exigentes



Dirección copiada

La compañía continúa ampliando su cartera de soluciones de IA con la incorporación de nuevas gamas de GPU NVIDIA como parte de su visión estratégica de la inteligencia artificial

Publicado el 5 oct 2023



OVHcloud
OVHcloud ofrece GPU de última generación para cargas de trabajo exigentes

OVHcloud continúa ampliando su cartera de soluciones de IA con la incorporación de nuevas gamas de GPU NVIDIA como parte de su visión estratégica de la inteligencia artificial. La compañía está desarrollando infraestructuras diseñadas para IA que incluyen las nuevas GPU NVIDIA H100 y A100 Tensor Core, las mejores de su clase. Los clientes podrán elegir entre una gama de soluciones para impulsar sus cargas de trabajo de aprendizaje automático más ambiciosas, incluidos los grandes modelos de lenguaje (LLM).

Como complemento a las competitivas y populares NVIDIA V100 y NVIDIA V100S de generaciones anteriores, el grupo acaba de anunciar nuevas ofertas basadas en las siguientes GPU: NVIDIA H100, NVIDIA A100, NVIDIA L40S y NVIDIA L4, con un despliegue efectivo en las próximas semanas.

Nuevas instancias GPU con NVIDIA A100 para entrenamiento e inferencia de deep learning

Las nuevas instancias NVIDIA A100 de 80 GB ya están disponibles y permiten a los especialistas en IA ejecutar proyectos complejos en los Tensor Cores altamente especializados de NVIDIA. Con una capacidad de entrenamiento excepcional para el aprendizaje profundo, la A100 también es ideal para la inferencia gracias a varias optimizaciones realizadas para estas cargas de trabajo que integran proyectos LLM. La computación de alto rendimiento es otra área en el que las instancias GPU A100 contribuirán con la próxima generación de descubrimientos a través de simulaciones avanzadas, gracias a su rendimiento de computación de doble precisión y memoria de gran ancho de banda.

Las instancias A100 de Public cloud pueden configurarse como A100-180 con 1x A100, 15 vCore y 180 GB de RAM, A100-360 con 2x A100, 30 vCore y 360 GB de RAM y A100-720 con 4x A100, 60 vCore y 720 GB de RAM.

Nuevas instancias GPU con NVIDIA H100 para entrenamiento de deep learning

OVHcloud también anuncia nuevas instancias GPU basadas en H100 que incorporan los últimos avances de NVIDIA, con 26 petaFLOPS (FP64) de potencia de cálculo por GPU PCIe. Diseñada específicamente para los modelos de IA más exigentes, NVIDIA H100 es la elección de referencia para la innovación en IA, ya para acelerar LLM con su Transformer Engine o para crear aplicaciones de IA generativa.

Para los casos de uso más complejos, especialmente en el ajuste fino y en el entrenamiento, el grupo ofrecerá soluciones basadas en NVIDIA H100 SXM. Con una capacidad de cálculo de 67 TFlops (FP64) y un mayor ancho de banda de GPU, esta oferta demostrará toda la potencia de la arquitectura de GPU NVIDIA Hopper.

Nuevas instancias GPU y servidores Bare Metal con NVIDIA L4 y L40S

El grupo también ha anunciado nuevas instancias GPU dotadas de GPU NVIDIA L4 con 24 GB de memoria. La L4 se basa en la arquitectura de GPU Ada Lovelace de NVIDIA y es una GPU universal apta para todo tipo de cargas de trabajo con funciones mejoradas de IA y vídeo. Este chip proporciona recursos de cálculo óptimos escenarios de gráficos, simulación, ciencia de datos y análisis de datos.

La GPU NVIDIA L40S, lanzada recientemente por NVIDIA, se une a las actuales GPU de la compañía en configuraciones de 48 GB de memoria. La NVIDIA L40S aprovecha los Tensor Cores de cuarta generación y el FP8 Transformer Engine para proporcionar un sólido rendimiento en tareas relacionadas con la IA como el entrenamiento y la inferencia.

Estas nuevas referencias de GPU estarán disponibles en instancias de Public cloud y en servidores Bare Metal dedicados: la L4 se unirá a la gama SCALE-GPU y L40S a la gama HGR-AI.

Artículos relacionados

Artículo 1 de 4