Amazon se ha especializado en inteligencia artificial (IA) y machine learning/aprendizaje automático (ML) durante más de 20 años, y muchas de las funcionalidades que los clientes utilizan con Amazon se basan en ML. Su motor de recomendaciones de comercio electrónico está impulsado por ML; la optimización de las rutas de los robots de sus centros logísticos está impulsadas por ML; y la planificación de su cadena de suministro, previsión y capacidad se basa en ML. Prime Air (drones) y la tecnología de computer vision de Amazon Go (experiencia de compra física en la que los consumidores pueden coger los productos y salir de la tienda sin tener que pasar por caja) utilizan deep learning. Alexa, que cuenta con más de 30 sistemas de ML diferentes, ayuda miles de millones de veces cada semana a gestionar hogares inteligentes, comprar, obtener información y entretenimiento, y mucho más.
Ahora, la compañía ha anunciado los modelos Amazon Bedrock y Amazon Titan, la forma más sencilla de desarrollar y dimensionar aplicaciones de IA generativa con modelos fundacionales o modelos de base (FM).
La IA generativa es un tipo de IA que puede crear nuevos contenidos e ideas, incluidas conversaciones, historias, imágenes, vídeos y música. Como toda IA, la IA generativa se alimenta de modelos de ML. Modelos muy extensos que se entrenan previamente con una gran cantidad de datos y que suelen denominarse modelos de base o fundacionales (FM). “Los clientes nos han dicho que hay algunos obstáculos importantes. Primero, necesitan una forma sencilla de encontrar y acceder a modelos fundacionales de alto rendimiento que ofrezcan resultados excelentes y se adapten mejor a sus objetivos. En segundo lugar, los clientes quieren que la integración con las aplicaciones sea perfecta, sin tener que gestionar enormes clústers de infraestructura ni incurrir en grandes costes. Dado que los datos que los clientes quieren utilizar para la personalización son una propiedad intelectual increíblemente valiosa, necesitan que durante ese proceso los datos permanezcan totalmente protegidos, seguros y privados, y quieren controlar cómo se comparten y utilizan”, señalan en una nota de prensa.
Por ello, Amazon Bedrock es un nuevo servicio que permite acceder a los FM de AI21 Labs, Anthropic, Stability AI y Amazon a través de una API. Bedrock es la forma más sencilla para los clientes de crear y escalar aplicaciones generativas basadas en IA utilizando FMs, democratizando el acceso para todos los creadores. Bedrock brindará la opción de acceder a una amplia gama de FMs de gran potencia para texto e imágenes, incluidos los Titan FM de Amazon. Gracias a la experiencia serverless (sin servidor) de Bedrock, los clientes podrán encontrar fácilmente el modelo adecuado para lo que desean hacer, comenzar a trabajar rápidamente, personalizar de manera privada los FMs con sus propios datos e integrarlos e implementarlos fácilmente en sus aplicaciones mediante las herramientas y capacidades de AWS con las que están familiarizados sin tener que gestionar ninguna infraestructura.
Amazon Titan
Por su parte, la compañía ha anunciado la disponibilidad general de las instancias Amazon EC2 Trn1n con tecnología de AWS Trainium y las instancias Amazon EC2 Inf2 con tecnología de AWS Inferentia2, la infraestructura en la nube. Independientemente de lo que los clientes intenten hacer con los FMs (ejecutarlos, crearlos o personalizarlos), necesitan la estructura más rentable y de mayor rendimiento diseñada específicamente para ML. Durante los últimos cinco años, AWS ha estado invirtiendo en sus propios chips para superar los límites de rendimiento y precio para cargas de trabajo de alta exigencia como la capacitación y la inferencia de ML, y sus chips AWS Trainium y AWS Inferentia ofrecen el menor coste para la capacitación de modelos y la ejecución de inferencia en la nube. Las instancias Trn1, impulsadas por Trainium, pueden suponer hasta un 50% de ahorro en los costes de entrenamiento con respecto a cualquier otra instancia EC2. Hoy se anuncia la disponibilidad general de las nuevas instancias Trn1n optimizadas para red, diseñadas para proporcionar un rendimiento un 20% superior al de Trn1 para modelos de gran tamaño y uso intensivo de red.
También anuncian la disponibilidad general de las instancias Inf2 con tecnología AWS Inferentia2, optimizadas específicamente para aplicaciones de IA generativa a gran escala con modelos que contienen cientos de miles de millones de parámetros. Las instancias Inf2 ofrecen un rendimiento hasta cuatro veces superior y una latencia hasta 10 veces inferior en comparación con la generación anterior basada en Inferentia. También disponen de conectividad de altísima velocidad entre aceleradores para permitir la inferencia distribuida a gran escala. Estas capacidades mejoran el rendimiento del coste de la inferencia hasta en un 40% con respecto a otras instancias comparables de Amazon EC2 y suponen el coste más bajo para la inferencia en la nube.