Lucía Bonilla (Las Vegas)
La ciudad de Las Vegas ha acogido durante la última semana de noviembre el tradicional Summit de Amazon Web Services, un evento que ya es capaz de congregar a más de 50.000 personas a la espera de las cifras oficiales, y que genera gran expectación entre los asistentes. El evento se ha saldado con más de 2.000 workshops, charlas técnicas y de negocio para cubrir un amplio espectro en torno no solamente a la nube, sino también a las principales tendencias que impactan a las empresas digitales.
En ese sentido, en esta edición, el machine learning ha sido el protagonista indiscutible, con multitud de lanzamientos en esta línea. Su CEO, Andy Jassy, comenzó su presentación dando a conocer los buenos resultados cosechados por la compañía, que ha conseguido alcanzar una facturación de 27.000 millones de dólares y un espectacular crecimiento año a año del 46%. Además, según Jassy, su cuota de mercado cloud es de un 51,80%, bastante superior a su siguiente competidor, Azure, que ostenta un 13,30%, seguido de Alibaba, con un 4,6% y Google, con 3,3%. Bastante residual es la cuota de IBM, 1,9% y otros vendedores, entre los que se encuentra Oracle, ínfimamente representado, con un 25%. AWS es, de lejos, un jugador clave, y, conscientes de ello, su CEO piensa que este éxito se debe fundamentalmente a que han sabido escuchar a sus clientes y entender sus necesidades. Es por ello que “Aun muchas compañías no saben qué hacer con el machine learning o cómo utilizarlo, estamos en una de las fases más tempranas de su implantación. Por eso hemos invertido mucho y dedicado muchos recursos en presentar nuevos lanzamientos en torno a machine learning, porque hay muchísimo interés”.
Novedades destacadas
AWS ha anunciado 13 nuevas capacidades y servicios de aprendizaje automático, para llevar estas capacidades a más desarrolladores. La plataforma estrella es SageMaker, que ahora cuenta con nuevas funcionalidades que facilitarán a los desarrolladores la creación, capacitación e implementación de modelos de aprendizaje automático, incluido el etiquetado automático de datos a bajo coste y el aprendizaje por refuerzo (RL – Reinforcement Learning). Igualmente, la compañía reveló nuevos servicios, mejoras en el marco y un chip personalizado para acelerar la capacitación y la inferencia de aprendizaje automático, al tiempo que reduce los costes.
Los nuevos servicios de Inteligencia Artificial (IA) pueden extraer texto de prácticamente cualquier documento, leer información médica y brindar personalización personalizada, recomendaciones y pronósticos utilizando la misma tecnología utilizada por Amazon.com. Además, AWS ayudará a los desarrolladores a comenzar a utilizar el aprendizaje automático con AWS DeepRacer, un modelo de coche de carreras autónomo a escala 1/18 para desarrolladores e impulsado por aprendizaje por refuerzo, adentrándose así en este nuevo mercado del coche autónomo.
Además, Werner Vogels, CTO de AWS, hizo hincapié en las últimas innovaciones en torno a las bases de datos, un pilar fundamental para la compañía. Así, hay nuevas capacidades para Amazon Aurora y Amazon DynamoDB junto con dos nuevas bases de datos. La Amazon Aurora Global Database ofrece a los clientes la posibilidad de actualizar una base de datos en una sola región y hacer que se replique automáticamente en otras regiones de AWS para una mayor disponibilidad y recuperación ante desastres. Cabe destacar que a día de hoy la compañía cuenta con 19 regiones, pero de cara a 2020, habrá cinco más.
La nueva función Amazon DynamoDB On-Demand proporciona un aprovisionamiento de capacidad de lectura / escritura que elimina la necesidad de planificación de capacidad y permite a los clientes pagar solo por las solicitudes de lectura / escritura que consumen, mientras que el lanzamiento de DynamoDB Transactions permite a los desarrolladores crear garantías de transacción para múltiples actualizaciones de elementos, lo que facilita la prevención de conflictos y errores al desarrollar aplicaciones empresariales críticas y altamente escalables. AWS también anunció dos nuevos servicios de base de datos, Amazon Timestream, una base de datos de series de tiempo rápida, escalable y totalmente gestionada para IoT y aplicaciones operativas; y Amazon Quantum Ledger Database (QLDB), un ledger altamente escalable, inmutable y verificable criptográficamente.
Aterrizando los lanzamientos en el mercado español
Miguel Álava, responsable de AWS para EMEA, charló con Data Center Market para centrar las novedades en el caso concreto del mercado en España. Preguntado por cómo ve el interés y el grado de implantación del machine learning a nivel local, Álava explicó que “hay mucha predisposición. Por eso en AWS estamos haciendo muchos esfuerzos para democratizar estas tecnologías que serán muy útiles para predecir datos y anticiparse hacia una ágil toma de decisiones”. Y lo mismo ocurre con blockchain: “si hay un servicio de blockchain es porque los clientes así lo han pedido. Si existe, es porque hay demanda del mercado. Es una tendencia que está en boga y es importante”.
Adicionalmente, preguntado por su visión de Madrid como un posible hub digital, el responsable de AWS EMEA aseguró que, al magen de la buena conectividad con la que cuenta esta ciudad, “hay mucho talento, hay un importante tejido de innovación con capital que está entrando en España, y eso hay que aprovecharlo”. Además, Miguel Álava no ha descartado la posibilidad de que AWS instale una región en Madrid, lo que supondría abrir un centro de datos. “Nuestro CEO siempre ha dicho que estaremos presentes en las mayores economías del mundo, y habrá tantas regiones de AWS como la demanda lo imponga. Si la demanda es potente en España, no descartamos abrir una región”. De momento, la compañía ha anunciado que en el futuro más inmediato los países elegidos para abrir un CPD serán Hong Honk, Suecia, Italia, Sudáfrica y Baréin.