Comenzamos el 2019 y observamos una importante interconexión entre las tendencias de empresas y tecnologías. Por ejemplo, la inteligencia artificial (IA) es una pieza clave en las tendencias sobre desarrollo, gestión de datos, y suministro de aplicaciones y servicios, tanto en la periferia (Edge) como en el núcleo (Core) y el cloud. También la gestión en contenedores se ha convertido en un habilitador tecnológico clave, así como el aumento de la inteligencia en los dispositivos para el Internet de las Cosas (IoT) de la periferia. Los desarrolladores se encuentran sorteando esta tempestad de transformaciones, cuyos requisitos conducen a la creación de nuevos paradigmas y tecnologías innovadoras que deberán dominar para lograr una ventaja competitiva a largo plazo.
1. La inteligencia artificial ya está llegando, sobre todo al cloud
Aunque aún se encuentran en una etapa inicial de desarrollo, las tecnologías basadas en inteligencia artificial procesarán grandes cantidades de datos, la mayoría de ellos en los clouds públicos.
Un conjunto cada vez mayor de herramientas para servicios y software basados en IA (principalmente en el cloud) facilitará el desarrollo de esta tecnología. Esto permitirá a las aplicaciones basadas en IA proporcionar alto rendimiento y una gran escalabilidad, tanto dentro (on-premises) como fuera de las instalaciones (en cloud), además de ser compatibles con múltiples protocolos de acceso a datos y con nuevos y diferentes formatos de datos. Por ello, la infraestructura para las cargas de trabajo de IA también deberá ser resistente, rápida y automatizada. Si bien la IA se va a convertir en el próximo campo de batalla para los proveedores de infraestructura, la mayor parte del desarrollo de esta tecnología tendrá lugar en el cloud.
2. La evolución del IoT. Sin llamada a casa
Los servicios en la periferia van a ser más inteligentes y con mayor capacidad para tomar decisiones en tiempo real sobre procesamiento y aplicaciones.
Los dispositivos tradicionales para el Internet de las Cosas (IoT) se han creado alrededor de un paradigma inherente de “llamada a casa”: recolección de datos, envío de información para su procesamiento y espera de instrucciones. Pero aún con la llegada de las redes 5G, las decisiones en tiempo real no pueden esperar a que los datos hagan un recorrido completo a un cloud o a un centro de datos y vuelta. Asimismo, debemos tener en cuenta que la velocidad de crecimiento de los datos sigue en aumento. Como resultado de ello, el procesamiento de los datos debe realizarse cerca el consumidor y esto va a incrementar la demanda de una mayor capacidad de procesamiento de la información en la periferia. Los dispositivos y aplicaciones para IoT, con servicios incorporados como el análisis y la reducción de datos, serán mejores, más rápidos y más inteligentes para decidir qué tipo de datos requieren una acción inmediata, cuáles se deben enviar a casa o al cloud e incluso qué datos se pueden descartar.
3. Automágicamente, por favor
La demanda de servicios tecnológicos simplificados va a impulsar la abstracción continuada de recursos IT y la consideración de los servicios de datos como un commodity.
¿Recuerda cuando los anuncios de coches prometían que no iba a necesitar poner a punto el vehículo hasta que no hubiera superado los 100.000 kilómetros? (Bueno … al final casi ha sido así). Lo cierto es que es prácticamente nadie dedica ya los fines de semana a cambiar el aceite o las bujías, o a ajustar las correas de distribución. Solo espera arrancar el motor y que todo funcione. No tiene que pensar en llevar el vehículo a una revisión a menos que aparezca un mensaje avisando de ello. Así de sencillo. Las mismas expectativas se tienen de las infraestructuras tecnológicas, empezando con el almacenamiento y la gestión de datos: los desarrolladores no quieren tener que pensar en ese tipo de cosas, solo quieren hacer su trabajo. “Automágicamete”, por favor. En especial, con la contenerizacion y las tecnologías “sin servidor”, la tendencia hacia la abstracción de sistemas y servicios individuales va a impulsar a los arquitectos de tecnología a centrarse en los datos y su procesamiento, y a la creación de tejidos de datos (Data Fabric) híbridos en múltiples clouds en vez de simplemente centros de datos. Con la aplicación de tecnologías y diagnósticos predictivos, los responsables confiarán cada vez más en unos servicios de datos extremadamente sólidos y a la vez “invisibles”, para ofrecer datos donde y cuando se necesiten desde donde se encuentren. Estas nuevas funcionalidades también automatizarán la intermediación de servicios de infraestructuras como activos dinámicos y el transporte de contenedores y cargas de trabajo desde y hacia las soluciones del proveedor de servicios más eficiente para la tarea.
4. El multi-cloud será una elección (y ya sabe lo que ello conlleva)
Los clouds múltiples e híbridos serán la arquitectura tecnológica por defecto para la mayoría de grandes organizaciones, mientras que otras empresas elegirán la sencillez y la consistencia de un único proveedor de cloud.
Los contenedores harán que las cargas de trabajo sean extremadamente portátiles. Pero los datos pueden ser mucho menos portátiles que los recursos de computación y las aplicaciones, y esto afecta a la portabilidad de los entornos de ejecución. Incluso si logra resolver los problemas de protección, seguridad, fuerza de gravedad de los datos y todo lo demás, aún podría enfrentarse al problema de la dependencia de los servicios específicos de una única plataforma y de un único proveedor de cloud que impiden el transporte entre distintos clouds. Por ello, las organizaciones de menor tamaño desarrollarán funcionalidades propias como alternativas a los proveedores cloud, o bien optarán por la simplicidad, la optimización y la gestión sin intervención manual que aporta el uso de un único proveedor de cloud. Y pueden contar con que los proveedores de servicios desarrollarán nuevos diferenciadores que beneficien a aquellos usuarios que se decanten por un único proveedor. Por otra parte, las grandes organizaciones exigirán la flexibilidad, la neutralidad y la rentabilidad de ser capaces de trasladar aplicaciones entre diversos clouds, y aprovecharán los contenedores y los tejidos de datos para eliminar la dependencia de un único proveedor y asegurar la portabilidad total, además de controlar su propio destino. Independientemente de la ruta que elijan, las organizaciones de cualquier tamaño necesitarán desarrollar políticas y prácticas que les permitan obtener el máximo provecho de sus elecciones.
5. La promesa del contenedor: algo realmente bueno y novedoso
La orquestación en el cloud basada en contenedores permitirá el desarrollo verdadero de aplicaciones para clouds híbridos.
Los contenedores prometen, entre otras cosas, libertad para hacer frente a la dependencia de un único proveedor. Si bien las tecnologías de contenerización como las de Docker continuarán teniendo una gran importancia, el estándar de facto para el desarrollo de aplicaciones en múltiples clouds (aún a riesgo de caer en la obviedad) será Kubernetes. Pero aquí viene lo positivo … Las nuevas tecnologías para orquestación en el cloud basadas en contenedores van a permitir el desarrollo de aplicaciones para clouds híbridos, lo que significa que se desarrollarán nuevas aplicaciones para casos de uso tanto públicos como dentro de las propias instalaciones, sin necesidad de trasladar aplicaciones de un sitio a otro. Esto va a facilitar cada vez más el traslado de cargas de trabajo allí donde se generan los datos, en vez de lo que hemos visto hasta ahora tradicionalmente.