El dato, protagonista de la transformación digital

NetApp analiza cinco predicciones para el CTO en torno a la evolución de los datos durante 2018.

Publicado el 11 Dic 2017

El dato, protagonista de la transformación digital

La trasformación digital es una pieza central en cualquier estrategia tecnológica empresarial. Y, directamente en el centro de todo eso, se encuentran los datos. A medida que los datos se convierten en unos elementos cada vez más distribuidos, dinámicos y diversos, todo -desde las infraestructuras tecnológicas a las arquitecturas de las aplicaciones o las estrategias de aprovisionamiento- tendrán que cambiar como respuesta a las nuevas realidades en el mundo del cloud híbrido. En este contexto, NetApp elaborado nuestras cinco principales predicciones para los CTO en 2018.

1: Los datos se convierten en unos elementos conscientes de sí mismos

En la actualidad, contamos con unos procesos que actúan sobre los datos y determinan cómo se trasladan, gestionan y protegen. Pero, ¿qué ocurriría si, por el contrario, los datos se definieran por sí mismos?

A medida que los datos se convierten en unos elementos conscientes de sí mismos e incluso se hacen más diversos de lo que lo son en la actualidad, los metadatos permitirán a los datos transportarse, categorizarse, analizarse y protegerse por sí mismos de forma proactiva. El flujo entre datos, aplicaciones y elementos de almacenamiento se mapeará en tiempo real y los datos proporcionarán la información exacta que necesitan los usuarios en el momento preciso que la necesiten. Esto también incluye la posibilidad de autogobierno de los datos. Los datos por sí mismos determinarán quién tiene derecho de acceso a ellos, además del derecho a compartirlos y usarlos, algo que podría tener unas mayores consecuencias en materia de protección externa, privacidad, gobernanza y soberanía de los datos.

Por ejemplo, si tiene un accidente de circulación puede que haya varios grupos diferentes de personas que quieran o exijan tener acceso a los datos del vehículo. Un juez o la compañía de seguros pueden precisarlos para determinar la responsabilidad del accidente, mientras que el fabricante del automóvil puede necesitarlos para optimizar el rendimiento de los frenos o de otros sistemas mecánicos. Esta autoconsciencia de los datos permite etiquetarlos para controlar quiénes ven qué parte de ellos y cuándo lo pueden hacer, sin pérdidas de tiempo o potenciales errores adicionales debido a intervenciones de personas para subdividir, aprobar y distribuir los datos pertinentes a cada parte interesada.

2: Las máquinas virtuales se convierten en máquinas de ‘carpool’

La gestión de unos datos cada vez más distribuidos será más rápida, barata y cómoda usando para ello máquinas virtuales aprovisionadas en infraestructuras de escala web, en vez de máquinas físicas reales.

Podemos compararlo con comprar un coche o usar un servicio de traslado compartido (o carpool), como Uber o Lyft. Para aquellos que realicen transportes de cargas a diario, podría tener sentido adquirir una camioneta. Otros, sin embargo, pueden necesitar un cierto tipo de vehículo durante un periodo de tiempo determinado, por lo que el alquiler es la mejor opción. Y por último están los individuos que únicamente necesitan un vehículo para ir de un lugar a otro una sola vez; en este caso, el tipo de vehículo no importa, solo la velocidad y la comodidad, por lo que un servicio de carpool es la mejor opción para este último tipo de usuarios.

Esto mismo puede aplicarse a un contexto de instancias de máquinas físicas frente a virtuales. El hardware personalizado puede ser caro, pero, para cargas de trabajo intensivas y constantes, podría tener más sentido invertir en una infraestructura física. Una instancia de máquina virtual en el cloud que admita cargas de trabajo variables podría ser comparable a un alquiler: los usuarios pueden acceder a la máquina virtual sin necesidad de ser propietarios o sin necesidad de saber cualquier detalle sobre ella. Y, al final del periodo de ‘alquiler’, desaparece. Las máquinas virtuales aprovisionadas en infraestructuras de escala web (es decir, la tecnología sin servidores) son como los servicios de carpool de la tecnología, en donde el usuario sencillamente especifica las tareas que necesita realizar, dejando el resto de los detalles en manos del proveedor del cloud, lo que facilita y hace más cómodo su uso en comparación a los métodos tradicionales para ciertos tipos de cargas de trabajo.

3: La cantidad de datos crecerá más rápido que la capacidad para transportarlos… Y no pasa nada

No es un secreto afirmar que los datos se están convirtiendo en unos elementos increíblemente dinámicos y que se están generando a una velocidad sin precedentes, y esto va a hacer que, en breve, se supere en gran medida la capacidad para transportarlos. Sin embargo, en vez de trasladar los datos, serán las aplicaciones y los recursos necesarios para procesarlos los que se muevan a los datos y esto tendrá algunas consecuencias para las nuevas arquitecturas, como las de nivel local (edge), la esencial (core) y el cloud. En el futuro, la cantidad de datos utilizados en la arquitectura esencial será siempre menor de la generada a nivel local, pero esto no ocurrirá de forma accidental y se debe facilitar de forma muy deliberada para garantizar que los datos correctos se retienen para aprovecharlos en las tomas de decisiones posteriores.

Por ejemplo, los fabricantes de vehículos autónomos están incorporando sensores que van a generar una cantidad tan enorme de datos que harán que ninguna red existente sea lo suficientemente rápida como para trasladarlos ágilmente entre los vehículos y los centros de datos. Históricamente, los dispositivos a nivel local no han creado una gran cantidad de datos, pero, ahora, los sensores incorporados en todo –desde coches a termostatos o dispositivos ponibles– van a hacer que los datos a nivel local crezcan de una forma tan rápida que lleguen a superar la capacidad de las conexiones de red para llevarlos a la infraestructura esencial. Los vehículos autónomos y otros dispositivos locales requieren unos análisis en tiempo real a nivel local para permitirles tomar decisiones críticas e instantáneas. Como resultado, llevaremos las aplicaciones a los datos.

4: La evolución desde el Big Data al Huge Data exigirá nuevas arquitecturas impulsadas por unidades de estado sólido

A medida que se incrementa la demanda para analizar con más rapidez unas cantidades impresionantes de datos, necesitamos trasladar los datos más cerca de la computación. La memoria persistente es lo que va a permitir una computación de latencia ultra baja sin pérdida de datos; y estas demandas de latencia obligaran en última instancia a las arquitecturas de software a cambiar y crear nuevas oportunidades de negocio impulsadas por los datos. La tecnología Flash ha sido un tema destacado en el sector, pero, sin embargo, el software que funciona con esta tecnología no ha cambiado verdaderamente, sino que solo se ha hecho más rápido.

Esto se está viendo impulsado por la evolución del papel de los departamentos tecnológicos dentro de la organización. En el pasado su principal función fue la automatización y la optimización de procesos como los pedidos, la facturación, las cuentas por cobrar, etc. En la actualidad, el departamento tecnológico es una pieza básica para mejorar las relaciones con los clientes, proporcionando servicios siempre activos, aplicaciones móviles y mejores experiencias en Internet. El siguiente paso será la monetización de los datos recopilados a través de varios sensores y dispositivos, para generar nuevas oportunidades de negocio; éste es un paso que va a precisar nuevas arquitecturas y aplicaciones compatibles con tecnologías como, por ejemplo, la memoria persistente.

5: Emergen mecanismos descentralizados e inmutables para la gestión de los datos

Surgirán mecanismos para gestionar los datos de forma inmutable, verdaderamente distribuida y con toda confianza (es decir, sin autoridad central) que van a tener un impacto profundo en los centros de datos. El blockchain es un buen ejemplo de esto.

Los mecanismos descentralizados como los del blockchain representan un reto al concepto tradicional de la protección y la gestión de datos. Como no hay un punto central de control, como un servidor centralizado, es imposible cambiar o eliminar la información en un blockchain y, además, todas las transacciones son irreversibles.

Piense en ello como si se tratara de un sistema biológico. Tiene una serie de pequeños organismos que saben lo que se supone que tienen que hacer, sin tener que comunicarse con algo más o que les digan lo que deben hacer. A continuación, les proporcionamos algunos nutrientes (en este caso, los datos). Los nutrientes saben lo que hacer y todo empieza a funcionar de manera cooperativa, sin ningún control central. Como un arrecife coralino.

Los centros de datos actuales y las aplicaciones funcionan como granjas gestionadas de forma comercial, con una unidad central de control (el granjero) que gestiona el entorno que tiene a su alrededor. Los mecanismos inmutables descentralizados para la gestión de datos ofrecerán microservicios que los datos pueden usar para realizar las funciones necesarias. Los microservicios y los datos trabajarán de forma cooperativa, sin un control general gestionado de forma centralizada.

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

C
Redacción Computing

Artículos relacionados

Artículo 1 de 3