Según la empresa Nutanix, una de las mayores transformaciones vendrá de la evolución de un enfoque basado en la potencia computacional a otro centrado en abordar la parte de almacenamiento de la ecuación, impulsado por las aplicaciones de Big Data y la marea de herramientas de analítica de datos que inundaron el Centro de Datos el año anterior.
Desde el punto de vista del hardware, esta tendencia acelerará la ya de por sí enérgica marcha del almacenamiento Flash frente al magnético convencional, con cada vez más empresas adoptando arquitecturas All-Flash para mejorar el rendimiento y eliminar los silos.
Una de las víctimas de este cambio será la otrora dominante Red de Área de Almacenamiento (SAN, por sus siglas en inglés). La afluencia de alternativas más escalables -con gastos de gestión mucho menos elevados- el aumento de la disponibilidad, y un mayor entendimiento de los beneficios que la analítica de datos genera para el Centro de Datos, debilitarán dicho enfoque.
“Desde cierta perspectiva puede parecer que durante los próximos 12 meses el Datacenter seguirá funcionando como siempre, con la virtualización de las cargas de trabajo, la integración heredada y la, aparentemente, interminable búsqueda de un mayor rendimiento y capacidad. No obstante, la creciente aceptación de la Nube Pública como un componente clave para la transformación digital representará un importante reto para los departamentos de TI”, afirma Francisco Dalmau, Country Manager de Nutanix para Iberia.
¿Es el fin del centro de datos?
Efectivamente, dentro del conjunto de plataformas que los departamentos de TI deberían afrontar, la nube pública destaca con cada vez mayor fuerza. No obstante, es poco probable que la empresa renuncie al centro de datos sin pelear, por lo que hay claros indicios de que a lo largo de 2017 prevalecerá un enfoque híbrido.
En este sentido, fabricantes como Amazon, que una vez mantuvieron que el Centro de Datos on premise era del todo innecesario, han variado su postura, facilitando la migración y el equilibrio de las cargas de trabajo entre dominios públicos y privados. Otros (liderados por Nutanix) ya están integrando las tecnologías web-scale de Cloud Pública en sus productos, a fin de ayudar a las empresas a aprovechar la escalabilidad instantánea y la economía de pago-por-uso que la Nube Pública asegura, y sin que ello suponga renunciar a la propiedad, control y seguridad que ofrecen las alternativas locales.
Abordar la complejidad inherente que supone el enfoque híbrido, tanto a nivel de infraestructura como de aplicación y de negocio, será de este modo una prioridad durante 2017.
“Desde el punto de vista de la infraestructura, las tecnologías de virtualización aplicadas con éxito a la gestión de los recursos informáticos ya se están ampliando para hacer lo mismo con el almacenamiento y la red”, expone Dalmau. “Los productos y las tecnologías están madurando rápidamente, con la vista puesta en que 2017 sea el año en el que el Centro de Datos definido por Software (SDDC) finalmente se convierta en una realidad”.
Hacia la ‘Utility Computing’
Por otro lado, se están produciendo grandes avances en la gestión de las cargas de trabajo de las aplicaciones y, gracias a la analítica de datos, también en el desarrollo de sofisticadas herramientas de automatización empresariales. Estas herramientas permiten a las organizaciones definir en términos puramente comerciales las políticas por las que desean que sus sistemas digitales sean monitorizados, administrados y medidos. Más que eso, pueden ser ejecutados por software inteligente, independientemente de las plataformas involucradas, ya sea en el Centro de Datos on-premise, en Clouds Privadas alojadas externamente o en servicios de Nube Pública, para ofrecer las TI que las empresas demandan, dónde y cuándo las necesiten.