Por Joan Adroer, consultor de Desarrollo de Negocio en Grupo SATEC
Cuando empecé en este mundo, hace menos de 20 años, instalábamos terminales ADSL como equipos de cierta complejidad. El día que lo puse en casa vino un chico que apenas sabía a qué roseta de la pared tenía que conectar al equipo. Cuando me mudé de piso, me mandaron una caja y lo conecté yo mismo, sin necesidad de configurar nada. A lo que antes era “tecnología punta” ahora se le llama commodity, y se quiere meter hasta en la cocina (el Data Center, se entiende).
Las aplicaciones de nuestro Data Center nos piden proceso (CPU y RAM) para poderse ejecutar, y espacio en disco (cada día más) para guardar nuestros preciados datos. Los que trabajamos en ello, sabemos que el simple hecho de mantener una infraestructura de este tipo en marcha, requiere de monitorización y gestión diarias respaldadas por un equipo de operación que se ocupe de ello.
Cuando nuestro negocio es dinámico y el crecimiento está al orden del día, la cosa se complica aún más: La escalabilidad de recursos requiere de una planificación y diseño que muchas veces, si no se ha previsto de antemano, se convierte en tarea imposible, y nos obliga a renovar infraestructura que se ha tornado obsoleta antes de tiempo, y por tanto, no hemos amortizado.
Las soluciones de hiperconvergencia, vienen a “resolvernos” la vida, al menos en parte, y plantean un sistema hiper escalable, donde poniendo una caja al lado de otra, los recursos de mi datacenter (tanto proceso como espacio en disco) van creciendo en función de las necesidades. Cada nuevo appliance que añado a mi Data Center habla con la infraestructura existente, se reconfigura, y de forma totalmente automática, pone sus recursos a disposición de un pool global, de modo que vemos crecer nuestros recursos sin necesidad de re diseños ni operaciones complejas en un tiempo record, y lo que es más importante: sin ninguna parada en el servicio.
Si tuviese que hacer una analogía con el día a día, diría que las estancias de mi piso están alrededor de un largo pasillo, y que cuando le pido a la inmobiliaria una habitación más, en lugar de hacer reformas en el piso, traen una habitación nueva y la colocan en ese mismo pasillo: donde antes había una pared, ahora tengo una nueva puerta.
Si ello lo combinamos con una herramienta de predicción, que analizando los datos de nuestro día a día puede estimar cuales serán nuestras necesidades a corto plazo, podemos prever las adquisiciones que tendremos que realizar a futuro.
Ya sólo nos falta llegar a un acuerdo con nuestro proveedor y que en lugar de vendernos los equipos, nos facture por uso en régimen de alquiler, y podemos decir que en cada momento tenemos los recursos que necesitamos y que pagamos, ni más ni menos, por el uso que hacemos de ellos. Es lo más adecuado para los negocios que basan su actividad y por tanto facturación, en una plataforma digital.
A todo ello, los grandes proveedores de cloud nos están proponiendo algo parecido. Nos ofrecen recursos ilimitados y un pago periódico por ellos, en función del consumo que hagamos en cada momento. Eso sí, hay que jugar con sus reglas, aunque su catálogo es muy amplio, irse al cloud puede tener sus restricciones. La protección de datos, sus procesos de recuperación, y los planes de recuperación en caso de desastre, suelen estar sujetos a unas políticas que no cumplirán con las expectativas de los negocios más exigentes.
¿Ante este panorama, qué hacemos? Si la mitad del mercado se lo come el cloud y la otra mitad las soluciones commodity, o nos vamos todos al paro, o aprendemos cosas nuevas. La pregunta es qué vamos a tener que aprender, y si todos llegaremos a tiempo a ello. De lo que estoy seguro es que es difícil de prever. Es muy fácil explicar la evolución mirando hacia atrás y razonando que unos ganaron alas y los otros perdieron escamas, pero, ¿quién en aquella época hubiese sido capaz de señalar la dirección correcta?