Resiliencia de infraestructuras críticas: cuantos más datos, mejor

Publicado el 07 Jun 2021

El coste de sufrir una interrupción en un centro de datos es enorme. Estamos hablando de infraestructuras tremendamente críticas en las que un fallo, por pequeño que sea, puede tener graves consecuencias. No hay más que ver lo que sucedió en India en febrero de este año. Su Bolsa Nacional de Valores, a raíz de un fallo técnico, sufrió una interrupción de cuatro horas que provocó una ola de pánico y muchas pérdidas para los inversores.

Si queréis cifras más concretas, podemos tomar como referencia la encuesta que realizó recientemente el Uptime Institute y que indica que casi un tercio de las interrupciones reportadas costaron más de 250.000 dólares y muchas superaron el millón.

También hay buenas noticias. Aunque los retos en este sentido para el sector existen y son importantes, afortunadamente ya contamos con los recursos que permiten abordarlos. Me refiero a la digitalización, a avances como el Internet de las Cosas (IoT), el Machine Learning o la Inteligencia Artificial y a soluciones como los DCIM de última generación.

A grandes rasgos, implementar estas tecnologías, además de otros beneficios, habilita el mantenimiento predictivo, mejora la seguridad y protege los sistemas energéticos, reduciendo los costes de mantenimiento y minimizando el riesgo de inactividad de las infraestructuras críticas.

¿Y cómo lo hace? El sistema monitorea cuidadosamente todos los datos procedentes de los centros de datos, el cloud y el Edge y utiliza la Inteligencia Artificial para reconocer patrones que pueden provocar fallos en los equipos. Con el tiempo, el sistema es cada vez más preciso, ya que cuenta con más datos y puede reconocer más patrones. Y estos datos no tienen porqué provenir exclusivamente de una única instalación. De hecho, EcoStruxure, la plataforma IT de Schneider Electric, está basada en un lago de datos alimentado por millones de puntos de datos de instalaciones de todo el mundo, lo que permite que, aunque un problema potencial nunca se haya producido en un centro de datos, el sistema es capaz de reconocerlo porque sí ha sucedido en otra compañía.

El sistema monitorea cuidadosamente todos los datos procedentes de los centros de datos, el cloud y el edge y utiliza la Inteligencia Artificial para reconocer patrones que pueden provocar fallos en los equipos

Otro de los grandes hándicaps del sector es que, tradicionalmente, en los centros de datos, la información procedente de la infraestructura física e IT era monitorizada y gestionada de forma independiente, en silos. La consecuencia: los gestores de estas instalaciones tenían una capacidad muy limitada de correlacionar eventos y anticipar y evitar amenazas. Les hacía falta una visibilidad integral y eso es lo que les proporcionan los DCIM.

Antes de que la COVID-19 irrumpiera en nuestras vidas, el sector ya estaba experimentando con DCIMs basados en la nube que, gracias a la Inteligencia Artificial, ofrecían analíticas predictivas, recomendaciones útiles, enlaces automáticos al despacho de servicios, benchmarking de rendimiento, etc. Y, no solo eso, algo que la pandemia ha revelado como extremadamente valioso, estos sistemas habilitaban el mantenimiento remoto de las instalaciones.

Así, los DCIM son capaces de enviar alertas vía Smartphone al personal del centro de datos que trabaja de forma remota para que este tome las medidas necesarias para mantener correctamente el equipo antes de que se vea afectado y la actividad se interrumpa. Este mantenimiento justo a tiempo genera ahorros, evita el tiempo de inactividad y optimiza la vida útil de los equipos.

Por supuesto, integrar la conectividad en los equipos añade a la ecuación la preocupación por la ciberseguridad, sin embargo, la tecnología también nos ofrece una solución. Buen ejemplo de ello es el propio EcoStruxure, que utiliza Azure de Microsoft para proteger la seguridad de los datos a los que accede. Gracias a la anonimización separa los registros de la información que identifican a las personas y mediante el cifrado protege los dispositivos del centro de datos que envían información al lago de datos.

Integrar la conectividad en los equipos añade a la ecuación la preocupación por la ciberseguridad

En definitiva, el mantenimiento predictivo nos permite realizar el mantenimiento de los activos del centro de datos justo en el momento preciso, evitando los problemas inherentes a los modelos anteriores: intervenciones innecesarias o mantenimientos realizados demasiado tarde. Lo que, en última instancia, reduce tanto los costes de mantenimiento como los derivados del tiempo de inactividad.

Pero lo más importante es ser consciente de que cuantos más datos tengamos, más potentes serán las analíticas. El objetivo final: ampliar su alcance, poder comparar entornos de misión crítica para poder replicar los beneficios en múltiples ubicaciones y geografías.

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

C
João Cruz

Artículos relacionados

Artículo 1 de 4