Artículo escrito por Alexis de Pablos, Director Técnico de Veeam Software Iberia.
Nada está garantizado por completo. Hasta las empresas más grandes y con los planes más sólidos tienen sorpresas de vez en cuando. El pasado agosto un data center de Google ubicado en Bélgica sufrió un apagón después de recibir el impacto de varios rayos muy seguidos. Si bien no todas las empresas operan al mismo nivel y alcance que un data center de Google, se puede aprender de este caso.
Por lo general, la protección de los data centers contra los elementos naturales es más rigurosa que en la mayoría de estructuras debido al valor de la información que contienen. Sin embargo, ni siquiera los gigantes de la TI pueden mantener bajo control la fuerza de la madre naturaleza en todo momento.
Gracias a las extensas medidas de seguridad, el daño se limitó y el 99,999999% de los datos almacenados se pudieron restaurar en cuestión de horas.
A pesar de eso, algunos usuarios se tuvieron que contentar con fallos del sistema. Por ejemplo, Azendoo, la start-up francesa que ofrece software de colaboración a empresas, tardó días en recuperar los datos de forma manual.
Mientras que las medidas de precaución de Google permitieron que la mayoría de sus clientes no se vieran afectados, las penalizaciones por tiempo de inactividad que sufrieron algunos sacan a relucir el proceso de garantizar la disponibilidad constante de datos y servicios, independientemente del mal tiempo.
La exigencia de estar «permanentemente activos» ha aumentado de forma exponencial en los últimos años. La digitalización de los procesos de negocio de las empresas supone que hasta el más mínimo fallo del sistema puede tener importantes repercusiones. Las empresas llegan a sufrir pérdidas anuales de hasta 10.163.114 dólares debido al tiempo de inactividad y la pérdida de datos al usar soluciones de backup tradicionales, de acuerdo con la información contenida en el Veeam’s Data Center Availability Report 2014.
Disponer de una solución de disponibilidad inteligente ayuda a minimizar el impacto de interrupciones no planificadas. Lo ideal sería que, en el caso de un tiempo de inactividad no programado, el intervalo de tiempo para el backup de datos (objetivo de tiempo y punto de recuperación) no superase los 15 minutos. Cada dato que se pierde y cada segundo de tiempo de inactividad cuestan dinero y reputación. No se trata solo de velocidad, la calidad y accesibilidad del intervalo de backup también resultan cruciales.
La mayoría de las empresas confían en el almacenamiento en las propias instalaciones para proteger los datos clave para el negocio, que es necesario que estén disponibles de inmediato. No obstante, este método no es infalible, tal y como han descubierto algunas empresas, entre las que se encuentra Azendoo, cuando el data center de Google sufrió las consecuencias de una tormenta eléctrica.
Aquí es donde la regla del 3-2-1 puede prácticamente garantizar la disponibilidad de los datos cuando se desactiva una de las rutas a los mismos o a los servicios. La regla del 3-2-1 afirma que una estrategia integral de disponibilidad incluye al menos tres copias de datos, que se almacenan en un mínimo de dos medios diferentes y una de dichas copias se almacena en una ubicación externa. Los servicios cloud como los de Google desempeñan ahora un papel fundamental en los planes modernos de disponibilidad y aunque las medidas de seguridad de Google eran impecables, solo hizo falta una curiosa combinación de factores para demostrar que incluso en un caso como este siempre se podría haber hecho algo más.
No importa la rapidez con la que se pueda restaurar una carga de trabajo desde un backup y pueda estar disponible en un caso de emergencia, puesto que además debe estar actualizada. Si una empresa quiere minimizar el riesgo de pérdida de datos, necesita objetivos de punto de recuperación (RPO) muy bajos. Esto también pasa con la duplicación fuera de las instalaciones, a través de la que la transmisión de datos a un servicio cloud o un data center externo muestra el estado del backup más reciente.
Las conclusiones del estudio llevado a cabo por Veeam también exponen que una sexta parte de todos los backups son irrecuperables. Por eso, realizar una prueba automática de la capacidad de recuperación debería formar parte de cualquier estrategia de disponibilidad, una función de apoyo que no ofrecen muchas soluciones heredadas. Se trata de una prueba sencilla que debería ser obligatoria para todas las empresas modernas.
Los fallos provocados por los rayos demuestran los riesgos extremos a los que se enfrentan las empresas. Además, también queda claro que se puede reducir de manera considerable el riesgo de una gran pérdida de datos, de fallos del sistema y de los costes que estas circunstancias conllevan con una estrategia meditada de disponibilidad que tenga en cuenta cualquier eventualidad. Es como tener una póliza de seguros. No sueles necesitarla pero deberías tenerla.