Un campo de pruebas para centros de datos

Publicado el 07 Sep 2020

Un campo de pruebas para centros de datos

Si como responsable de TI de una empresa o proveedor de servicios, necesita dar soporte a 100 nuevas contrataciones por año durante el próximo lustro, ¿cuánta capacidad y rendimiento adicional planearía? ¿Cómo lo implementaría partiendo de la infraestructura TI existente? El cálculo no es simple y claro, y ciertamente requerirá de ajustes durante el periodo de implantación, pero solo se necesitan unos pocos números y una calculadora para determinar algunos costes aproximados de bajo y alto nivel. Y probablemente tenga ya una idea de los proveedores a los que recurrirá.

Sin embargo, ¿qué ocurriría si le solicitan desarrollar el concepto de almacenamiento para un nuevo servicio de una empresa de automoción? La empresa planea desplegar una solución conectada a la nube para conducción autónoma. Han hecho estimaciones del número de coches al año, así como del volumen de datos, pero la diferencia entre el mejor y peor de los escenarios requeriría uno de entre los diferentes enfoques posibles de centro de datos para que el proyecto sea financieramente viable y no resulte sobredimensionado.

Ahora, ¿qué sucede cuando necesita poner a prueba su enfoque de forma rápida? ¿Dispone de un rack extra, de servidores, discos duros y de la capacidad de red necesaria para reafirmar sus números? Probablemente no.

Si bien las soluciones de almacenamiento en la nube aparecen como setas, no son la respuesta al reto de todos y tampoco resultan económicas a gran escala. Para datos más sensibles o determinados enfoques de implementación tiene más sentido mantener esos datos en un lugar físicamente seguro, pero esto requiere espacio, conectividad y mucho hardware, de modo que tampoco resulta barato.

Gracias a Global Data Centers EMEA, una división de NTT Ltd., es más fácil que nunca poner a prueba ideas e implementar servicios innovadores. Su Laboratorio de Experiencia Tecnológica proporciona no solo espacio, energía y protección, también libertad para innovar con tecnología cloud y de almacenamiento contando con el apoyo de una comunidad activa. Esto permite a los responsables de centros de datos y a los proveedores de servicios acelerar la innovación con un bajo coste para probar nubes privadas o híbridas, revisar arquitecturas y medir su impacto en la prestación de servicios TI. Y todo ello con el respaldo de una comunidad conectada a través de seminarios, campamentos de entrenamiento, encuentros y hackatones.

La sede principal de Global Data Centers EMEA se encuentra en Frankfurt (Frankfurt 1) y dispone de 65.000 m² de espacio disponible para servidores en un edificio diseñado específicamente para operar como centro de datos. Alimentado por dos subestaciones independientes y protegido por dos sistemas de alimentación ininterrumpida (SAI) igualmente independientes, también cuenta con sistemas de energía diesel redundantes, lo que garantiza el suministro energético. La seguridad física y el control de accesos aseguran que los sistemas están protegidos frente a un amplio abanico de potenciales tipos de ataques y respaldados por una monitorización 24×7 y sistemas redundantes. La conectividad, de hasta 10 Gbit/s, puede proporcionarse con una combinación de servicios de más de 350 proveedores, incluyendo desde carriers locales hasta nivel 1. Este campus particular también está conectado con fibra óptica al centro de datos de NTT en Rüsselsheim (Frankfurt 3), permitiendo implementaciones multi-localización.

Hasta la fecha, en las instalaciones se han puesto a prueba una amplia variedad de casos de uso que incluyen desde nube híbrida, almacenamiento y big data hasta alto rendimiento y computación cognitiva, pasando por DevOps y gestión de aplicaciones. Incluso se han llevado a cabo estudios sobre enfoques hardware, tales como pruebas de sistemas de refrigeración por agua con recuperación del calor residual.

Volviendo a los ejemplos anteriores, muchos responsables TI de centros de datos y de proveedores de servicios estarán pensando en seguir escalando sus sistemas con la adición de más hardware y unidades de disco para aumentar el rendimiento y la capacidad. Si esta parece ser la solución correcta ante los desafíos que afrontan, entonces NTT proporciona un entorno en el que es posible evaluar estos enfoques.

Así se demostró con un servidor de almacenamiento de alto rendimiento dirigido a cubrir necesidades de alta fiabilidad y rendimiento que podría utilizarse para varios objetivos iSCSI con tamaños que van desde los 10 TB a los 40 TB. El sistema, instalado en 2017, utiliza servidores de la serie X10 de Supermicro con formato 2U, y dos CPUs Intel Xeon y 128 GB de RAM. También cuenta con un controlador Microsemi ASR8885, NICs de 10 Gbit/s y un JBOD expansor dual de carga con 60 bahías de Celestica. El almacenamiento se implementó utilizando discos duros empresariales MG04SCA40EA de 4 TB de Toshiba, con interfaz SAS de 12 Gbit/s y rendimiento de 7.200 rpm en formato de 3,5”.

El sistema se construyó sobre Open-E Jovian DSS, un software de almacenamiento de datos basado en Linux que utiliza el sistema de archivos ZFS que puede usarse en arquitecturas con protocolos iSCSI, Fiber Channel (FC), NFS y SMB (CIFS). Gracias a su base Linux, tiene un alto nivel de compatibilidad hardware y es muy adecuado para entornos de almacenamiento virtualizados. Además de proporcionar alta integridad y protección utilizando sumatorios de pruebas y autoreparación de datos y metadatos para detectar y corregir errores, también puede configurarse como parte de un clúster activo-activo con controlador dual.

La solución final proporciona 108 TB de almacenamiento con una eficiencia de capacidad Zpool del 50% utilizando un tipo de redundancia basada en almacenamiento espejo doble. El Zpool se distribuye en 30 grupos de pares de discos datos/paridad, proporcionando 240 TB de capacidad bruta sin formato y 120 TB netos. El almacenamiento final disponible de 108 TB proporciona al Zpool una ratio de rendimiento de lectura de 12.9x por disco y una ratio de escritura que alcanza 8.5x por disco. El sistema ha estado operativo sin tiempo de inactividad o fallos de disco desde agosto de 2017, salvo durante una parada programada para una actualización de software.

Además de los grupos espejo, también soporta grupos de paridad doble y triple. Se recomienda el enfoque de triple paridad con discos de alta capacidad de 10 TB o superior. En este nivel de paridad el malfuncionamiento de tres discos por grupo de datos puede tolerarse. Además, el sistema Open-E JovianDSS soporta un enfoque de copia de seguridad automática con la posibilidad de realizar versiones cada minuto. La función de backup crea instantáneas rotatorias automáticas de un volumen en función de los planes de intervalos de retención establecidos por el usuario, replicando de forma asíncrona los snapshot de archivos delta en almacenamiento local (on-site) o remoto (off-site).

La aplicación de backup es muy ligera, lo que explica que pueda funcionar 24×7 sin influencia significativa en la producción. Puede utilizarse con fines de copia de seguridad / restauración de carácter regular o para la recuperación instantánea ante desastres.

Más allá de su actividad para desarrollar pruebas de concepto de almacenamiento a escala, el cluster también sirve como infraestructura de almacenamiento virtual para todos los innovadores del Laboratorio de Experiencia Tecnológica. Esto le convierte en una plataforma excelente para el desarrollo diario de pruebas funcionales y de rendimiento en unas condiciones de operación realistas.

Al agregar más discos duros en las cabinas JBOD, el cluster tiene el potencial de ampliarse aún más a medida que aumentan las necesidades de almacenamiento. El límite superior de esta escala está determinado por el espacio disponible en el bastidor, el alcance a través del cableado SAS, el número de puertos SAS en los controlares y la potencia de cálculo del servidor de control. Escalar este cluster particular JovianDSS en el Lab de Experiencia Tecnológica sería probablemente posible en el rango de un solo dígito de petabyte, pero no más allá de esta capacidad, debido a las limitaciones mencionadas.

Por supuesto, si el crecimiento a futuro y la base de usuarios son desconocidos, como sucede en el ejemplo de la empresa de automoción, se requiere de un enfoque diferente ampliable en función de las necesidades y no tendría un límite superior real de capacidad. Esto implica escalabilidad horizontal, también conocido como almacenamiento escalable.

El almacenamiento escalable horizontal utiliza un enfoque basado en la conectividad en red que permite agregar nuevos nodos, casi sin límite, a los clusters existentes en función de las necesidades. Cada cluster consiste en un número de servidores, unidades de almacenamiento y redes, con los diferentes nodos del cluster conectados por una red de alta velocidad o backplane. Gracias a este enfoque, no hay necesidad de sobredimensionar ya que la capacidad y el rendimiento pueden agregarse cuando es necesario. La solución completa de almacenamiento se muestra a los usuarios como una entidad única y puede ser administrada a través de una sola interfaz única, incluso cuando partes de la implementación hardware se localizan en otras ciudades o en otros continentes.

Para garantizar que esta colección de hardware funcione como una entidad de almacenamiento única y que brinde también capacidad de expansión, conmutación ante fallos y robustez, también será necesario seleccionar el software adecuado. El enfoque de NTT es nuevamente ideal para probar combinaciones de hardware y software, y comprobar cómo interactúan. Podría ser para determinar qué funciona mejor para necesidades tales como realizar una recuperación parcial o total del sistema después de un ataque de ransomware en un entorno de operación realista.

Uno de estos sistemas utiliza PetaSAN, una solución de almacenamiento de red de área local (SAN) construida sobre Ceph. Ceph es la plataforma de almacenamiento de código abierto líder para proporcionar almacenamiento a nivel de objeto, bloque y archivo, utilizando un cluster de computación distribuido. Además, ofrece capacidad de almacenamiento escalable y replica los datos de forma que es tolerante a fallos y capaz de autoreparación y autogestión. Uno de los retos es que requiere un administrador Linux para la configuración y el mantenimiento, un problema que el proyecto de código abierto PetaSAN prevé resolver. Esto aúna la potencia y la complejidad de Ceph en una interface de administración única de “panel de vidrio”, al tiempo que proporciona acceso, cuando es necesario, a la potente línea de comandos Linux. El objetivo es proporcionar discos iSCSI en cluster de alta disponibilidad, con cada disco iSCSI asignado a todos los discos físicos en el sistema. Esto significa que, por ejemplo, en un entorno de hipervisor en cluster, las transacciones concurrentes de múltiples máquinas virtuales (VM) pueden soportarse sin ningún impacto apreciable en el rendimiento.

La plataforma se construyó con hardware de Starline Computer GmbH, que consiste en tarjetas RAID Areca en modo de transferencia junto a adaptadores Ethernet de 10 Gbe de acceso remoto directo a memoria de Canvium. La implementación de PetaSAN proporciona 220 Tb de discos iSCSI de alta disponibilidad en cluster gracias a los discos duros empresariales de alta capacidad de 10 TB de Toshiba. Los discos de múltiples rutas resultantes pueden identificarse mediante direcciones IP virtuales y ofrecen un rápido I/O con redundancia de enlaces.

El sistema proporciona, además, los recursos de almacenamiento virtual al Laboratorio de Experiencia Tecnológica, especialmente para actividades de pruebas de concepto en las que se requieren características de escalabilidad horizontal.

Por supuesto, el objetivo final podría no ser la operación y el mantenimiento del hardware para una solución de almacenamiento o la implementación requerir una combinación de hardware propio y de recursos en la nube. Para tales situaciones el uso del servicio S3 (Simple Storage Service) de Amazon puede ser una opción a considerar. Gracias al trabajo de Starline, esta plataforma de pruebas integra un gateway S3 a través de la línea de comandos que debería contar en el futuro con soporte a una configuración GUI.

Determinar el enfoque óptimo para un centro de datos es un desafío, especialmente cuando las demandas de rendimiento y capacidad crecen de forma continua, pero no necesariamente debido a cantidades conocidas y previsibles. Entornos como el que proporciona NTT con este espacio físico profesional y su comunidad de apoyo, abren puertas a la experimentación utilizando sistemas sólidos. Así mismo, permite evaluar y cuantificar en condiciones no críticas para el sistema, soluciones reales a los retos del día a día.

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

W
Rainer W. Kaese

Artículos relacionados

Artículo 1 de 2