SimpliVity ofrece ahorros del 300% en costes operativos

La compañía presenta en España su modelo de infraestructuras hiperconvergentes para el centro de datos definido por software.

Publicado el 07 Jul 2014

SimpliVity ofrece ahorros del 300% en costes operativos

SimpliVityha presentado en España su modelo de infraestructura hiperconvergente y de arquitectura de datos que simplifica las TI, los datos y operaciones, ofreciendo unos ahorros del 300% en costes operativos.

Es una compañía fundada en la creencia de que los centros de datos post-virtualizados necesitan ser enormemente simplificados. ¿Por qué? Porque las arquitecturas de almacenamiento tradicionales van por detrás de las necesidades de las cargas de trabajo virtualizadas.

Las empresas se enfrentan a cantidades masivas de datos que cuestan millones de dólares para recoger, almacenar y gestionar. La continua inversión en hardware de servidores, almacenamiento y de red que utiliza métodos ineficientes para el almacenamiento y procesamiento de datos no es la respuesta adecuada, como tampoco lo es la forma en que se gestionan estos componentes de TI en silos funcionales. Este enfoque es complejo, laborioso y costoso- y se dificulta cada año con el crecimiento exponencial del volumen de datos.

¿Cuál es el problema que resuelve SimpliVity?
El centro de datos definido por software (SDDC) abstrae el control de todos los elementos de la infraestructura, incluyendo CPU, almacenamiento y redes, desde el hardware y permite la distribución de servicios y la gestión automatizada a través del software. Hasta ahora, la virtualización de servidores se ha visto frenada por los silos de almacenamiento físico y de activos de red. La virtualización se sigue ejecutando en sistemas de hardware especializados en el data center. Estos recursos de almacenamiento y de red no son escalables, ni están agrupados y a menudo están sobre aprovisionados para soportar las cargas de trabajo de los servidores virtualizados. El entorno resultante es complejo y costoso de gestionar, y la escala solo agrava el problema.

Hay algunas cuestiones respecto al almacenamiento de datos para cargas de trabajo virtualizadas que no se pueden resolver con una infraestructura de montones de silos heredada:

Rendimiento
La infraestructura virtual cambia la relación one-to-one entre el servidor físico y el almacenamiento, hacia una relación many-to-one entre las máquinas virtuales y un único controlador de almacenamiento que presenta un único LUN para el hipervisor. Cuando existen múltiples cargas de trabajo con diferentes flujos IO que están siendo multiplexados por el hipervisor, el resultado son flujos IO aleatorios que compiten por los recursos, lo que aumenta las IOPS necesarias para dar servicio a las cargas de trabajo virtuales. Para hacer frente a los problemas de rendimiento, los administradores de almacenamiento suelen añadir más discos. Sin embargo, esto también aumenta la capacidad. Esta provisión excesiva conduce a un mayor coste por gigabyte de almacenamiento asignado a cada máquina virtual.

Capacidad
La virtualización de las cargas de trabajo deriva en un aumento de los requisitos de capacidad de almacenamiento. Dado que las máquinas virtuales encapsulan el sistema operativo, las aplicaciones y los datos, el centro de datos virtualizado agrega un volumen masivo de datos redundantes, y crea una enorme ineficiencia en la capacidad de almacenamiento. También lo hace la expansión incontrolada de máquinas virtuales. El rápido despliegue de máquinas virtuales –cada una de las cuales requiere una asignación de almacenamiento- aumenta el volumen de almacenamiento necesario para la infraestructura virtual. A medida que el número de máquinas virtuales aumenta, también lo hace el volumen de instantáneas que consume capacidad de almacenamiento.

Movilidad y gestión
Las máquinas virtualizadas son portátiles, sin embargo, siempre están atadas al almacenamiento de datos en el dominio de virtualización – que está atado a un sistema de almacenamiento físico en silos. Además, el almacenamiento asociado con las cargas de trabajo virtualizadas se gestiona normalmente desde el punto de vista del sistema de almacenamiento: LUN (o montajes NFS), volúmenes, grupos RAID (o agregados) y discos físicos. Las políticas para la replicación o instantáneas, por ejemplo, se configuran a nivel de la unidad de almacenamiento- un LUN. Esto significa que los almacenes de datos en el mismo LUN heredan las políticas basadas en LUN. La toma de instantáneas y/o replicar un LUN que aloja decenas o cientos de máquinas virtuales cuando se necesita sólo una única copia de la máquina virtual resulta en un uso ineficiente de la capacidad de almacenamiento y ancho de banda de red. Al mismo tiempo, la virtualización es un modelo de abstracción que permite una gestión VM-céntrica donde los recursos se asignan, se definen y están optimizados a nivel de máquina virtual y sin limitaciones físicas.

La revolucionaria plataforma de virtualización de datos de SimpliVity es la primera y única tecnología que de forma integral – y sencilla- resuelve estos problemas. Lo hace suministrando una nueva arquitectura de datos sobre la infraestructura hiperconvergente.

¿Qué es la hiperconvergencia y como se posiciona SimpliVity?
La hiperconvergencia describe una solución de infraestructura de computación virtual que combina a la perfección todas las funciones de un centro de datos en forma de un dispositivo, lo que mejora la velocidad y la agilidad en la implementación de infraestructura para cargas de trabajo virtuales. La infraestructura hiperconvergente se caracteriza por un diseño basado en software; componentes de hardware x86 básicos que combinan computación, almacenamiento y redes con tecnología de hipervisor en un solo dispositivo “building block” que escala mediante la adición de unidades o nodos adicionales; un alto grado de automatización; la habilidad de gestionar recursos agregados a través de los nodos como un único sistema federado; y está diseñado, suministrado y soportado por un único fabricante. El sistema de TI consumible único, pretende simplificar la gestión, resolver los problemas de interoperabilidad, y reducir costes frente a las infraestructuras heredadas.

Los primeros integrantes del mercado de la infraestructura convergente consistían en productos heredados basados en la fórmula pre-racked y soluciones cableadas basadas en una arquitectura de referencia. Aunque aparentemente parezcan ofrecer cierta simplificación, siguen siendo diferentes productos en cuanto a la gestión y el soporte (VCE y su producto Vblock son un buen ejemplo de esto).

La siguiente ola de soluciones son aplicaciones modulares basadas en componentes de hardware básicos que agregan las funciones de computación y almacenamiento y que pueden escalar añadiendo “building blocks” o nodos. Aunque ofrecen mejoras en el tiempo de implementación y el coste de adquisición, este tipo de soluciones no puede abordar eficazmente los problemas relacionados con el rendimiento/IOPS o la capacidad (Nutanix es un ejemplo).

SimpliVity ofrece la mayor innovación y el valor de la “tercera ola”, proporcionando una única pila de infraestructura de software unificada sobre componentes de hardware x86 en un solo pool de recursos compartidos. La Plataforma de Virtualización de Datos responde de forma única frente a los problemas de rendimiento, capacidad y gestión de movilidad, en una arquitectura de datos que:

• Elimina la redundancia de lecturas y escrituras mediante la reducción de la huella de datos en almacenamiento primario/producción y secundario/backup, gracias a la deduplicación. La comprensión y optimización al inicio contribuye a una reducción del 300% de los TCO.
• Integra la protección de datos, eliminando la necesidad de un complejo y costoso equipamiento de hardware y software.
• Consigue la centralización -VM mediante el seguimiento de los datos que pertenecen a cada máquina virtual y permite la movilidad-VM.
• Proporciona una gestión unificada global a través de las federaciones multi-nodo y multi-sites.

Los resultados netos de la innovación de SimpliVity son la gestión simplificada, la reducción del tiempo de despliegue de aplicaciones y el logro de un mejor modelo económico gracias a un menor TCO.

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

R
Redacción RedesTelecom

Artículos relacionados

Artículo 1 de 4