Artículo escrito por José Manuel Armada, director de ingeniería de clientes, Interoute Iberia.
En la deseable convergencia entre el mundo de las redes y cloud computing, a grandes rasgos, podemos observar dos aproximaciones. Para quienes parten del CPD o del mundo del computing como foco de su actividad, el objetivo ha sido lograr que la automatización permita extender las comunicaciones ‘virtualmente’ entre diferentes grupos de servidores y sistemas de almacenamiento, segmentar diferentes redes de servicios y proporcionar así los recursos de una manera integrada gracias a la virtualización, tanto de los elementos de red (siguiendo, por ejemplo, aunque no exclusivamente, la filosofía de NFV) como del equipamiento de proceso y tratamiento de la información (servidores virtuales, almacenamiento, elementos de seguridad y comunicaciones, etcétera).
Para quienes siempre han pensado en redes —el indudable origen de utilizar nubes en la representación del cloud— la tarea siempre ha consistido en llegar hasta el mayor número de usuarios al menor coste posible, extender su catálogo de servicios de forma controlada y así poder garantizar su calidad. En este sentido, MPLS surgió como el multiprotocolo capaz de garantizar estos requisitos, sustituyendo a otros que estaban ligados a protocolos y tecnologías anteriores como Frame Relay o X.25 y a arquitecturas propietarias como SNA. La extensión de las redes de banda ancha en el mundo residencial de forma masiva, tanto apoyadas en la fibra óptica (FTTx) como en redes de cable híbridas (HFC) ha cambiado también las reglas de juego para las empresas —y no sólo para las pymes— con el lanzamiento de ofertas que proporcionan ancho de banda abundante a Internet a bajo coste. Ambas soluciones no han de ser necesariamente excluyentes y normalmente convivirán en una red corporativa bien dimensionada. En las ubicaciones críticas que necesiten una calidad de servicio garantizada, ancho de banda predecible, separación entre redes y aplicaciones y que cuenten con una oferta competitiva de múltiples redes de acceso, el uso de MPLS para el transporte de protocolos de nivel 2 como VPLS y nivel 3 como IPv4/IPv6 seguirá siendo predominante para, por ejemplo, las conexiones del propio CPD o de las sedes de la empresa a cloud. En los lugares en donde el coste sea el factor predominante a la hora de elegir la solución, la Red de Redes acude en nuestra ayuda para extender hasta allí la red corporativa. Una organización puede así utilizar soluciones híbridas de banda ancha a bajo coste para el tráfico entre oficinas y MPLS para garantizar que el acceso y la disponibilidad de las aplicaciones críticas sea el mejor posible.
Integración y optimización
Sin embargo, este concepto no resuelve dos problemas importantes: el primero tiene que ver con la integración y optimización de las diferentes filosofías de diseño de redes para gestionarlas de forma homogénea. Y el segundo, que siempre habrá aplicaciones que tengan que residir donde el usuario desarrolla su actividad, tanto por motivos técnicos o de distancias (sensibilidad a la latencia), como legales (cumplimiento de las leyes de protección de datos locales), porque el coste de la red de acceso supere a las ventajas de la centralización de recursos, o simplemente porque en caso de fallo en el acceso a la red corporativa desde esa ubicación, es necesario garantizar que pueda continuar su actividad.
Desde la red, la evolución tecnológica resuelve estas situaciones mediante una combinación de arquitecturas cloud tales como SD-WAN (Software-Defined Wide Area Networking) que permite integrar de forma flexible y transparente —incluso en la misma ubicación— las soluciones de acceso a bajo coste en las redes MPLS, junto con las facilidades de optimización del ancho de banda en la WAN. Una solución de este tipo debería contar con diversas funciones para llevar a cabo el caché local de aplicaciones mediante el uso de algoritmos capaces de reconocer y eliminar los patrones repetitivos del tráfico. También es deseable disponer de técnicas de aceleración de las aplicaciones mediante el análisis del tráfico y de los protocolos de red que utilizan (como CIFS o NFS), con el objetivo de reducir en uso del ancho de banda y la latencia y el tiempo de respuesta percibido por el usuario en lo posible.
Una misión importante para aumentar la disponibilidad del servicio es tener en cuenta el tipo de conexión o conexiones disponibles en esa ubicación para alinear el tráfico como resulte necesario. Esto se lleva a cabo fundamentalmente de dos maneras. La primera, mediante la optimización del canal o canales WAN disponibles, permitiendo configurar de forma flexible que el tráfico utilice el medio más adecuado a cada aplicación. La segunda, evitando las retransmisiones y pérdidas de paquetes utilizando técnicas FEC (Forward Error Correction) y el posible desfase en la bidireccionalidad del tráfico de salida y retorno mediante el uso de POC (Packet Order Correction) para ordenar los paquetes en los extremos.
En la era de la virtualización estas funciones ya no están ligadas a hardware dedicado, sino que se instalan en forma paquetes de software modulares sobre hipervisores estandarizados utilizando arquitecturas populares como x86 o ARM. Por ello, para resolver la cuestión de la ubicación de los datos y de la cercanía de las aplicaciones al usuario, aprovechando la homogeneidad de plataformas, estas soluciones se pueden desplegar en forma de nubes distribuidas, coexistiendo en mayor o menor medida, dentro de una misma red corporativa, tanto soluciones alojadas en ubicaciones centralizadas (los CPD o la sede central) como en recursos virtuales instalados en el mismo equipamiento físico que aloja las aplicaciones del usuario. De esta forma, podemos disponer de recursos adicionales locales, que pueden ser complementarios a los servicios centralizados o activarse en caso de desastre.