El edge computing ha pasado de ser un caso de uso de nicho en un puñado de industrias a ofrecer una gran oportunidad para que las empresas de todos los sectores extiendan la potencia de cálculo por todo el mundo. Según un estudio de Global Market Insights, el mercado de edge computing está valorado en 9.100 millones de dólares en 2022, y se prevé un crecimiento año a año del 34,3% entre 2023 y 2032. La rápida expansión del ecosistema del Internet de las Cosas, que engloba diversos dispositivos como sensores, wearables y electrodomésticos inteligentes, ha impulsado la industria del edge computing. El gran volumen de datos generado por estos dispositivos hace necesario el procesamiento local para reducir la congestión de la red y limitar la latencia. La computación de borde ofrece una solución al permitir que los datos se analicen más cerca de la fuente de datos, lo que mejora la eficiencia y más información en tiempo real a través de diversas aplicaciones de IoT.
Por otra parte, los proveedores de servicios en la nube aumentarán el gasto en tecnologías como el edge para acelerar, mejorar y escalar la entrega de IA. En la actualidad, la mayoría de estos actores siguen entrenando sus modelos de Inteligencia Artificial en centros de datos centralizados, ya que requieren una infraestructura informática a gran escala. La computación en los bordes les permitirá desplegar sus modelos más cerca de los usuarios finales y posibilitará consultas y respuestas ultrarrápidas.
Pero esta tecnología también tiene que hacer frente a una serie de desafíos. El principal de ellos es la seguridad. Un informe de Red Hat sobre el Estado de la Seguridad Edge ha desvelado que la seguridad es uno de los principales retos de los despliegues edge. Las principales preocupaciones relacionadas con este aspecto tenían que ver con los ciberataques (tanto de atacantes internos como externos) y las vulnerabilidades. Ante ello, la inversión en herramientas y procesos que refuercen los sistemas edge frente a los ataques, la gestión de la cadena de suministro de software y la detección de intrusiones puede limitar esos riesgos.
Para profundizar sobre esta tecnología y su implantación en nuestro país, Data Center Market ha organizado un tour por España. La primera parada ha sido Madrid y ha contado con la colaboración especial de Rittal, Schneider Electric y Vertiv y la asistencia de representantes de Atryx, el Centro de Investigación del Transporte (TRANSYT) de la Universidad Politécnica de Madrid, Nippon Gases, Pernod Ricard, la Dirección General de Salud Digital de la Comunidad de Madrid, el Tribunal de Cuentas y la Universidad Antonio de Nebrija.
Estas han sido las principales conclusiones del encuentro.
Índice de temas
¿Qué es edge exactamente?
Llevamos unos cuantos años hablando de edge computing y todavía no hay una definición exacta. No obstante, sí es de común acuerdo que por estos vocablos se entiende el llevar el almacenamiento y el procesamiento de la información y los datos allí donde se producen. Ya puede ser una casa, una oficina, una fábrica, un hospital… y una vez procesada, parte de esa información llegará a otro sitio.
Si atendemos a esta aceptación, el edge computing está más integrado en nuestras vidas de lo que creemos. Como en dispositivos IoT en el hogar, sensores en coches o medios transporte o en sistemas de videovigilancia que trabajan con el reconocimiento de imágenes y necesitan una respuesta rápida. Es esto, precisamente, una respuesta rápida y ágil lo que ofrece esta tecnología. Y en organizaciones de todo tipo hay aplicaciones que no pueden procesarse en un CPD on premise o en la nube por temas de latencia o ancho de banda.
Edge sí, pero no para todo
Con el aumento en la producción y consumo de datos en un mundo hiperconectado, el edge computing cobra cada vez más protagonismo en las organizaciones. Sin embargo, como comentábamos, no todas las cargas de trabajo tienen sentido en el edge, es decir, procesadas en el borde, en el origen donde se generan los datos. Cada empresa, en función de sus características, ha de decidir qué cargas van a la nube, cuáles al edge… Será la latencia la que determine su ubicación y aquellas aplicaciones que requieren un tiempo de retardo muy pequeño encontrarán en esta computación en el extremo su gran aliado.
Así, proyectos como llevar el centro de salud a las casas sólo será posible con tecnologías edge porque se necesita poder gestionar la información médica de los pacientes con celeridad para poder monitorizar la salud de una persona. Y lo mismo ocurre en el sector de la fabricación y la distribución.
El boom va a llegar pronto
El potencial de crecimiento del edge computing es brutal. Hoy en día estamos ante una tecnología que se ha dinamizado considerablemente como consecuencia de la acelerada digitalización de la sociedad. No en vano, las compañías se verán abocadas a digitalizarse sí o sí para poder seguir jugando en un terreno mucho más competitivo. Además, la entrada de las redes 5G y la arrolladora Inteligencia Artificial harán que la experiencia de uso de ciertas aplicaciones cambie. Avanza todo tan rápido que se podría aventurar que la siguiente generación interactuará con los datos de otra manera a como lo hacemos en la actualidad.
Aunque estos impulsores reactivarán el mercado, lo cierto es que el desarrollo en Europa del edge va mucho más lento que en Estados Unidos. No termina de saltar. No obstante, todo apunta a que va a crecer mucho y que el boom va a llegar pronto. Eso sí, habrá algunos escollos que salvar.
Retos para planificar una estrategia edge
Desplegar en edge supondrá para las empresas tener que lidiar con una infraestructura híbrida y más compleja que va a dificultar una gestión unificada. La búsqueda de una administración centralizada será cada vez más importante para ganar en eficiencia y, junto a ella, la estandarización.
A ello hay que añadir otro punto clave: la resiliencia. En el edge habrá aplicaciones críticas y eso implica redundancia y disponibilidad 24/7.
Y, por supuesto, la seguridad, una parte fundamental. Contamos con información de valor que está mucho más expuesta y las organizaciones deben tener buenas políticas para proteger los datos y un plan de contingencia para estar preparados por si ocurre una incidencia. Esa es el quid, tener la capacidad de recuperarse si hay algún ataque o vulnerabilidad. Así como tratar de que no se extienda. Por ejemplo, si se da en un dispositivo que no afecte a toda la red centra o si hay una brecha en TI que no afecte a OT, a una fábrica. En este sentido, el edge va a dar muchos beneficios para TI, pero el auténtico desafío va a ser para la red OT.
Precisamente en este ámbito sale a relucir otro obstáculo que enlaza directamente con el que hemos mencionado en primer lugar: el problema de la integración, que los diferentes sistemas se hablen entre sí. Cuestiones como cómo llevar toda la capacidad de la Internet de las cosas a una red OT. Y es que, hacer converger los sistemas de tecnología de la información y los sistemas de tecnología operativa desde un punto de vista operativo y de costes puede realizarse, pero a escala legislativa no resulta fácil porque hay agujeros de seguridad. Hay herramientas muy caras para el negocio que corren sobre soluciones obsoletas y legacy y su actualización no resulta sencilla. Mientras, el mercado empuja hacia aplicaciones nativas cloud. Conseguir homogeneizar todas las herramientas diferentes que confluyen en una organización para que se puedan aprovechar los datos y darles valor en otras plataformas, es muy difícil.
Por último, otro gran desafío es la sostenibilidad. Cada vez hay más presión con ello y ya está en los pliegos de contrataciones, es decir, se pide en el mismo diseño. Para 2030 se espera que el sector del data center sea zero emisiones por eso las empresas han de mirar los componentes que se usan. Lo bueno es que España se encuentra en una situación privilegiada en energía.
Capítulo aparte: falta de talento
Preparar las organizaciones para el edge computing requiere profesionales capacitados y la falta de talento en todo el sector TIC es una realidad. A la dificultad de conseguir técnicos o perfiles muy demandados -como cloud architect, especialistas en seguridad o en redes-, se suma la complejidad, aún mayor, de retenerlos.
Para paliar estas deficiencias, muchas compañías optan por la subcontrata, pero la externalización no siempre es la mejor solución. De hecho, las empresas están a favor de sacar fuera lo que está lejos de negocio y empiezan a valorar el reskilling. Se busca contar con personal interno máximo por el conocimiento especializado que tienen de la casa, de su operativa. Ese know how tan importante. Por eso están comenzando a formarse en todo lo nuevo que va llegando. Las empresas quieren tener lo último en tecnología y están dejando atrás a la gente, el principal activo.
Un futuro cercano
En definitiva, en el evento de Madrid quedó claro que queda mucho por llegar. Es verdad que se prevé una gran explosión en los próximos años, pero, a día de hoy, no se tiene claro. La tecnología avanza tan rápido que no sabemos cómo acabará, aunque todo parece apuntar a que el avance que supondrá 5G -que habilitará muchas aplicaciones que requieren poca latencia-, y la IA traerá consigo el despliegue masivo de edge. Estimando que nos enfrentaremos a este crecimiento, habrá que prepararse para abordarlo con sistemas centralizados, con estandarización, resiliencia y, sobre todo, seguridad.
Sin embargo, el futuro no es ni blanco ni negro. Habrá muchos colores y se colocarán aplicaciones en cloud, otras en edge, otras on premise… El edge, eso sí, vendrá a reducir el coste de la nube que ya se ha demostrado que tiene su doble cara, no siendo tan competitiva como se pintaba y con costes ocultos cada vez más visibles y ciertos quebraderos de cabeza si se decide bajar de ella.
Sea como fuere, el edge computing va cobrando forma en las empresas y está más cerca de nuestro presente de lo que parece. Quizás esa eclosión de la que consultoras y expertos hablan esté al caer… El tiempo lo dirá.
T: “Preparar un centro de datos para el edge computing requiere un enfoque más holístico”
ST: Luis Casero, Portfolio Marketing Manager de Vertiv
Definimos el edge como el procesamiento y almacenamiento de datos entre los centros de datos centralizados y los usuarios, dispositivos y fuentes de datos. Por ello, de manera general, podemos decir que conviene invertir en una estrategia edge en aquellos casos en los que, por motivos de latencia o ancho de banda, es necesario contar con puntos de escala intermedios para los datos entre ambos extremos. Normalmente, esto ocurre en aplicaciones que se pueden agrupar en cuatro casos de uso: aplicaciones con uso intensivo de datos (suministro de vídeo a través de proveedores de contenido); aplicaciones sensibles a la latencia humana (como las plataformas de comercio electrónico); aplicaciones sensibles a la latencia máquina-máquina (aplicaciones bursátiles); y aplicaciones cruciales para la vida (por ejemplo, el vehículo autónomo).
A la hora de preparar un centro de datos para el edge, desde Vertiv proponemos adoptar un enfoque más holístico y, más que hablar del CPD, referirnos a la estructura IT de datos en general. Con esta perspectiva, desde el punto de vista de la capa de infraestructura física, podemos plantear recomendaciones para dos tipos de audiencia: para empresas usuarias y para proveedores de servicios cloud o colocation.
Para empresas usuarias, que pueden tener su propia infraestructura edge, nuestra principal recomendación es identificar su caso de uso. En función del tipo de aplicación, los requisitos críticos pueden ser diferentes, afectando al diseño de la infraestructura.
En cuanto a los proveedores de servicios de cloud o colocation -que pueden ser contratados por las empresas usuarias-, además de entender el caso de uso del cliente, nuestra recomendación es tener capacidad de reserva y aplicar soluciones estandarizadas que sean replicables, por motivos de economías de escala.
“Es el momento de invertir en edge computing porque en los próximos años va a haber un despliegue muy importante de esta tecnología”
Ramón Rodríguez Salmerón, Datacenter solution Architect de Schneider Electric
La baja latencia que necesitan muchas aplicaciones impulsará el edge computing. 5G va a multiplicar la velocidad de transferencia de los datos permitiendo muchas aplicaciones que todavía no son viables. También está la llegada de la IA y de la que todavía no estamos viendo ni la punta del iceberg de lo que traerá.
Habrá aplicaciones en todos los ámbitos, tanto en la parte pública, como en la privada. Esto va a dinamizar el mercado, por lo que hay que estar preparados y atender a los retos que nos va a traer y entre los que destacaría cinco.
El primero es la estrategia empresarial a abordar sobre dónde ubicar las cargas. Vamos a tener unas infraestructuras híbridas más complejas en las que habrá que decidir qué va a la nube, qué se queda on premise… y despliegues edge distribuidos en función de la baja latencia que necesiten.
En segundo lugar, administraremos una infraestructura compleja y no vamos a tener personal cualificado suficiente, por lo que es vital disponer de algún software que nos permita esa monitorización y gestión centralizada.
La resiliencia. Las cargas que van a correr en el edge van a ser más críticas por lo que hay que pensar muy bien en el diseño de estas cargas como si fuera un data center convencional Tier III, Tier IV… y también en la operación y el mantenimiento. Todo lo que nos permita adelantarnos a fallos de forma predictiva y reducir tiempos de caída va a ser un valor añadido.
La seguridad, tanto ciberseguridad como seguridad física. Aconsejamos establecer estrategias y, sobre todo, controlar el tráfico de la red y establecer protocolos de actuación en caso de que se detecte una brecha.
Y, por último, la sostenibilidad. Con la nueva normativa europea que aplica a data center y el horizonte de la UE de CPD zero emisiones netas de carbono en 2030, estas exigencias serán mayores.