Edge Computing, computación perimetral o informática de borde, es un método por el cual el almacenamiento y la computación de datos se lleva a cabo más cerca de la ubicación donde se requiere, reduciendo la latencia y mejorando el ancho de banda, mientras se utilizan aplicaciones basadas en la nube.
Esto puede verse reflejado en las redes de entrega de contenido (CDN) o redes de servidores proxy, las cuales se configuran en diversas ubicaciones y se combinan con la funcionalidad de la nube para entregar los datos casi directamente al usuario.
Es un sistema formado por micro data centers, que se quedan en el borde de la red, es decir, permiten realizar el procesamiento de los datos de forma local y más cerca de la fuente.
El Cloud Computing, revolucionó en su momento al presentarse como una alternativa para el procesamiento y almacenamiento de datos en servidores externos, por medio de la internet.
Edge Computing es la evolución de dicho modelo, ya que permite procesar datos críticos de una forma más rápida y sin complicaciones, dando lugar a un modelo de computación que funciona en el borde.
La computación perimetral puede parecerte un término más orientado al futuro, sin embargo, sus aplicaciones cuentan con la capacidad de transformar la forma en que almacenas, usas y compartes datos y programas en línea.
Las implicaciones van desde el desarrollo de software y las aplicaciones empresariales hasta la informática cotidiana.
A medida que las aplicaciones se mueven a la nube, el ancho de banda compartido se vuelve problemático, entonces, Edge Computing se considera como el próximo movimiento en el desarrollo de software y almacenamiento de datos.
Edge Computing surgió con el propósito de disminuir los problemas ocasionados por la sobrecarga de tráfico y el ancho de banda necesario para enviar datos para la nube.
Esta tecnología puede ayudarte a procesar y analizar datos de forma local, además de compilar y filtrar lo que debe ser enviado para los sistemas en nube, es decir, el procesamiento será realizado en el borde, almacenando todos los datos necesarios para la comunicación entre los aparatos y la red.
En lugar de lo que ocurre actualmente, solo lo que sea necesario atravesará la red y será almacenado en la nube, minimizando el tráfico y el ancho de banda, además de evitar problemas en la latencia y conectividad.
Para satisfacer las necesidades de los clientes, los proveedores de la nube pública instalaron servidores en los centros de datos de algunas organizaciones, permitiendo a los equipos de TI ejecutar cargas de trabajo donde el proveedor de nube pública estaba ubicado en la misma red de área local (LAN) que el resto de las cargas de trabajo .
Los servidores de computación perimetral, permiten que los datos de los sensores de IoT se procesen y actúen mucho más rápido de lo que sería posible si esos datos tuvieran que atravesar Internet a un centro de datos de nube pública, se procesarán y luego los resultados regresarán a través de Internet.
El objetivo es minimizar la latencia explotando las capacidades de la nube pública.
Esto puede lograrse de 2 formas, con una pila de software personalizada que imite los servicios en la nube que se ejecutan en el hardware ya existente o que la nube pública se extienda sin problemas a múltiples puntos de presencia (PoP).
Los beneficios pueden ser:
Como los datos se albergan cerca del lugar donde fueron creados y evaluados, mejora considerablemente la seguridad y cifrado de información.
Podrás evitar enviar todos los datos en bruto para almacenarlos y procesarlos en servidores en la nube.
El tiempo de reacción puede ser un factor crítico, recibe el análisis de datos en tiempo real.
El sistema es capaz de funcionar incluso cuando está desconectado de los servidores en la nube, eliminando un solo punto de falla.
Se pueden reducir los periodos largos de latencia, ya que los datos no tienen que viajar sobre la red a un centro de datos remoto o a través de la nube para ser procesados.
El consumo de recursos de conexión es mucho menor.
Al tratarse de un cómputo distribuido, te ayudará a mejorar la escalabilidad.
Los costos de transmisión de data se reducen considerablemente al disminuir la cantidad de datos transferidos a un almacén central.
En este modelo, Edge Computing se lleva a los clientes en los entornos existentes, un ejemplo puede ser AWS Greengrass y Microsoft Azure IoT Edge .
Es prácticamente una extensión de la nube pública, un ejemplo pueden ser las redes de entrega de contenido donde el contenido estático se almacena en caché y se entrega a través de ubicaciones de borde distribuidos geográficamente.
La diferencia entre el borde del dispositivo y el borde de la nube, está en los modelos de implementación y fijación de precios.
Pueden ser ejemplos muy básicos que puedes encontrar a tu alrededor como:
La transmisión de datos es costosa, pero al acercar el cómputo al origen de los datos, se reduce la latencia, brindándoles una mejor experiencia a los usuarios finales.
Algunos de estos casos de uso en evolución de Edge Computing es la Realidad Aumentada, la Realidad Virtual y el Internet de las cosas.
Si bien tu organización está considerando los beneficios de acercar los datos al borde, existen algunos desafíos que vienen incluidos y deberás tener en cuenta.
A medida que se generan más datos de enlace, se requiere mayor expansión de las capacidades de red.
La estructura de la red también debe cambiar, especialmente cuando se trata de la resistencia de la red y la continuidad del negocio.
A medida que las cargas de cómputo se mueven de los centros de datos centrales a las ubicaciones de borde, las organizaciones deben ajustar sus procesos de administración de red para ofrecer un tiempo de actividad constante en un ecosistema de red más disperso con ubicaciones más remotas.
En una red que abarca varios dispositivos múltiples en un área geográfica amplia, los desafíos de la base de datos también comienzan a surgir.
Las bases de datos convencionales deben ampliarse para cumplir con los desafíos de coordinación.
A diferencia de la nube, Edge Computing posee otro tipo de recursos limitados.
Internet de las Cosas (IoT) se relaciona con la tendencia de objetos inteligentes comunes debido a la conexión con la internet.
Estos dispositivos pasan a recibir y enviar datos por medio de redes sin hilos, sin la intervención humana directa.
Ese es uno de los casos en que la Edge Computing se hace complementaria con IoT, cuando estos aparatos necesitan de procesamiento y transmisión en tiempo real y no pueden tener problemas de lentitud y fallas en la conexión.
Con la computación de borde, es posible administrar los datos de manera más directa, permitiendo que los dispositivos de IoT tengan capacidad computacional y de procesamiento sin depender tanto de la nube.
Cloud Computing centraliza los servicios en un grupo de centros de datos grandes, lo que permitió ampliar y compartir los recursos con mayor eficiencia, sin exponer la seguridad empresarial.
Por el otro lado, Edge Computing se encarga de los casos prácticos que el enfoque de centralización del Cloud Computing no puede abordar de forma correcta, debido a los requisitos de red o algunas otras restricciones.
Edge Computing no representa el fin de los sistemas en nube, al contrario, estos dos modelos de computación son complementarios, trabajan de manera híbrida para optimizar procesos.
Cloud Computing surgió en un momento en el que había una necesidad de dispensar el uso de hardware y aumentar los niveles de seguridad de la computación tradicional.
La computación en borde no rechaza ese modelo, sino que perfecciona el sistema, convirtiéndose en un intermediario para un uso más inteligente, eficaz y seguro de la nube.
Por ende, Edge Computing, se considera tanto en la infraestructura de procesos relacionados a la IoT, como en situaciones donde no se puede depender solo de la conexión a internet, o donde los datos más importantes se almacenan de forma local.
Finalmente, la computación en la nube, que ya existe desde hace más de una década, es una buena solución para algunos problemas de TI, sin embargo, la computación perimetral puede aportar otros propósitos más los ya mencionados.
Uno puede ser la extracción de la señal del ruido mediante el procesamiento local de grandes volúmenes de datos que no se pueden enviar a través de Internet.
Y el otro puede ser la capacidad de procesar cosas específicas localmente, donde y cuando la latencia es una preocupación.
La elección de una o de otra, e inclusive de ambas para la resolución de las operaciones, depende de la lógica de tus necesidades y los resultados que desees obtener.