¿Qué es Edge Computing?

0
515

En los últimos años, la informática de punta ha cambiado el panorama. Las tecnologías de punta se han convertido en una fuerza definitoria de este período. Indudablemente continuarán informando en gran medida el debate sobre cómo el mundo hará que la informática avance.  

Hasta hace poco, la conversación en torno a la informática de vanguardia se ha ocupado principalmente del “qué pasaría si”. En gran medida, la infraestructura necesaria para admitir la computación perimetral no ha estado disponible, por lo que nos hemos visto obligados a formular hipótesis.

A medida que recibimos una nueva ola de recursos informáticos de vanguardia, esto está cambiando. Los desarrolladores de aplicaciones, los emprendedores y las grandes empresas están teniendo en sus manos micro centros de datos, procesadores especializados y otras abstracciones de software necesarias para probar los procesos y proporcionar respuestas a los “qué pasaría si”. Ahora podemos ir más allá de lo teórico, y podemos responder directamente preguntas sobre el valor y las implicaciones de la informática de borde (edge computing).

Esta evidencia del mundo real da peso al debate en torno a la exageración de la informática de vanguardia y su impacto. ¿Se lo merece o está fuera de lugar?

Edge Computing. No solo sobre latencia.

Edge computing acerca la computación y el almacenamiento de datos a donde se necesita. No hay un ‘borde’ fijo. De hecho, el borde puede estar en cualquier lugar que esté más cerca del usuario final o dispositivo. Ya sea a 100 millas de distancia, a una milla de distancia, en las instalaciones o incluso en el propio dispositivo. Como tal, la computación perimetral es un contraste directo con el modelo tradicional de computación en la nube. En el modelo tradicional, la computación está centralizada en un puñado de centros de datos de hiperescala.

Hasta ahora, las conversaciones en torno a la informática de punta han enfatizado que tiene el poder de minimizar la latencia. Esto puede ser para mejorar la experiencia del usuario o para habilitar nuevas aplicaciones sensibles a la latencia. Sin embargo, ¡tiene el potencial de hacer mucho más que esto!  

Si bien la mitigación de la latencia es un caso de uso importante, no es el único. Otro caso de uso para la computación perimetral es minimizar el tráfico de red que va y viene de la nube. Esto se conoce como Cloud Offload y probablemente ofrecerá tanto valor económico como la mitigación de la latencia.  

Para respaldar la importancia de Cloud Offload está la gran cantidad de datos que se generan. A medida que nuestro mundo se vuelve más conectado, los usuarios, dispositivos y sensores crean más datos que nunca.

Datos y computación perimetral

Chetan Venkatesh, CEO de Macrometa, una startup que aborda desafíos de datos en la computación de borde, cree que el borde es un “problema de datos”. Cloud Offload ha surgido porque cuesta dinero mover todos estos datos y muchas empresas prefieren no moverlos si no tienen que hacerlo.  

La computación perimetral permite extraer el valor de los datos desde donde se genera, sin moverlo nunca desde el borde. Si es necesario, los datos se pueden reducir a un subconjunto que es más económico enviar a la nube para su almacenamiento o análisis posterior.

Normalmente, Cloud Offload se usa para procesar datos de video o audio. Estos son dos de los tipos de datos más exigentes de ancho de banda. Sin embargo, algunas otras fuentes de datos son igual de costosas de transmitir a la nube. El equipo industrial también genera una gran cantidad de datos y es un candidato principal para Cloud Offload.  

The Edge es una extensión de la nube.

Los primeros comentarios sugirieron que el borde puede reemplazar a la nube. En cambio, se ha vuelto más preciso decir que el borde expande el alcance de la nube. Hasta el momento no ha afectado la tendencia actual de las cargas de trabajo que migran a la nube. Más aún, se ha trabajado para extender la fórmula tradicional en la nube de la disponibilidad de recursos a pedido y la abstracción de la infraestructura física a las ubicaciones ‘de borde’. Estas ubicaciones se están alejando cada vez más de los centros de datos en la nube tradicionales, pero se gestionarán utilizando herramientas y enfoques desarrollados desde la nube. Como resultado, con el tiempo la línea entre la nube y el borde se volverá borrosa.

Las iniciativas de computación de borde de los proveedores de nube pública como AWS y Microsoft Azure son un ejemplo directo de cómo el borde y la nube son un continuo lineal. Por ejemplo, si usted es una empresa que busca hacer computación perimetral local, Amazon ahora le enviará un puesto avanzado de AWS. Este es un rack de informática y almacenamiento completamente ensamblado que imita el diseño de hardware de los centros de datos de Amazon. Se instala en el propio centro de datos del cliente y Amazon lo monitorea, mantiene y actualiza. Es importante destacar que estos puestos avanzados ejecutan muchos de los mismos servicios en los que los usuarios de AWS han llegado a confiar; el servicio de cálculo EC2, por ejemplo. Microsoft también tiene un objetivo similar con su producto Azure Stack Edge; haciendo el borde operacionalmente similar a la nube.

Estos productos de grandes proveedores de nombre envían una señal segura de que la infraestructura de nube y borde puede unificarse bajo un mismo paraguas.

La infraestructura de borde está llegando en fases.

A muchos propietarios de aplicaciones les gustaría cosechar los beneficios de la computación perimetral sin tener que soportar ninguna huella local. Esto requiere acceso a un nuevo tipo de infraestructura. Algo que es similar a la nube pero que está mucho más distribuido geográficamente que las pocas docenas de centros de datos a gran escala que conforman la nube hoy en día.  

Este tipo de infraestructura está lentamente disponible y es probable que llegue en tres fases distintas. Cada uno extenderá el alcance del borde al ampliar la huella geográfica del borde en cada etapa.

Fase 1 – Multi-región y multi-nube.

Este paso es aprovechar múltiples regiones ofrecidas por los proveedores de nube pública. Por ejemplo, AWS tiene centros de datos en 22 regiones geográficas con cuatro más en camino. Un cliente de AWS que atiende a usuarios de Norteamérica y Europa podría ejecutar su aplicación tanto en la región del norte de California como en la de Frankfurt, por ejemplo. Pasar de una región a varias regiones podría iniciar una gran caída en la latencia. Para un gran conjunto de aplicaciones, esto será todo lo que se necesita para ofrecer una buena experiencia de usuario.

Al mismo tiempo, hay una tendencia hacia enfoques multi-nube. Este enfoque está impulsado por una serie de factores que incluyen la rentabilidad, la mitigación de riesgos, la evitación del bloqueo de proveedores y el deseo de acceder a los mejores servicios del sector ofrecidos por cada proveedor diferente. Un enfoque de múltiples nubes es similar al enfoque de múltiples regiones en el sentido de que allana el camino hacia la distribución de cargas de trabajo en un espectro que se está moviendo hacia enfoques de computación de borde más descentralizados.

Fase 2- La ventaja regional.

La segunda fase extiende la evolución una capa más profunda al aprovechar la infraestructura en cientos o miles de ubicaciones en lugar de centros de datos de hiperescala en solo unas pocas docenas de ciudades.  

Las redes de entrega de contenido (CDN) ya tienen una huella de infraestructura como esta. Las CDN se han dedicado a la informática de vanguardia durante aproximadamente 20 años. Durante mucho tiempo, han estado almacenando en caché contenido estático más cerca de los usuarios finales para mejorar el rendimiento. Por ejemplo, un CDN típico como Cloudflare tiene 194 regiones, mientras que AWS tiene 22.  

Sin embargo, lo que es diferente ahora es que estas CDN han comenzado a abrir su infraestructura a cargas de trabajo de uso general, no solo al almacenamiento en caché de contenido estático. Hoy, las CDN como Cloudflare, Fastly, Limelight, StackPath y Zenlayer ofrecen una combinación de contenedor como servicio, VM como servicio y funciones sin servidor. Como tal, comienzan a parecerse más a los proveedores de la nube.  

Los proveedores de nube con visión de futuro como Packet y Ridge también están ofreciendo este tipo de infraestructura. A su vez, los gigantes tecnológicos también han dado este primer paso para ofrecer una infraestructura más regionalizada. AWS, por ejemplo, ha presentado el primero de lo que llama ‘Zonas locales’ en Los Ángeles, con más en camino. 

Fase 3 – El borde de acceso.

La fase número 3 conduce el borde aún más hacia afuera, a un lugar donde está a solo una o dos paradas de la red del usuario final o dispositivo. En terminología de telecomunicaciones, esto se conoce como la porción de acceso de la red. Por lo tanto, este tipo de arquitectura se ha denominado Access Edge.  

La forma típica de Access Edge es un micro centro de datos. Esto puede variar en tamaño. En algunos casos, es tan pequeño como un estante individual, en otros casos, tan grande como un camión pequeño. También puede variar en ubicación. Podría desplegarse al costado de una carretera, por ejemplo, o en la base de una torre de red celular.  

El trabajo involucrado en esto se aleja de la tecnología y se basa en la progresión dentro de otros sectores. Las innovaciones en energía y refrigeración, por ejemplo, permiten que se implementen densidades cada vez mayores de infraestructura en estos centros de datos de tamaño reducido.

Estos micro centros de datos han comenzado a aparecer en los últimos años. Empresas como Vapor IO, EdgeMicro y EdgePresence están construyendo estos centros en todo Estados Unidos, por ejemplo. 2019 puede haber sido el primer año de construcción, pero su eficacia completa solo se logrará más adelante en el futuro. Se estima que para 2022, el ROI del centro de datos de borde será cobrable para aquellos que hicieron cualquier inversión de capital en ellos.

Micro Data Centers vs The Regional Edge

Por el momento, no hay una respuesta clara sobre cuán beneficiosos serán estos micro centros de datos frente a The Regional Edge. Algunas compañías ya están aprovechando The Regional Edge para una variedad de casos de uso de descarga en la nube, así como para mitigar la latencia en dominios sensibles a la experiencia del usuario, como los juegos y el comercio electrónico.  

En contraste, los sectores que podrían usar rutas de red muy cortas y latencias súper bajas de Access Edge están algo más alejadas. Vehículos autónomos, drones, AR / VR, ciudades inteligentes y cirugía guiada a distancia, son todas las aplicaciones que se prestan bien a Access Edge, por ejemplo.

Podría ser que un cliente principal de Access Edge esté al acecho … algo que está en la etapa de desarrollo y aún no está en el centro de atención. Por esta razón, es posible que tengamos que esperar para ver cuán efectivo puede ser Access Edge.