Seis tendencias del edge computing a las que prestar atención en 2022
¿Qué se vendrá en el universo del edge computing? Los expertos analizan seis cuestiones que los líderes de TI necesitan comprender y abordar.
Si bien ya se conocen muchos aspectos del edge computing, el panorama general continúa evolucionando rápidamente. Por ejemplo, el “edge computing” abarca los sistemas distribuidos de las sucursales de tiendas minoristas que han existido durante décadas. Este término también comprende todo tipo de sistemas informáticos locales de fábricas y proveedores de telecomunicaciones, aunque de una manera más conectada y menos propietaria de la que solía predominar.
El edge computing ayuda a los líderes empresariales y de TI a resolver problemas a medida que proliferan los datos provenientes de los sensores y del machine learning.
Sin embargo, aunque en algunas implementaciones de edge computing se perciban rastros de antiguas arquitecturas, también se observan tendencias del edge en desarrollo que son verdaderamente nuevas o al menos muy diferentes de lo que existía anteriormente. Estas tendencias están ayudando a los líderes empresariales y de TI a resolver problemas en sectores que van desde el de telecomunicaciones al automotriz a medida que proliferan los datos provenientes de los sensores y el machine learning.
Las tendencias del edge computing que debería tener en cuenta
Los expertos en edge analizan seis tendencias a las que los líderes empresariales y de TI deberían prestar atención en 2022:
1.- Las cargas de trabajo en el edge aumentan
Uno de los cambios importantes que estamos viendo es que, en el edge, hay más informática y más almacenamiento. A menudo los sistemas descentralizados existían más para disminuir la dependencia de los enlaces de red que para realizar tareas que no podían hacerse en la práctica en una ubicación central mediante comunicaciones razonablemente confiables. Pero eso está cambiando.
El IoT, por definición, siempre ha involucrado la recolección de datos. No obstante, lo que supo ser un goteo se ha convertido en un aluvión dado que los datos que necesitan las aplicaciones de machine learning (ML) fluyen de un sinnúmero de sensores. Pero aun cuando los modelos de entrenamiento se desarrollen con frecuencia en un centro de datos centralizado, la aplicación continua de esos modelos generalmente se traslada al borde de la red. Esto reduce los requisitos de ancho de banda de la red y permite accionar más rápidamente a nivel local, como apagar una máquina en respuesta a una lectura anómala de un sensor. El objetivo es aportar información para adoptar medidas en el momento preciso.
2.- RISC-V va ganando terreno
Se sabe que las cargas de trabajo que hacen un uso intensivo de los datos y los recursos informáticos necesitan hardware en el cual ejecutarse. ¿Por qué es intrigante? Así lo explica Yan Fisher, evangelizador global de tecnologías emergentes de Red Hat: “Lo que distingue a RISC-V es que su proceso de diseño y su especificación son genuinamente abiertos. Su diseño refleja las decisiones de la comunidad basadas en la experiencia y la investigación colectivas.”
Este enfoque abierto y el ecosistema activo que lo acompaña ayudan a promover las ventajas del diseño de RISC-V en todos los sectores. Calista Redmond, CEO de RISC-V International, comenta lo siguiente: “Con este giro hacia el edge computing, observamos una gran inversión en RISC-V en todo el ecosistema, desde empresas multinacionales como Alibaba, Andes Technology y NXP hasta empresas emergentes como SiFive, Esperanto Technologies y GreenWaves Technologies, que diseñan soluciones RISC-V innovadoras para el edge y la AI”.
3.- Las redes de acceso de radio virtuales (vRAN) han pasado a ser un caso de uso del edge cada vez más importante
Una red de acceso de radio es responsable de habilitar y conectar dispositivos como smartphones o dispositivos del Internet de las Cosas (IoT) con una red móvil.
Hanen Garcia, gerente de soluciones de telecomunicaciones de Red Hat, e Ishu Verma, evangelizadora de tecnologías emergentes de Red Hat, observan lo siguiente: “Un estudio indica que la implementación de soluciones de RAN virtuales (vRAN)/Open RAN (oRAN) logran reducir el costo total de propiedad de la red hasta en un 44% en comparación con las configuraciones de RAN distribuidas/centralizadas tradicionales.” Además: “A través de esta modernización, los proveedores de servicios de comunicaciones (CSP) pueden simplificar las operaciones de red e incrementar la flexibilidad, disponibilidad y eficiencia, al mismo tiempo que prestan servicio a un número de casos de uso cada vez mayor.
4.- La escalabilidad impulsa enfoques operativos
Kris Murphy, ingeniero de software sénior principal de Red Hat, identifica cuatro pasos básicos que se deben dar para manejar la escalabilidad: “Hay que estandarizar sin piedad, minimizar la superficie operativa, priorizar los pulls por sobre los pushes y automatizar las pequeñas cosas”.
5.- El edge computing necesita certificación
En vista de los escasos recursos disponibles en el borde, las opciones pragmáticas que se deben tener en cuenta son las que requieren pocos o nulos recursos locales. Una vez más, el enfoque que se adopte debe ser sumamente escalable, de lo contrario, sus usos y beneficios se verían muy reducidos. Una de las opciones que se destaca es el proyecto Keylime. “Se debería tener en cuenta las tecnologías como Keylime, capaces de verificar que los dispositivos informáticos arranquen y continúen en un estado de funcionamiento confiable en función de las necesidades, para las grandes implementaciones, especialmente en entornos con recursos limitados”, dice Ben Fischer, evangelizador de tecnologías emergentes de Red Hat.
6.- La computación confidencial es más importante en el borde
La seguridad en el borde requiere una preparación más exhaustiva. Los recursos disponibles, como la conectividad de la red, la electricidad, el personal, el equipamiento y la funcionalidad, varían mucho, pero son muchos menos de los que habría disponible en un centro de datos. Estos recursos limitados restringen las capacidades de garantizar la disponibilidad y la seguridad. Además de cifrar el almacenamiento local y las conexiones a sistemas más centralizados, la computación confidencial ofrece la capacidad de cifrar los datos mientras los utiliza el dispositivo de edge computing.
Esto protege los datos durante su procesamiento y el software que procesa los datos evitando su captura o manipulación. Fischer sostiene que “la computación confidencial en los dispositivos de edge computing se convertirá en la tecnología de seguridad base de la computación en el borde debido a los recursos de borde limitados”.
Aplicaciones disímiles entre industrias
La diversidad de estas tendencias del edge computing refleja la diversidad y la escalabilidad de las cargas de trabajo en el edge. Existen algunos denominadores comunes —múltiples espacios físicos, el uso de tecnologías nativas de la nube y de los contenedores, un mayor uso de machine learning. Sin embargo, las aplicaciones de telecomunicaciones a menudo tienen poco en común con los casos de uso industriales del IoT, que a su vez difieren de aquellos de la industria automotriz. Pero, independientemente de en qué sector se concentre, descubrirá que en 2022 ocurrirán cosas muy interesantes en el borde.