▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Edge computing, ecco i trend da tenere d'occhio nel 2022

Gli esperti di Red Hat esplorano sei temi di fondo che i responsabili IT dovranno comprendere e affrontare nel corso dei prossimi dodici mes

Tecnologie Cloud
Anche se sono molti gli aspetti dell’edge computing che non rappresentano più una novità, il quadro generale continua a evolvere in modo rapido. E, sebbene in alcune implementazioni di edge computing siano rinvenibili echi di vecchie architetture, lo sviluppo di tendenze edge veramente innovative è tangibile, e supporta le aziende di tutti i settori, dal telco all’automotive. È anche per questo che gli esperti di Red Hat hanno identificato alcune tendenze su cui i responsabili IT dovrebbero concentrarsi nel 2022.

Aumentano i workload edge

La grande rivoluzione a cui stiamo assistendo è l’aumento delle attività di computing e storage nell'edge. In passato i sistemi decentralizzati esistevano più per ridurre la dipendenza dai collegamenti di rete che per eseguire task. Ma questo sta cambiando.

L’IoT, per definizione, ha sempre comportato almeno la raccolta di dati, ma questi ultimi sono in costante e rapida crescita poiché le informazioni necessarie per le applicazioni di Machine Learning arrivano da una moltitudine di sensori e, anche se i modelli di ML vengono spesso sviluppati nel data center, la loro applicazione avviene alla periferia della rete, riducendo i requisiti di banda e accelerando il task, come lo spegnimento di una macchina in caso di letture anomale dei sensori, e fornendo insight e possibilità di intervento in tempo reale.

RISC-V guadagna terreno

I workload, che sono sia data-intensive sia compute-intensive, hanno bisogno di hardware su cui essere eseguiti. Le specifiche variano a seconda dell’applicazione e dei compromessi richiesti tra prestazioni, potenza e costi, e tradizionalmente la scelta è caduta su qualcosa di personalizzato come ARM o x86. Nessuna delle due architetture è però completamente aperta, anche se ARM e x86 hanno sviluppato nel tempo un esteso ecosistema di hardware e software di supporto.

Ma RISC-V è una nuova e intrigante architettura aperta. Il motivo lo spiega bene Yan Fisher, Global Emerging Technology Evangelist di Red Hat: “L’unicità di RISC-V è che il suo processo di progettazione e specifiche sono realmente aperte. Il design riflette le decisioni della comunità, basate sull’esperienza collettiva e la ricerca”. Questo approccio aperto, nonché accompagnato da un ecosistema attivo, sta già aiutando a introdurre il design RISC-V in una vasta gamma di settori.

edge

Prende piede la Virtual Radio Access Network (vRAN) 

Una radio access network è responsabile dell’abilitazione e della connessione di dispositivi come gli smartphone o i dispositivi IoT a una rete mobile. I carrier, come parte delle implementazioni 5G, stanno passando a un approccio vRAN più flessibile in cui i componenti logici di alto livello della RAN vengono disaggregati disaccoppiando hardware e software, oltre a utilizzare la tecnologia cloud per l’implementazione e lo scaling automatici e il posizionamento del workload.

Secondo uno studio, spiega Red Hat, l’implementazione di soluzioni RAN virtuali (vRAN) e Open RAN (oRAN) assicura fino al 44% di risparmi sul TCO rispetto alle tradizionali configurazioni RAN distribuite o centralizzate. Attraverso questa modernizzazione, i communication service provider (CSP) possono semplificare le operazioni di rete e migliorare flessibilità, disponibilità ed efficienza, abilitando inoltre un numero crescente di casi d’uso. Le soluzioni RAN cloud-native basate su container forniscono così costi più bassi, maggiore facilità di aggiornamento e modifica, oltre a capacità di scalare orizzontalmente evitando il vendor lock-in.

La scalabilità spinge gli approcci operativi

Molti aspetti di un’architettura edge computing possono essere diversi da quelle implementate tra “le mura” di un data center: i dispositivi e i computer possono dover fare i conti con una scarsa sicurezza fisica e con la totale assenza di staff IT in loco, la connettività di rete può essere inaffidabile, larghezza di banda e basse latenze non sono scontate e ancora, molte delle sfide più pressanti riguardano la scalabilità perché ci possono essere migliaia (o più) di endpoint di rete.

Kris Murphy, Senior Principal Software Engineer di Red Hat, identifica quattro passi principali per affrontare la scalabilità: “Standardizzare, ridurre al minimo la 'superficie' operativa, utilizzare dove possibile un approccio pull rispetto al push, e automatizzare le piccole cose”. Per esempio, raccomanda di fare aggiornamenti transazionali, cioè atomici, di modo che un sistema non possa risultare solo parzialmente aggiornato e quindi finire in uno stato mal definito, inoltre - durante l’aggiornamento -, evidenzia come buona pratica che siano gli endpoint a fare pull sugli update perché “la connettività in uscita, probabilmente, è più disponibile”. Infine, si dovrebbe anche fare attenzione a limitare i picchi di carico, evitando di svolgere tutti gli aggiornamenti allo stesso tempo.

L’edge computing ha bisogno di verifica

Data la ristrettezza di risorse presenti nell’edge, le funzionalità che richiedono un esiguo numero di risorse locali sono le opzioni più pragmatiche da considerare e, ancora una volta, qualsiasi approccio deve essere altamente scalabile, altrimenti gli usi e i benefici diventano estremamente limitati. In quest’ottica, un’opzione che spicca è il progetto Keylime, descritto da Ben Fischer, Emerging Technology Evangelist di Red Hat, come una serie di “tecnologie che possono verificare che i dispositivi informatici si avviino e rimangano in uno stato di funzionamento affidabile su scala, e che pertanto dovrebbero essere considerate per un’ampia distribuzione, specialmente in ambienti con risorse limitate”.

Keylime fornisce l’avvio remoto e l’attestazione runtime utilizzando l’Integrity Measurement Architecture (IMA) e sfrutta i Trusted Platform Module (TPM) comuni alla maggior parte delle schede madri di laptop, desktop e server. Se non è disponibile un TPM hardware, è possibile caricare un TPM virtuale, o vTPM, per fornire la funzionalità TPM richiesta. L’attestazione di avvio ed esecuzione è un mezzo per verificare che il dispositivo periferico si avvii in uno stato di fiducia noto e mantenga tale stato durante l’esecuzione. In altre parole, se accade qualcosa di inaspettato, come un processo malevolo, lo stato previsto cambia portando il dispositivo edge offline, per essere poi indagato, ripulito e rimesso nuovamente in servizio.

L'ora del confidential computing

Quando si parla di edge computing, la security richiede una preparazione estesa. La disponibilità di risorse, come la connettività di rete, l’elettricità, il personale, le attrezzature e le funzionalità variano, ma sono certamente molte meno di quelle disponibili in un data center e tale limitazione mina le capacità di garantire disponibilità e sicurezza. In questo campo, oltre a crittografare lo storage locale e le connessioni ai sistemi centrali, il confidential computing offre la possibilità di cifrare i dati mentre vengono utilizzati dal dispositivo edge, proteggendo sia i dati sia il software che li elabora. Ben Fischer sostiene che “il confidential computing su device edge diventerà una tecnologia di sicurezza fondamentale, proprio a causa delle limitate risorse dell’edge”.

Secondo il report del Confidential Computing Consortium (CCC) del gruppo Everest, Confidential Computing - The Next Frontier in Data Security, “il confidential computing in una rete edge distribuita può anche aiutare a realizzare nuove efficienze senza intaccare i dati o la privacy IP, costruendo una base sicura per scalare l’analisi edge senza compromettere la sicurezza dei dati”. Inoltre, il confidential computing “assicura che solo i comandi e il codice autorizzati siano eseguiti dai dispositivi edge e IOT. L’uso dell’informatica confidenziale nei dispositivi IOT ed edge e nel back end aiuta così a controllare le infrastrutture critiche impedendo la manomissione del codice dei dati che vengono comunicati attraverso le interfacce”. Tra le applicazioni di confidential computing nell’edge, si possono includere i veicoli autonomi, e in generale la raccolta di informazioni sensibili.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Speciali Tutti gli speciali

Reportage

Red Hat Summit Connect 2024

Reportage

WPC 2024

Speciale

Speciale Data Center

Speciale

Speciale Hybrid Working

Reportage

Cybertech Europe 2024

Calendario Tutto

Gen 23
Nutanix Cloud Day Roadshow - Bari

Magazine Tutti i numeri

ImpresaCity Magazine


Leggi il Magazine

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter