Per molto tempo la maggior parte delle aziende ha considerato il networking come
la componente meno pregiata del suo stack tecnologico. Certo tutte le imprese sanno che avere a disposizione reti a larga banda è
un fattore decisivo, ma una volta garantito questo aspetto le aziende spesso preferiscono dedicare attenzione - e soprattutto investimenti - alle altre componenti infrastrutturali (storage, computing) ed
alla parte più strettamente applicativa. È una visione che le grandi realtà ed in generale le aziende più attente avevano già messo in discussione, l'emergenza pandemia ha messo ancora più in evidenza che
la rete è un fattore chiave sempre. E non solo in negativo, quando le sue prestazioni non sono adeguate.
Nei mesi dei lockdown si è visto chiaramente che chi aveva reti progettate e realizzate in una logica evoluta ha potuto
adattarsi meglio e più velocemente al nuovo scenario del
remote working di massa. Meglio ancora, chi ha concepito - e concepisce sempre più in prospettiva - il networking come una componente dello stack IT
attiva e sinergica con le altre, ha potuto supportare livelli di operatività più che adeguati per i propri servizi e le proprie applicazioni. In questa videointervista ne parliamo con
Fabio Tognon, Country Manager HPE Aruba in Italia. Anche perché proprio HPE Aruba ha identificato alcuni
elementi chiave nell'evoluzione delle reti per il prossimo futuro. Elementi che i CIO devono considerare attentamente.
È evidente che un primo aspetto evolutivo fondamentale è
la quota di remote working che resterà con noi anche alla fine dei lockdown. Il cosiddetto hybrid working piace e ha evidenti vantaggi. Ma chi decide di farlo proprio indipendentemente dalle limitazioni agli spostamenti delle persone,
deve attrezzarsi per cambiare molto di sé: logistica, spazi, cultura aziendale e prevedibilmente
progettazione delle reti.
Collegato alla nuova organizzazione delle reti c'è un altro aspetto, accennato in precedenza: imparare a vedere le reti non come le famose (o famigerate) "autostrade per i bit" ma come
elementi attivi che devono potersi adattare alle esigenze aziendali in ogni momento. Questo richiede un collegamento stretto tra la parte applicativa e la configurazione dinamica delle reti, perché in ultima analisi il criterio chiave per
valutare l'efficenza del networking è quanto bene
stanno performando i servizi e le applicazioni che questo supporta.
Questa sembra una constatazione ovvia ma non lo è storicamente, per chi si occupa di networking. Significa "misurare" le reti non puramente in bps o millisecondi di latenza trasmissiva ma ad esempio nella reattività di una videoconferenza Zoom o nella fluidità di un ecommerce. Il che significa poter
collegare aspetti quasi qualitativi ("l'applicazione va piano", vi direbbe un utente qualsiasi)
con metriche di basso livello. Ed aggiustare di conseguenza quello che c'è nel mezzo, perché tutto torni a funzionare come deve. La priorità, in fondo, è la soddisfazione dell'utente finale. Quando è interno ma soprattutto quando è esterno, ossia è un cliente.
Corollario: è quasi scontato che il networking del prossimo futuro sia ad
alto grado di automazione. È impossibile collegare dinamicamente la gestione e la configurazione delle reti al resto dello stack IT
pensando di fare tutto, o buona parte del tutto, manualmente. L'automazione si è già affermata nei
data center, che però sono ambienti molto più controllati del resto delle reti, anche semplicemente di una LAN. Man mano che ci si allontana dai data center le
condizioni al contorno delle reti si fanno sempre più imprevedibili e fuori dal controllo diretto dello staff IT.
Serve la
capacità di reagire ad ambienti quasi caotici - in senso tecnico, non figurato - e questa capacità deriva dall'automazione delle network operations. Che si svilupperà meglio man mano che si svilupperanno tecnicamente prodotti ed approcci: piattaforme in grado di dialogare ed integrarsi,
API più o meno aperte, analytics sui dati di telemetria, componenti di machine learning ed intelligenza artificiale, e molto altro ancora.
Trasversale a qualsiasi evoluzione
resta la cyber security. La cui evoluzione principale è quasi concettuale: non può più essere vista come qualcosa da "appoggiare" sulle reti perché queste stanno diventando talmente indefinite ed articolate che l'idea di aggiungere una soluzione mirata omogenea per tutta l'infrastruttura
è difficile da sostenere. La tradizionale stretta interdipendenza tra topologia di rete e policy di sicurezza, spiega HPE Aruba, sta scomparendo.
Così la cyber security diventa parte integrante dell'architettura di rete, in un certo senso
si delocalizza per poter essere ovunque. Ed anche per dare la possibilità di definire regole e policy di sicurezza scollegate dalla composizione della rete sottostante, perché questa può cambiare rapidamente ed integrare elementi - come l'
edge computing "ubiquo" degli
scenari 5G - che prima non erano stati nemmeno previsti. Ecco perché l
'approccio Zero Trust guadagnerà sempre più spazio, potendo tra l'altro adattarsi meglio di altri ad una visione delle reti che ruota sempre meno attorno all'infrastruttura fisica e sempre più attorno ai workflow per come vengono visti dagli utenti finali.