Per far “girare” l’AI e le sue potenzialità innovative serve guardare all’infrastrutture IT da un punto di vista diverso rispetto a quello tradizionale. E non è solo questione di tecnologia.
Ci sono vari punti di vista da cui si può considerare il grande sviluppo recente dell’Intelligenza Artificiale. Di solito ci si concentra sulla sua capacità di trasformare determinati processi aziendali e, conseguentemente, su come la sua adozione possa cambiare – si auspica in meglio – la vita delle imprese e dei loro dipendenti. C’è però un “dietro le quinte” dell’AI che interessa anche di più chi si occupa di infrastrutture IT. Come spiega Marco Bubani, Direttore Innovazione di VEM sistemi, “L’AI è comunque una applicazione che dovremo ospitare nei nostri data center. E come tutte le applicazioni, ha esigenze infrastrutturali sue proprie che impattano sulla progettazione dei data center stessi”.
L’AI richiede prima di tutto infrastrutture IT flessibili e scalabili. Si tratta di una esigenza che in effetti non è nuova ma che viene notevolmente rafforzata e che conduce alla soluzione che già conosciamo: il modello del cloud computing, inteso non come l’insieme dei servizi offerti dai grandi hyperscaler ma proprio come un nuovo approccio progettuale dell’IT.
Se uniamo il trend dell’AI alla necessità che molte imprese oggi hanno di riportare on-premise alcune loro applicazioni – per motivi di sovranità del dato, controllo dei costi, compliance – ecco che è facile prevedere come il modello cloud e le tecnologie cloud-native troveranno sempre più applicazione direttamente nei data center delle imprese di qualsiasi tipo.
Questo passaggio sembra ovvio, e concettualmente può anche esserlo, ma non diventa per questo semplice, avvisa Bubani: “Riportare in casa carichi applicativi che oggi girano in cloud significa progettare i data center con gli stessi presupposti con cui sono stati progettati anni fa i data center dei grandi hyperscaler. Cioè con un'infrastruttura fortemente basata sulla containerizzazione applicativa e sui microservizi, perché queste componenti hanno proprio l'obiettivo di garantire da subito scalabilità automatica, flessibilità, integrazione con i servizi del cloud pubblico”.
In tutto questo non va dimenticato però il tema della sostenibilità ambientale: per qualsiasi applicazione o servizio collegati al Machine Learning o all’Intelligenza Artificiale, più capacità computazionale si ha, meglio è. Ma, ricorda Bubani, “La capacità computazionale è energia, quindi è immediatamente chiaro che uno dei limiti alla crescita dell'Intelligenza Artificiale nei data center è legato agli aspetti energetici e di sostenibilità”.
Se oggi un rack di server in un data center mediamente assorbe 5-8 KW di energia, che diventano 10-15 se il data center è progettato in alta densità, un rack costituito di processori per l’AI di ultima generazione può assorbire fino a 120 KW di energia. “Questo ci deve far capire – prosegue Bubani - che progettare oggi un data center che possa poter ospitare, domani, task di AI significa rivedere completamente i canoni con i quali sinora abbiamo disegnato i data center”.
Così il data center cambia da una struttura “monolitica” basata sulla virtualizzazione a una molto più articolata in cui convivono virtualizzazione, containerizzazione, funzioni software-defined e sviluppo cloud-native, in un approccio “assolutamente omogeneo con quella del cloud pubblico”, sottolinea Bubani, che “ci consentirà di costruire architetture e sistemi informativi distribuiti fra l'on-premise e il multicloud, con una forte integrazione fra loro”.
Questo però introduce complessità, perché “si tratta di un'architettura estremamente distribuita, e come è distribuita l'architettura applicativa così dovrà essere distribuita anche l'infrastruttura che la sostiene, per ciascuno dei suoi ‘pilastri’ di base: networking, sicurezza, observability, dialogo con lo storage”. Una nuova complessità spinta dalla richiesta di AI, complessità che si potrà affrontare efficacemente solo grazie all’AI stessa, che troverà sempre più spazio nelle componenti di gestione ed orchestrazione dell’IT.
Il bisogno di potenza e flessibilità al tempo stesso che porta l’AI guida anche verso lo sviluppo di nuove componenti hardware, ricorda Bubani. Come le GPU hanno scaricato i processori convenzionali dal carico di lavoro rappresentato dai workload AI, ora è ad esempio il turno delle Data Processing Unit: le DPU, il cui compito è già adesso gestire i flussi dati ad alta velocità che alimentano le applicazioni di AI. E che richiedono, poi, reti di nuova generazione che possano dare “un throughput sempre più elevato, proprio per la grande necessità di dati che le applicazioni come l'intelligenza artificiale hanno”.
L’evoluzione delle architetture IT necessaria a supportare le varie possibili applicazioni dell’AI non è solo una questione di pura tecnologia: ha anche impatti importanti sugli staff IT e sulle organizzazioni nel loro complesso. Tanto che sempre più spesso le imprese affermano che è proprio il lato “umano”- i team, l'organizzazione, gli skill – quello che percepiscono come il più debole.
“È normale che sia così – sottolinea Bubani – perché la tecnologia cambia sempre molto più velocemente di quanto siamo in grado di assorbirla. Ma le aziende devono comunque cominciare a capire come affrontare le nuove tecnologie, magari anche con progetti semplici che affianchino la virtualizzazione con la containerizzazione, per comprendere meglio come l’IT si ‘spalma’ sulle componenti applicative distribuite. Comprendere prima come affrontare questi cambiamenti è un vero e proprio vantaggio competitivo, perché è la direzione in cui andranno le tecnologie sarà sicuramente questa”.