Nuovi foundational model, sempre più integrazione con il mondo fisico, l’opportunità di migliorare anche il computing tradizionale: il futuro prossimo dell’AI segue direttrici di sviluppo decisamente articolate
Autore: f.p.
Che direttrici sta seguendo lo sviluppo tecnologico che alimenta la crescita dell’intelligenza artificiale? Per capirlo è difficile trovare interlocutori migliori di Nvidia, che è certamente l’azienda-simbolo dell’attuale nuovo Rinascimento dell’AI. Partecipando a un recente evento Vertiv è stato Carlo Ruiz, Vice President Enterprise Solutions & Operations Nvidia EMEA, a delineare alcuni degli sviluppi più importanti su cui il vendor tecnologico sta lavorando e che si possono raggruppare in tre macro-aree.
Il primo importante campo di sviluppo è proprio alla base della moderna AI: i foundational model, i modelli di machine learning di grandi dimensioni pre-addestrati su enormi quantità di dati e pensati per essere usati appunto come “base” per una vasta gamma di applicazioni aziendali. “Non c’è una ‘fine’ nello sviluppo dei modelli: più potenza di calcolo e più dati abbiamo, più complessi possono essere i modelli e migliori i risultati che danno”, premette Ruiz, spiegando poi che nel prossimo futuro vedremo sempre più foundational model differenziati per linguaggi differenti e per ambiti di applicazione diversi, dallo sviluppo software alla genomica.
Parallelamente, spiega Ruiz, c’è una “seconda ondata” di sviluppo dei modelli portata avanti dalle grandi imprese, che utilizzano i componenti di AI per creare foundational model specializzati sui propri processi e sui propri dati. In questi sviluppi, sottolinea Ruiz, è importante avere la possibilità di operare in maniera da sfruttare le migliori tecnologie a disposizione senza mettere a rischio la privacy di dati che possono essere sensibili o, quantomeno, critici dal punto di vista delle proprietà intellettuali.
In questo senso Nvidia pone come esempio direttamente sé stessa e lo sviluppo di ChipNeMo, un Large Language Model addestrato in modo specifico per assistere gli specialisti nella progettazione di chip, tra l’altro attraverso un copilot che sa generare spezzoni di script per i tool di Electronic Design Automation. Ovviamente a Nvidia non mancavano dati, documentazione tecnica e informazioni specifiche in questo ambito, quindi li ha usati per un addestramento mirato in-house di un LLM generico che, dopo una fase di finetuning supervisionato, ha portato al risultato finale.
Certo non tutte le imprese hanno lo stesso livello di skill di Nvidia, ma l’approccio generale in campo enterprise dovrebbe essere, secondo Nvidia stessa, questo: mantenere i dati critici in casa e usare gli strumenti disponibili sul mercato per arrivare a soluzioni fatte su misura delle proprie esigenze.
Una seconda direttrice di sviluppo per l’intelligenza artificiale è la nuova “physical AI”, una AI che diventa materiale perché integrata in oggetti tangibili e “attivi”, come i robot industriali o le automobili, che condividono il nostro stesso spazio fisico e interagiscono con noi. Non è esattamente un tema nuovo e da qui la domanda (retorica) di Ruiz: “Perché tutto questo diventa improvvisamente un tema di grande interesse? Perché ha rappresentato per lungo tempo una sfida tecnologica, l’insieme di tre problemi di computing che ora sono stati risolti e possono portare soluzioni su larga scala”.
Il primo problema è la capacità computazionale dei robot stessi, o di qualsiasi altro oggetto autonomo: deve essere elevata e oggi ci sono le piattaforme hardware che permettono di averla. Secondo problema: la necessità di avere modelli di AI estremamente avanzati ed eseguiti direttamente a bordo di un robot. Anche qui la soluzione c’è: pre-addestrare i modelli nei grandi data center per arrivare a modelli complessi e fortemente ottimizzati che possono essere eseguiti – anche più di uno alla volta – nei singoli oggetti autonomi.
Tra questi due estremi – l’hardware e i modelli di AI – c’era, spiega Ruiz, “Un anello mancante: le AI, come gli umani, devono essere addestrate non solo prima di essere operative ma anche una volta che sono in azione. E abbiamo scoperto che un ambiente digitale, un digital twin, era lo strumento perfetto che sinora era mancato”. L’approccio è quindi addestrare gli algoritmi robotici in un ambiente virtuale che sia fisicamente accurato, in modo che possano affrontare tutti i casi (simulati) possibili, per migliaia di volte e senza doversi preoccupare delle conseguenze degli inevitabili errori.
Quello che Ruiz racconta aiuta a comprendere meglio un messaggio importante per il futuro prossimo dell’AI: non è (solo) questione di GPU, anche se è di queste che si è parlato tantissimo, ma di uno stack tecnologico completo che comprende diversi componenti hardware e software. Certo le GPU, ma anche nuove concezioni di CPU, le Data Processing Unit (DPU), i chip per la trasmissione dati ad altissima velocità. E il software: modelli pre-addestrati, Software Development Kit, tool, microservizi. “È tutto lavoro che abbiamo già fatto – spiega Ruiz nel caso dell’offerta Nvidia – e sui altri possono costruire, non è necessario reinventare ogni volta la ruota”.
Questo approccio al riuso e alla modularità dei componenti per l’AI va peraltro anche considerato in un’ottica diversa rispetto a quella classica, ossia quando questi concetti sono applicati nell’IT tradizionale. Ad un certo livello di complessità e di performance il “mattoncino” di base non è più il chip o la GPU ma l’appliance o il rack di appliance mirate per l’AI. E anche oltre, sottolinea Ruiz: “Per l’AI servono approcci nuovi. L’unità di elaborazione non più il chip, è l’intero data center, o meglio quello che noi chiamiamo AI Factory: un data center dotato del giusto software, a cui si passano i dati per riceverne intelligenza, valore”.
Una “AI Factory” nasce modularmente partendo dalle componenti di base Nvidia, letteralmente. Oggi due GPU Blackwell insieme a una CPU Grace costituiscono il superchip GB200, e due GB200 (insieme ad altre tecnologie Nvidia) “muovono” un compute tray, cioè essenzialmente un blade server per l’AI. 18 compute tray costituiscono un GB200 NVL72, in pratica un rack per l’AI che offre qualcosa come 1,4 exaflop di potenza di calcolo AI.
Mettendo insieme otto GB200 NVL72, con le associate componenti di storage, raffreddamento e networking si ottiene un “macro-componente” per l’AI che si può combinare con altri gemelli per arrivare alla AI Factory: un data center modulare con 645 exaflop di potenza AI e 16,4 petaflop per il computing tradizionale.
E attenzione: tutto quello che si sta sviluppando in campo AI non va considerato solo per l'Ai in senso stretto. Ci sono miglioramenti prestazionali che potrebbero essere estesi anche ai workload tradizionali, portando l’AI a dare un ulteriore contributo alla digitalizzazione sostenibile. “Il computing convenzionale non sta sfruttando le funzioni più avanzate di accelerazione”, spiega Ruiz, presentando un workload di esempio che con server tradizionali a due CPU richiede 960 server per essere completato e che, invece, potrebbe essere eseguito con solamente due server Nvidia configurati ad hoc.
“Quello che dobbiamo chiederci – conclude quindi Ruiz – è quali tipi di workload convenzionali sono eseguiti nelle imprese e come portarli all’accelerated computing. Abbiamo la possibilità di avere guadagni prestazionali enormi, in uno scenario in cui c’è un triplo vantaggio: adottare le nuove tecnologie, avere performance elevate, fare cose che prima erano impossibili. Le ricadute sul tema dell’efficienza energetica sono immediatamente percepibili, ma ci sono da fare considerazioni altrettanto importanti anche per gli aspetti economici”.