Il 2024 è l'anno in cui le promesse dell'AI generativa potranno concretizzarsi: è una questione di approccio, più che di strumenti sul mercato
Il 2023 come l'anno della (rinnovata) notorietà dell'AI, il 2024 come quello in cui le sue potenzialità possono davvero concretizzarsi come base per nuove forme di innovazione. Il messaggio principale che viene dall'AWS Summit 2024 di Milano è principalmente questo. Insieme alla constatazione - oggettiva, peraltro - che per le imprese italiane muoversi tra le promesse e la realtà dell'AI (e non solo generativa) resta ancora tutt'altro che banale.
Ma le difficoltà ad approcciare il nuovo possono, come sempre, essere viste anche come opportunità. Che nel caso dell'AI le aziende italiane stanno tutto sommato cogliendo, spiega Julien Groues, VP Europe South, AWS: "Il 23% delle aziende ha adottato una qualche forma di AI, il che rappresenta una crescita del 28% anno su anno. Se questo trend si confermerà, nei prossimi anni l'AI genererà un incremento di 329 miliardi di euro per l'economia italiana".
Questo incremento, a quanto indicano le aziende nazionali già adesso, deriva principalmente da una maggiore efficienza dei processi (un beneficio dell'Ai indicato da ben l'88% degli utenti), da una loro semplificazione (75%) e dal potere, grazie all'AI, avviare nuovi rpogetti e concretizzare nuove idee di business (ancora 75%). Tutto bene ma si può fare meglio, ricorda Groues, perché la diffusione dell'AI nelle imprese italiane è ancora inferiore alla media europea del 33%.
Per fare il grande salto all'AI non ci sono ricette schematiche da seguire, secondo AWS, ma principi fondamentali da mettere in pratica sì. Come spiega Groues: "aver adottato il cloud e una efficace data strategy, investire in skill digitali, scegliere il giusto partner tecnologico".
Ovviamente AWS ritiene di poter svolgere questo ruolo, perché "il mondo dell'AI sta cambiando rapidamente - commenta Groues - e per questo serve un partner che metta a disposizione più foundational model, tra cui scegliere di volta in volta quello più giusto per il singolo use case e per il tipo di dati che si porta dietro, e dia la giuste garanzie sia di scalabilità, perché un progetto pilota di AI deve poter scalare rapidamente, sia ovviamente di sicurezza e compliance".
Insomma, non si fa (bene) l'AI, specie generativa e specie in questa fase del mercato, se non si hanno partnership con le spalle tecnologiche abbastanza larghe. Perché alla fine per l'Intelligenza Artificiale, come per qualsiasi forma di innovazione, il freno principale sta nella complessità percepita dalle aziende che vogliono implementarla. "Nel corso del 2023 - conferma Becky Weiss, VP Distinguished Engineer, AWS - molti clienti hanno portato avanti progetti di AI ma hanno anche incontrato difficoltà nel passare dai concept iniziali alla produzione: noi vogliamo rendere più semplice questo passaggio".
AWS ritiene di avere in questa fase un importante punto di forza difficilmente replicabile: è in grado di offrire uno stack completo di tecnologie, servizi, componenti hardware e software per realizzare progetti di AI generativa. Uno stack che concretamente si suddivide in tre livelli: infrastruttura, tool, applicazioni.
L'infrastruttura è lo storico campo da gioco principale di AWS e, nel caso della GenAI, lo si vede chiaramente. Comprende quello che serve tanto per l'addestramento dei modelli di Machine Learning quanto per la parte inferenziale (l'utilizzo dei modelli per generare uno specifico tipo di output). E spazia dalle piattaforme software all'hardware di base, un elemento oggi essenziale e sui cui AWS ha lavorato a lungo, a partire dalle prime versioni dei chip mirati Trainium e Inferentia.
"La GenAI richiede molta potenza di elaborazione - ricorda in questo senso Becky Weiss - e per renderla più economica e sostenibile servono componenti specifici". Che possono, nel caso specifico di Trainium e Inferentia, ridurre anche della metà il consumo di energia della GenAI. La GenAI ribadisce poi, a suo modo, la validità dell'offerta infrastrutturale di AWS: "quando Nvidia ha voluto costruitre un supercomputer è venuta da noi", può affermare Weiss facendo riferimento a Project Ceiba, un supercomputer AI da 414 Exaflop.
Lo "strato" tecnologico di AWS per i tool di AI è essenzialmente il regno di Amazon Bedrock, la piattaforma serverless che - in estrema sintesi - permette di usare uno qualsiasi tra i principali Foudational Model del momento, personalizzandoli - volendo, e sarà sempre più così - con i propri dati attraverso funzioni di Retrieval Augmented Generation.
Poiché "every modern business is a data business", come ricorda Weiss, Bedrock è anche di fatto il centro intorno al quale concretizzare le proprie scelte strategiche e operative riguardanti il data management. Anche in tema di sicurezza e privacy, che diventano temi chiave a maggior ragione quando si parla di AI. Qui giocano il loro ruolo le "guardrail" di Bedrock: le "barriere" e i filtri che impediscono alle applicazioni di AI di toccare certi argomenti e di utilizzare impropriamente o in modo non compliant certi tipi di dati
Nel layer applicativo, infine, AWS ha l'esempio-tipo di quello che si può creare con le sue tecnologie e che le aziende utenti possono sia usare sia pensare di imitare. È Amazon Q, l'assistente virtuale basato su funzioni di AI generativa che AWS ha integrato ad esempio nelle piattaforme di sviluppo come Amazon Q Developer, nelle dashboard di Business Intelligence come Amazon QuickSight e come chatbot in Amazon Connect. Amazon Q è ampiamente personalizzabile grazie alla sua capacità di integrare la base di conoscenza della specifica azienda utente.
I mattoncini dell'AI generativa insomma non mancano, ma lo stimolo che AWS dà dal palco del Summit è che gli strumenti sono solo la base su cui costruire la propria innovazione. È la filosofia dei "builder" che AWS porta avanti da anni e che mai come in questa fase del mercato sembra azzeccata: l'innovazione - anche in AWS - va talmente veloce che gli strumenti di oggi potrebbero non essere i migliori tra sei mesi, o anche meno. Come sempre, e per fortuna, l'innovazione resta sempre prima di tutto una questione di approccio e strategia.