S2E sviluppa tecnologie che permettono alle applicazioni di GenAI di essere davvero affidabili e in grado di gestire in maniera sicura i loro dati. In una prospettiva che unisce la crescita con una visione antropocentrica.
Per capire come stia procedendo la diffusione dell’AI generativa nelle imprese italiane, la strada migliore è parlare con chi le aiuta a risolvere quelli che tutte indicano come problemi principali: la cybersecurity e la compliance delle applicazioni basate su funzioni, sviluppate in casa o meno, di GenAI. È il caso di S2E, società tutta italiana di consulenza in ambito business technology che con la sua piattaforma Generative Shield, disponibile in SaaS od on-premise, guida l’introduzione della GenAI in azienda per, tra le altre cose, renderla davvero affidabile e sicura.
Questi temi possono sembrare ancora piuttosto esoterici, ma sono entrati rapidamente nell’agenda delle aziende più attente con l’avvento dell’AI Act europeo, con il suo obiettivo di controllare i livelli di rischio potenziale delle applicazioni AI-based: “Dopo che l’AI Act ha preso forma – spiega Andrea Cappelletti, Business Unit Director Digital Transformation & Hyperautomation di S2E – le aziende che hanno la maturità per farlo e che sono già strutturate sui temi di compliance hanno effettivamente cominciato a porsi il problema a livello pratico e non solo teorico. Oggi, tutte le realtà con cui stiamo interagendo hanno come prima priorità capire come gestire l’AI Act, come valutare il suo impatto”. Il che significa ripensare, o magari affrontare davvero per la prima volta, la propria strategia legata alla GenAI.
Per apprezzare meglio il punto di vista di S2E bisogna capire come è stato pensato il suo Generative Shield in quanto soluzione di sicurezza e compliance. In estrema sintesi, funziona come un firewall che “circonda” una applicazione o un servizio basato su AI generativa e ne esamina sia il comportamento, sia il “traffico” in ingresso (dati e prompt degli utenti) e in uscita (le risposte del modello di AI adottato). Lo scopo ultimo è la mitigazione del rischio associato all’AI – proprio secondo la filosofia dell’AI Act – seguendo vari approcci che spaziano dal controllo “monolitico” di cosa può passare e cosa no nel dialogo tra utenti e AI, a valutazioni più sfumate su cosa chiede l'utente alla GenAI, in base al suo compito ideale da svolgere, e cosa questa risponde.
Il tema sotteso a tutto questo è la consapevolezza che la GenAI si porta comunque dietro una componente di rischio che va gestita, consapevolezza che non tutte le aziende hanno raggiunto totalmente, anche se devono garantire che le proprie applicazioni seguano sempre un profilo di rischio ben determinato.
Andrea Cappelletti, Business Unit Director Digital Transformation & Hyperautomation di S2E
“Le aziende sono consapevoli di tutto questo – spiega Cappelletti – ma solo in parte. Lato security e compliance hanno imparato molto dall'esperienza del GDPR, ora però le condizioni sono diverse: dato che l'AI è ancora difficilmente controllabile, e lo sarà probabilmente per molto tempo, il rischio di errore, che un modello esca dai suoi confini teoricamente previsti, esiste sempre. Per questo avere uno strumento di mitigazione del rischio oggi serve per poter continuare a innovare con l’AI. E banalmente per passare dai progetti pilota in produzione”.
Cappelletti richiama anche l’attenzione sul fatto che l’AI Act non “assorbe” automaticamente le molte altre normative sulla gestione dei dati a cui le aziende devono sempre essere compliant. Come in primo luogo il GDPR, perché a un servizio che rispetta l’AI Act si potrebbero comunque passare impropriamente informazioni sensibili. “Nel dialogo tra un utente e un agente conversazionale – spiega ad esempio Cappelletti – quello che il primo scrive e quello che il secondo risponde non è predefinito. Se l’utente passa dati personali ad una AI che in teoria non dovrebbe trattarli, bisogna bloccarli. Quando si può, per mantenere funzionante l’interazione, sostituendoli con dati fittizi di medesimo valore. Quando non si può, bloccando opportunatamente il dialogo. Generative Shield fa proprio questo”.
Un altro tema importante, specie in prospettiva, a cui S2E ha lavorato molto nella concezione di Generative Shield è la possibilità che un LLM di GenAI sia esplicitamente attaccato, quindi forzato a fare ciò che non dovrebbe. La casistica in questo senso è già abbastanza significativa da elevare il livello di attenzione delle imprese. “Sono già stati identificati vari pattern comuni nel tentativo di violare i modelli LLM, dall'iniezione di contenuti che non si vedono al forzare un modello tramite il ragionamento, per farlo andare fuori dalla sua programmazione. Generative Shield può intercettarli e reagire di conseguenza”, spiega Cappelletti.
Tutti gli LLM di base sono stati addestrati praticamente con lo stesso training set, che ormai comprende tutto – o quasi – lo scibile umano disponibile. Questo vuol dire anche che sono più o meno vulnerabili ai medesimi tipi di comportamento dei loro utenti. Sappiamo che forzare un LLM adottando un comportamento minaccioso può dare risultati, come anche attivate veri e propri “giochi di ruolo” in cui al modello viene assegnato un ruolo che implicitamente lo porta ad andare oltre i propri limiti. Per mitigare il rischio di questi attacchi è necessario monitorare attivamente l’interazione tra LLM e utenti.
Serve cioè “Accorgersi – spiega Cappelletti – che un utente sta cercando di usare tecniche manipolatorie, come fare un gioco di ruolo o la scrittura di una storia condivisa, e bloccare l’interazione, anche indipendentemente dal suo contenuto perché qui contano soprattutto i concetti. C'è un certo pattern nelle interazioni? C'è un certo tipo di comportamento?”.
Anche questo è il compito di Generative Shield, le cui funzioni di controllo sono ovviamente personalizzabili perché quello che è vietato per una applicazione può essere pienamente lecito per un’altra. Nel configurare e nell’istruire Generative Shield l’azienda deve attivare o meno determinati filtri per il comportamento dei modelli e per la gestione dei dati, filtri che possono – e dovrebbero – essere anche granulari in funzione del ruolo del singolo utilizzatore. Perché – poniamo – un agente commerciale deve essere limitato a certi dati, ad esempio quelli della sua area di competenza, e a certe funzioni degli LLM, come la sintesi dei casi e non la generazione di raccomandazioni di investimento.
Generative Shield ha debuttato ufficialmente verso la metà dello scorso anno. Forse troppo presto per il mercato italiano, ma arrivare con una soluzione già pensata per quelli che sono oggi i temi chiave della GenAI ha permesso a S2E di maturare ulteriormente. “Abbiamo raccolto informazioni, feedback, esperienze. Adesso siamo pronti con un prodotto completo, il primo nel suo ambito, e con una visione che ha alle spalle un anno e mezzo in più di maturazione. Il nostro lavoro nei prossimi mesi è quello di crescere, per prima cosa attraverso partnership strategiche che ci permettano di muoversi velocemente”, spiega Cappelletti.
Il riferimento è a grandi partner tecnologici, locali e globali, che sono già attivi nei comparti dell’AI, della sicurezza cyber e della compliance e che possono traghettare Generative Shield verso il mercato. Tra l’altro, S2E è SA Consulting Partner Nvidia, un riconoscimento importante – i partner di questa classe in Italia sono solo due, in Europa otto – e che dimostra la bontà delle idee della software house italiana.
Una linea di sviluppo specifica per S2E oggi è quella degli agenti conversazionali. “Qui ormai stiamo oltre la parte di sicurezza – spiega Cappelletti – perché abbiamo realizzato un framework che ci consente di costruire agenti specifici totalmente in-house, a parte ovviamente i foundation model. Il vantaggio per l’utente è che in questo modo riusciamo ad agire a tutti i livelli di un agente conversazionale e a personalizzarlo profondamente, perché ne abbiamo il controllo completo”.
Questo approccio è già stato messo in pratica in diversi casi d’uso verticali, con la prospettiva di arrivare gradualmente a “pacchettizzarli” in offerte ragionevolmente chiavi in mano, per implementare gli agenti senza bisogno di mettere in piedi progetti complessi.
L’AI non è solo tecnologia: è anche, sebbene se ne parli relativamente poco, etica. E il mercato su questi temi è molto più sensibile di quanto non pensino molti vendor tecnologici. “Molte aziende italiane, soprattutto di medie dimensioni – spiega Cappelletti – credono in una visione etica e antropocentrica dell’AI, in particolare che un’impresa possa aumentare la sua produttività e i suoi margini, migliorandosi grazie all'AI, senza andare a discapito delle persone. Anzi, che muovendosi in questo senso si abbiano risultati migliori che non facendolo”.
In concreto, ad esempio, invece di incrementare al massimo l’automazione via AI per ridurre al minimo il peso dell’operatore umano, di fatto sminuendolo, un approccio etico vede l’operatore intervenire attivamente nelle eccezioni che l'automazione non riesce a gestire. “La residualità, quello che rimane dopo la prima automazione è il problema vero dell'azienda. E chi gestisce solo questi temi tutti i giorni cresce professionalmente, non è solo il mero controllo umano che viene magari imposto dalla compliance”, sottolinea Cappelletti.
“Abbiamo incontrato diverse aziende – continua – che condividono profondamente questi ideali e abbiamo deciso di realizzare con loro una rete d'impresa chiamata RETHIC.AI. Non una rete commerciale, ma collaborativa composta da imprese italiane, nata con l’obiettivo di promuovere un'adozione etica, sicura e responsabile dell’Intelligenza Artificiale. Questa iniziativa, unica nel suo genere in Italia, nasce in risposta alle sfide etiche e normative poste dall’adozione dell’AI in ambito aziendale e mira a proteggere e valorizzare il capitale umano, garantendo trasparenza, conformità e sostenibilità nell'uso delle tecnologie AI”.
E poco importa se i messaggi che vengono dal mercato, specie da Oltreoceano, sono ben diversi. “Non per nulla – conclude Cappelletti – l’AI Act lo abbiamo creato in Europa e non in America: abbiamo le basi culturali che ci permettono di avere il coraggio di fare una norma simile. Perché è davvero una scelta coraggiosa: si accetta il rischio di essere meno competitivi in nome di una visione etica. Ma è la scelta giusta, a tutela di tutta la società”.