Quello che OpenAI ha fatto vedere nel 2022 ha lanciato l'hype della Generative AI, molto prima che si siano raggiunte conclusioni valide sul suo uso corretto
Alla ricerca dell'ennesimo hype che tiene vivo l'interesse del mercato e soprattutto degli investitori, la Silicon Valley - intesa non più solo come luogo fisico ma come quasi un immaginario collettivo - ha trovato, salvo sorprese, il cavallo su cui puntare per il 2023: la Generative AI. L'intelligenza artificiale "generativa", per capirci, è quella che usa le tecnologie del machine learning non per analizzare dati o individuare trend ma per generare contenuti originali, che cioè non esistono in alcuna forma prima che gli algoritmi li generino.
A seconda del loro compito specifico, questi algoritmi di ML sono stati precedentemente addestrati esaminando milioni di immagini, brani di testo o spezzoni di codice. Così, quando un utente dà in input una descrizione sommaria di quello che vuole, gli algoritmi sono in grado di generarlo in maniera convincente.
OpenAI, che si definisce come una "AI research and deployment company" la cui missione è "garantire che l'intelligenza artificiale generale porti vantaggi a tutta l'umanità" è indubbiamente l'entità associata oggi alle applicazioni più convincenti di AI generativa. Tanto che mentre scriviamo si ipotizza che Microsoft sia pronta ad "alimentarla" con una decina di miliardi di dollari. Dopo aver già investito in OpenAI un miliardo qualche anno fa.
Intendiamoci, l'AI generativa non è un campo nuovo - se ne parla da decenni - e ci sono anche molte altre aziende ed entità che ci stanno lavorando. Insieme a Stability AI (altra azienda che ha un motto diciamo ecumenico: "AI by the people, for the people"), però, OpenAI è il nome più rappresentativo del momento. E su questa tutti si stanno concentrando.
Attualmente OpenAI ha rilasciato pubblicamente tre servizi/API che si sono guadagnati gli onori della cronaca. DALL-E è quello che forse ha fatto più scalpore perché genera immagini digitali a partire da un testo, una operazione - la "pittura", sebbene digitale - che associamo decisamente alla creatività umana. Si è parlato tantissimo anche di ChatGPT, che genera contenuti testuali complessi, sempre a partire da un input. Si è parlato meno di Codex, che è in sostanza una versione di ChatGPT addestrata a scrivere codice software.Tre immagini generate da Dalle-E dando come input "un robot futuristico che legge notizie su un tablet, olio su tela"
Vale la pena sgombrare il campo da qualsiasi equivoco: l'AI generativa è uno strumento potente ma non ha nulla di creativo. Gli algoritmi di machine learning prima imparano le caratteristiche fondamentali e distintive di milioni di immagini e testi, poi associano l'input di partenza a queste caratteristiche e così assemblano - molto bene, per carità - qualcosa che sembra creativo ma non lo è.
La Generative AI però simula la creatività in maniera molto convincente, e in questo sta la sua forza. Tanto che dovrebbe far suonare molti campanelli d'allarme, che però al momento restano in sottofondo perché non pare vero aver trovato finalmente una tecnologia che dà risultati d'effetto, è davvero potenzialmente valida e non crolla sotto il peso delle prime speculazioni. Visto che abbiamo fatto gli ultimi due-tre anni saltando tra blockchain, metaverso, criptovalute e NFT - solo per fare qualche esempio - è un bel passo avanti.
Il problema attuale dell'AI generativa è lo stesso di Spiderman: da grandi poteri derivano grandi reponsabilità. A differenza di Peter Parker, però, qui nessuno se le sta assumendo se non in maniera vaga e generica. Anche perché al momento è facile nascondersi dietro la foglia di fico che tutto quello che è disponibile è quasi sperimentale e certamente in via di definizione. Ma tra queste avvertenze e il salto a prodotti commerciali il passo appare sin troppo breve. Tanto per fare un esempio significativo, è di questi giorni l'annuncio che sempre più servizi di OpenAI saranno disponibili via Azure.
Microsoft spiega che "Qualsiasi innovazione nell'IA deve essere fatta in modo responsabile. Ciò diventa ancora più importante con nuove tecnologie potenti come i modelli generativi". E che per questo i servizi di OpenAI saranno controllati: "filtri sui contenuti progettati appositamente per catturare contenuti abusivi, odiosi e offensivi, monitorano costantemente gli input forniti al servizio e i contenuti generati". Ma questo risolve solo parte dei problemi.
La storia dell'IT è costellata di usi "alternativi" delle tecnologie. Gli anglosassoni hanno l'espressione perfetta per questo: "gaming the system". Tu immagini il modo corretto con cui si può usare una tecnologia, in breve tempo qualcuno la userà in un modo del tutto diverso e a suo vantaggio. Non c'è scampo da questo. ChatGPT viene proposto per servizi basati sulla simulazione del linguaggio naturale, come i chatbot. C'è voluto pochissimo perché lo usassero gli studenti americani per fare i loro temi senza fatica. Ci vorrà poco perché qualcuno lo usi per fare mail di phishing particolarmente convincenti.
E soprattutto per creare contenuti pericolosi ma che non rientrano nelle categorie che giustamente evidenzia Microsoft. I "contenuti abusivi, odiosi e offensivi" li individuiamo tutti chiaramente. Ma ChatGPT e servizi simili sono anche, spesso, efficacissimi generatori di un tipo di contenuti che è difficile tradurre in anglosassone: le supercazzole. Diciamo, più modernamente, le fake news e pseudo-tali. Testi che fanno credere che chi li usa sappia realmente quello che sta dicendo ma che in realtà potrebbero essere falsi. Per limiti degli algoritmi - accade anche questo - o per scelta voluta di chi li usa.
Non è un caso che una applicazione relativamente sicura di ChatGPT come è Codex sia stata "ostracizzata" da Stack Overflow, il sito probabilmente più importante per gli sviluppatori. L'AI generativa crea codice a volte valido e a volte errato, o poco efficiente. Il rischio di prenderlo per buono a priori è troppo alto, almeno al momento. E dare agli sviluppatori umani il compito di validarlo è troppo gravoso, se non è codice su cui hanno lavorato direttamente.
Sono tutti mali di crescita. Nel tempo gli algoritmi miglioreranno e saranno più efficaci. Parallelamente, si spera, i controlli di chi li eroga saranno altrettanto efficaci. Anche perché all'AI ci credono tutti, ma anche alla necessità di normative apposite. Restano però di fondo anche le questioni etiche, e queste sono più spinose.
L'AI generativa, da questo punto di vista si porta dietro non solo le questioni etiche dell'AI in generale (possibili bias, opacità degli algoritmi, responsabilità delle conseguenze e via dicendo) ma alcune sue proprie. Soprattutto il fatto che i suoi algoritmi sono addestrati su un campione enorme di vere e proprie "opere dell'ingegno", senza che i loro autori possano dire nulla. E la scusa del "fair use" regge poco.
Perché io dovrei pagare il tale illustratore (o musicista, o scrittore, o chissà che) se posso chiedere a una AI generativa di creare un contenuto specifico usando lo stile proprio di quell'artista. Saranno anche "research company", ma le varie OpenAI, Stability AI e compagnia non sono state corrette in questo senso. Ed era logico che le prime cause per violazione di copyright arrivassero, come in effetti è accaduto.
Quanto sono, ipoteticamente, al sicuro da cause simili le aziende utenti dei servizi di AI generativa, in quest'ottica? Quanto sarà eticamente corretto - per chi ci bada, ovviamente - usare le funzioni di AI generativa che a breve troveremo dentro le applicazioni di produttività e creatività? Domande per ora tutte da approfondire.
Come sarebbe da approfondire una domanda, ammetto, un po' polemica. Come mai, dopo anni passati a ribadire con forza che l'AI serviva a eliminare i compiti più ripetitivi e noiosi, lasciando agli "umani" finalmente spazio per la creatività, è proprio sui compiti più creativi che il mercato si vuole concentrare? Sarà un po' cicero pro domo sua - mi aspetto una AI "giornalistica" molto a breve - però insomma...
Nota: anche l'immagine principale dell'artcolo è generata da DALL-E, ovviamente