Le tecnologie e le soluzioni di
intelligenza artificiale sono un tema caldo da diverso tempo e, in questo interesse generale, gli analisti concordano su due elementi apparentemente contrastanti: tutte le aziende a breve
useranno sistemi di intelligenza artificiale - ammesso che non lo facciano già - ma le
competenze sul tema mancano, sia a livello operativo (chi deve gestire e usare gli ambienti di AI) sia manageriale (chi deve decidere di usare l'AI, e come).
Questo contrasto ha le sue ragioni. I sistemi di intelligenza artificiale
promettono molti vantaggi, di cui si parla da decenni, e questo favorisce l'
interesse delle imprese. Allo stesso tempo, le soluzioni di intelligenza artificiale effettivamente sul mercato
non sono proprio di immediata comprensione e spesso sono mirate ad ambiti specifici. Serve quindi una certa dose di competenze per capire quali "mattoncini" di AI combinare in base alle proprie esigenze. E poi per combinarli effettivamente.
Tra l'altro, il termine di intelligenza artificiale
è generico e vuole dire molte cose. Le aziende si trovano invece davanti soluzioni che vengono definite di machine learning, cognitive computing, machine vision, NLP e molto altro. Il primo passo è capire come queste espressioni dell'AI si rapportano fra loro.
Intelligenza artificiale: una definizione possibile
Le ricerche sulla intelligenza artificiale
nascono oltre mezzo secolo fa e hanno toccato temi che spaziano dall'informatica all'etica, dalla filosofia alla neurofisiologia. Limitandoci alle applicazioni di AI per le imprese e i consumatori, possiamo considerare l'AI come un complesso di approcci, teorie, modelli matematici e tecnologie grazie a cui un sistema informatico riesce a
svolgere alcune operazioni simulando i processi dell'intelligenza umana. Ciò in particolare per tre ambiti: l'apprendimento, il ragionamento e la correzione spontanea dei propri errori.
Questa definizione dell'AI è
molto generica, perché la prima concezione "metodologica" della intelligenza artificiale è inevitabilmente astratta. I termini che poi vengono usati di norma
sono più mirati, legati a
forme di AI applicate a una classe specifica di problemi od operazioni. Quelli che vanno per la maggiore al momento sono machine learning, automazione, cognitive computing, machine vision, NLP. Molte applicazioni macroscopiche dell'AI, come la robotica, sono una combinazione tra alcuni di questi elementi.
È utile tenere sempre presente questa
natura quasi duplice della intelligenza artificiale: da un lato è un concetto molto generale, dall'altro si divide in componenti che hanno applicazioni molto specifiche. Anche per questo l'AI
è sempre un campo in decisa evoluzione, dato che si sviluppano sempre nuovi modi di applicare i suoi principi e i suoi componenti tecnologici vanno costantemente migliorandosi.
I lati principali della intelligenza artificiale
Il
machine learning è nettamente la parte dell'AI di cui si parla di più. È anche logico: qualsiasi intelligenza, artificiale o no, prima di svolgere i suoi compiti deve imparare a farlo. Il machine learning si occupa di questo: è il complesso degli approcci e delle tecnologie grazie a cui
un sistema di AI impara come è "fatta" la realtà di suo interesse e come comportarsi, per scenari che vanno dalla guida di un veicolo nel traffico alla identificazione di regolarità nascoste in grandi quantità di dati. Esistono
vari modelli di apprendimento automatico, ognuno con i suoi vantaggi e i suoi punti deboli.
L'automazione è l'applicazione dell'AI nello svolgere processi ben determinati. Di solito queste applicazioni vengono oggi identificate come
RPA (
Robotic Process Automation), intendendo che un
robot software può affiancare o sostituire un operatore umano nello svolgere compiti schematizzati e ripetitivi. Grazie al machine learning, un robot software può anche imparare cosa fare senza istruzioni esplicite.
La
machine vision è un campo "storico" dell'AI. Indica tutte le soluzioni per cui un sistema digitale sa riconoscere gli oggetti che si trovano nell'ambiente. Il sistema in questione può essere un computer, ma non solo. La machine vision è ad esempio molto diffusa
in campo industriale e a riconoscere componenti e qualità degli assemblaggi può essere anche un sistema robotico autonomo.
Il
Natural Language Processing è la capacità, per un sistema digitale, di
comprendere ed elaborare il iinguaggio umano, parlato o più semplicemente scritto. Questo permette al sistema - ad esempio un chatbot - di gestire
un dialogo "sensato" con una persona e reagire in maniera appropriata alle sue indicazioni. Si parte sempre dal machine learning, in una applicazione
molto più sofisticata di quanto si creda perché il linguaggio umano è spesso ambiguo e pieno di sottintesi. Il NLP viene anche adottato nelle soluzioni che scandagliano i social network per capire il "sentiment" degli utenti in merito a determinati temi.
Il
cognitive computing è un termine generico che indica l'applicazione dei componenti di intelligenza artificiale per scopi mirati. Mentre le ricerche in campo AI tendono a sviluppare sistemi sempre più autonomi e trasversali (la cosiddetta
AI "forte"), il cognitive computing mira a soluzioni sempre "intelligenti" ma adatte solo ad affiancare personale umano in compiti ben definiti (si parla qui di
AI "debole"). Il cognitive computing ad esempio descrive bene le applicazioni di AI nella
assistenza alla forza vendita o al personale di supporto alla clientela.
A che servono i sistemi di intelligenza artificiale
Le tecnologie di AI sono adottate per molti scopi, i quali però oggi rientrano quasi tutti in
due grandi comparti: da un lato svolgere compiti al posto del personale umano, dall'altro analizzare grandissime quantità di informazioni per arrivare a conclusioni precise, fuori dalla portata dell'intelligenza umana per banali questioni di scala.
Il primo ambito è semplice da comprendere e richiama direttamente le funzioni di automazione. Il secondo è più "esoterico" ma in effetti
già concreto ed estremamente promettente in prospettiva. Quante
scoperte - si chiedono i fautori dell'AI - non riusciamo a fare perché umanamente
non abbiamo tempo e mezzi per correlare tutte le informazioni di cui in realtà disponiamo? L'idea di fondo, in questo senso, è che i sistemi di intelligenza artificiale (o per meglio dire di machine learning e cognitive computing) possano "digerire" l'equivalente di milioni di pagine di documenti o report, oppure l'analogo di anni di storico di un determinato processo aziendale, e
ricavarne "significati" che noi umani non riusciremmo mai a estrarne.
Un esempio già attuale sono le piattaforme di
Big Data analytics accoppiate al machine learning: esaminando moli enormi di dati ne ricavano trend e regolarità (o anomalie), in
logica predittiva. Così diventa possibile sapere che un certo macchinario quasi certamente si guasterà entro un paio di giorni, o che la vendita di un certo abito in un dato negozio è legata anche al flusso dei visitatori turistici e alle condizioni meteo in quel luogo. O
molto altro.
Andando oltre, possiamo dare in pasto ai sistemi di intelligenza artificiale anni di pubblicazioni scientifiche in campo chimico, incrociarli con la conoscenza sviluppata nei processi industriali, correlarli con le necessità di un nuovo prodotto e
arrivare alla ideazione di una nuova lega che abbia le caratteristiche necessarie per il prodotto stesso. Oppure applicare il cognitive computing per correlare volumi interi di normative e anni di precedenti giuridici con le caratteristiche del caso che stiamo esaminando, per arrivare prima a una linea d'azione. Entrambe le cose sono state già fatte. L'intelligenza artificiale viene poi applicata anche in campi più
controversi, come il
predictive policing.
Creare nuova conoscenza e automatizzare compiti umani non sono due ambiti scollegati, anzi le applicazioni forse più interessanti delle soluzioni di intelligenza artificiale
sono proprio alla loro congiuntura. Un tema già toccato in questo senso è l'esame delle immagini diagnostiche: un sistema di AI e riconoscimento visivo può confrontare una radiografia con migliaia di immagini simili e
correlarle con le relative diagnosi, in modo da evidenziare il prima possibile eventuali patologie che sfuggirebbero a occhi meno che esperti.
Come si fa intelligenza artificiale, in pratica
Uno dei limiti per cui le soluzioni di intelligenza artificiale sono rimaste quasi solo nei laboratori di ricerca, sino a qualche anno fa, è che svilupparle
richiede una potenza di calcolo rilevante. Oggi il problema è meno sentito, grazie all'evoluzione delle piattaforme di computing e in particolare di
sistemi hardware dedicati che permettono di generare e addestrare molto più rapidamente gli algoritmi di AI che poi effettivamente "fanno" qualcosa.
Questo non significa però che l'AI sia diventata di colpo una disciplina banale alla portata di chiunque. Una azienda che voglia sviluppare generiche soluzioni di intelligenza artificiale deve comunque dotarsi di hardware e software adeguati, ma
soprattutto di competenze che spaziano dalla data science alla statistica, dallo sviluppo all'implementazione del machine learning. Non è da tutti.
Per questo è molto più probabile che una generica azienda utente incontri l'intelligenza artificiale in due altri modi: con
soluzioni più o meno preconfigurate e verticali, oppure attraverso
servizi cloud che mettono a disposizione funzioni di AI componibili e personalizzabili. È il campo delle piattaforme cosiddette
Artificial Intelligence as a Service (AIaaS), che tutti i principali cloud provider
stanno sviluppando e che promettono sviluppi molto interessanti in futuro.
Attraverso piattaforme del genere è ad esempio possibile addestrare con relativa semplicità i sistemi di riconoscimento visuale. L'utente carica un campione significativo di immagini e
riceve come risultato una API da richiamare all'interno delle sue applicazioni. Vari provider stanno seguendo questo approccio, generando
algoritmi di machine learning "semilavorati" che vengono poi ottimizzati in base alle esigenze - e ai dati - dell'azienda utente. È grazie a una base AIaaS, spiegano gli analisti, che le soluzioni di intelligenza artificiale si diffonderanno davvero tra le imprese di ogni dimensione.
Intelligenza artificiale: i problemi
Come sanno bene i lettori dell'Uomo Ragno, "da un grande potere derivano grandi responsabilità". Le soluzioni di intelligenza artificiale avranno certamente un
grande potere, nel senso che agiranno - secondo gli ottimisti - in quasi ogni aspetto delle società del prossimo futuro. Della corrispondente
grande responsabilità se ne parla però poco, o comunque non abbastanza. Se sempre più scelte e controlli saranno lasciati alle AI, come essere sicuri che queste agiranno sempre per il meglio? Ciò sottende diversi problemi da considerare.
Il pregiudizio (bias) - Nell'addestramento di un algoritmo di machine learning tutto dipende dai dati che esso riceve per capire come "funziona" la realtà che deve affrontare. Se questi dati sono limitati o, peggio, influenzati da un pregiudizio anche inconscio di chi li predispone, l'algoritmo non sarà efficace e
potrebbe portare a scelte discriminanti. Consideriamo ad esempio un sistema di intelligenza artificiale sviluppato per stabilire se concedere o meno un mutuo: se per errore è stato addestrato con un database in cui la gran parte dei residenti in una data regione è stata considerata inaffidabile, sarà portato a negare i mutui a chiunque li richieda da quella regione.
La privacy - Più dati si danno in pasto ai sistemi di AI, meglio questi funzionano. I dati devono essere realistici per essere efficaci, quindi la cosa migliore è
ricavarli direttamente dalla realtà. In moltissimi casi ciò significa usare dati concreti ricavati da persone reali, dati che per banali questioni di privacy devono essere anonimizzati. Ma è già accaduto che informazioni considerate anonime non lo fossero davvero per una AI, in grado di eseguire correlazioni molto meglio di noi.
La sicurezza - In linea di principio un sistema di intelligenza artificiale può essere violato come qualsiasi altro sistema IT, quindi hacker ostili potrebbero influenzarlo in modo da fargli prendere decisioni non corrette. Dato che nella gran parte dei casi le AI funzionano "a scatola chiusa" - cioè
non si sa in base a quali criteri prendono certe decisioni - una violazione del genere sarebbe difficile da rilevare, a meno che il comportamento del sistema non mostrasse anomalie evidenti. E in quel caso potrebbe essere anche troppo tardi.
Le aspettative - La ricerca e lo sviluppo nel campo della intelligenza artificiale hanno avuto una accelerazione fortissima negli ultimi anni. È un bene, vuole però anche dire che
molti aspetti legati alle applicazioni dell'AI devono ancora essere ben soppesati, banalmente perché le applicazioni stesse si stanno appena diffondendo. C'è invece una spinta rilevante a presentare ed a considerare l'AI - specie il machine learning - come una soluzione ideale e già pronta per moltissimi problemi. Questo crea aspettative che potrebbero anche essere disattese, sfavorendo nel complesso l'applicazione "sana" dell'AI.