AI e cognitive computing si sovrappongono, per le aziende è importante capire cosa davvero possono fare l'una e l'altro
Tecnologie come il
machine learning e l'
intelligenza artificiale sono considerate componenti indispensabili della digitalizzazione. Il mandato per le aziende è diventare sempre più smart. Usando le nuove tecnologie per automatizzare e rendere più efficaci molti processi.
La base di tutto sono i dati. Analizzando opportunamente quelli che un'azienda produce e raccoglie, se ne deriva una nuova base di conoscenza. Da tradurre in azioni pratiche che permettono di operare meglio e in maniera più reattiva.
Questa è la teoria delle aziende "smart". E per molti versi anche la pratica. Machine learning, automazione software e intelligenza artificiale
nelle imprese ci sono già. E in alcuni
ambiti specifici hanno già dimostrato di valere gli investimenti che servono per implementarle. Ma l'attenzione al machine learning ha fatto passare in secondo piano un approccio diverso: il
cognitive computing. O meglio, si sono sviluppate due concezioni leggermente diverse - l'impresa smart e la
cognitive enterprise - di cui la prima si è sovrapposta alla seconda. Pur essendo in effetti nata dopo ed essendone, in parte, distinta.
Oggi però il dibattito tra i due approcci - che non sono in contrapposizione, semmai complementari - si sta riproponendo. Per cognitive computing e intelligenza artificiale
le tecnologie di base sono quasi le stesse. In primis machine e deep learning, elaborazione del linguaggio naturale, reti neurali. Lo scopo però è diverso. Il cognitive computing mira a realizzare sistemi che
riproducono il pensiero umano. L'intelligenza artificiale non si pone questo modello. Mira a sistemi che sono "intelligenti" perché sono in generale capaci di risolvere problemi. Non è importante che lo facciano usando un "ragionamento" simile a quello che applicheremmo noi al medesimo problema.
La "artificialità" dell'AI è il suo punto di forza e di debolezza. Il
punto di forza è che l'AI può arrivare a conclusioni impossibili per un utente umano. Che non ha la capacità e i meccanismi mentali adatti, ad esempio, ad estrarre significato da terabyte e terabyte di dati apparentemente scollegati fra loro. Il
punto di debolezza è che il più delle volte non sappiamo perché un algoritmo di AI prende una certa decisione.
Questo ha importanza? Dipende dai casi applicativi. E dal nostro punto di vista personale. In molte applicazioni no,
non ha una grande importanza. Se nel tempo un algoritmo di manutenzione predittiva effettua previsioni corrette ed evita blocchi dei macchinari,
non ha molto senso restare diffidenti. Il peggio che può capitare è che si riparino pezzi ancora lontani dal guastarsi. Comunque, prima o poi, ce ne accorgeremo.
Cosa prevede il piano nazionale per l'AI delineato dagli esperti tecnici del MiSE
E se invece una banca
affidasse in toto al machine learning la valutazione sull'affidabilità di un nuovo correntista? O la valutazione dei curriculum dei candidati a un posto di lavoro? O di come procedere in una causa legale? Qui le valutazioni possono essere molto diverse. E il proprio punto di vista personale,
anche etico, ha il suo peso.
La teoria del cognitive computing
prevede un approccio più graduale. Molte software house che propagandano l'automazione software lo hanno seguito fino a un paio di anni fa. Intendendo l'AI come
Augmented Intelligence. Intelligenza aumentata e non artificiale: funzioni che
affiancano il personale umano nelle sue decisioni e lo supportano con dati di fatto e contestuali. Questo è possibile proprio perché il cognitive computing cerca di imitare il nostro ragionamento.
La differenza è sottile, ma c'è. Per il machine learning
la "soluzione" sta nei dati. Sono questi che portano a generare un modello applicabile al processo che su quei dati si basa. Se c'è da affrontare un processo o un problema troppo diverso, quel modello non andrà bene. Nel cognitive computing
la soluzione sta nel ragionamento del sistema. Che può essere abbastanza astratto da affrontare anche problemi e processi differenti. Entro certi limiti. E, come accennato prima, semplificando molto lo scenario.
Per questo le applicazioni di cognitive computing
sono prevalentemente assistenti, non esecutori autonomi. Non sono "peggio" delle applicazioni di machine learning: occupano una posizione diversa. Simulando in parte il ragionamento umano, possono offrire
una interazione più naturale. In molti scenari questo è importante. Chatbot per il supporto clienti, assistenti digitali per la pianificazione delle operazioni, moduli di
sentiment analysis sono tutte applicazioni cognitive efficaci.
In un mondo ideale AI e cognitive computing
hanno pari dignità e collaborano insieme. Solo che oggi tutto viene etichettato come AI. Così diventa meno banale
capire che strumenti effettivamente un dato fornitore tecnologico ci può offrire. E fin dove questi possono arrivare. Al netto delle visioni sin troppo ottimistiche del marketing.