Tutte le imprese devono
sfruttare i dati che hanno a disposizione per migliorare i propri processi. È il messaggio che alle aziende, e ai loro dipartimenti IT,
arriva dal mercato. La realtà dei fatti poi è diversa, perché dalla teoria dell'analisi dei dati come fattore competitivo alla pratica delle implementazioni
il passo non è breve e nemmeno facile. Forrester stima ad esempio che solo il 7% delle aziende abbia in essere processi che sono davvero guidati dall'analisi. E che negli ultimi anni la percentuale delle decisioni di business che le aziende ritengono motivate da una effettiva analisi quantitativa delle informazioni sia
sempre rimasta intorno al 48-49%.
Poco insomma sembra cambiato, nonostante si parli da anni di analytics più o meno evoluta. E adesso di
advanced analytics, un trend che secondo diversi analisti caratterizzerà il mercato dei prossimi anni. Trend che, secondo i suoi fautori, è sostenuto da una
constatazione pragmatica. Va bene potenziare la parte di analisi dei dati con funzioni sempre più evolute e basate sull'intelligenza artificiale. Ma in un processo decisionale che parte dai dati
c'è molto sia "prima" che "dopo" l'analisi in sé. E soprattutto c'è molto "intorno" all'analisi. Nel senso che molto è cambiato per il modo stesso in cui le aziende gestiscono e considerano i propri dati.
Rischia di passare in secondo piano il fatto che l'analisi stessa è una componente di
una sequenza di elementi di data management che vanno dalla organizzazione, anche fisica, delle informazioni alla visualizzazione significativa dei dati elaborati. Oggi si parla di augmented analytics intendendo appunto
l'estensione delle componenti di AI ed automazione a
tutta la catena "produttiva" dell'analisi evoluta dei dati.
Questa visione più trasversale dell'analisi dei dati è anche alla base di diversi sviluppi tecnologici che vedono una sorta di
convergenza ideale tra due estremi: chi si occupava di storage in sé e chi invece puramente di analytics. Potenziare l'analisi dei dati, oggi, significa
intervenire su tutto quello che c'è a monte, rendendo più evoluta anche la
gestione del dato stesso.
Questa visione trasversale si sta allargando anche a come le imprese vedono l'analisi dei dati. La Business Intelligence tradizionale, anni fa, ha fatto da ponte tra un'analisi puramente descrittiva a una con i
primi elementi predittivi. Il salto agli analytics ha proseguito su questa strada incrementando la componente predittiva e, grazie al machine learning, anche quella
prescrittiva. Ora con l'augmented analytics potrebbe affermarsi un modello in linea con ciò che Gartner definisce
data fabric. Una
analisi continua su dati e metadati, tutta basata su machine learning, per arrivare a identificare automaticamente gruppi di dati significativi. Indipendentemente da quale piattaforma o architettura IT li gestisca.
La prospettiva è che
data analytics e data management alla fine convergano. Perché all'atto pratico i dati si gestiscono per portarli alle piattaforme di analytics. E queste piattaforme, se guardiamo al fenomeno dall'altro lato, non possono non estendersi con funzioni proprie di ottimizzazione della gestione dei dati. La disseminazione, in tutti i possibili ambiti, di elementi di intelligenza artificiale è il
fil rouge di questa evoluzione.
Ma davvero c'è bisogno di ancora più intelligenza artificiale nella data analytics? Non bastano le attuali funzioni di machine learning?
In prospettiva no, spiegano i tecnici. Almeno se vogliamo passare dall'indagare nelle direzioni che bene o male già conosciamo all'avere a disposizione risposte per domande che non abbiamo fatto.
La Business Intelligence e la prima ondata dell'analytics ci hanno aiutato - con report, dashboard, KPI, drill-down e molto altro - a
esplorare in dettaglio quello che sapevamo di dover conoscere. L'augmented analytics va in cerca di quello che non sappiamo di dover sapere. Ciò che gli anglosassoni sintetizzano con l'espressione, ad effetto ma azzeccata, di "
unknown unknowns".
Sapere di non sapere
Intendiamoci, la diffusione del machine learning nelle piattaforme di analytics è stata un grosso aiuto. Ha portato le imprese a identificare modelli e trend nascosti nei dati che già possedevano. Ma - e qui sta una differenza importante con il concetto degli augmented analytics - questi erano dati che
già si sapeva dovevano essere esaminati e correlati. Oltre una certa soglia, però, le capacità di correlazione consolidate non bastano. Anche perché si stanno facendo
sempre più complessi i dati e le correlazioni che le aziende devono esplorare.
Ed è qui un altro limite che l'augmented analytics vuole superare: spesso non basta che un sistema di analytics identifichi un trend o una anomalia. Bisogna anche che l'utente aziendale
ne capisca appieno l'importanza e il significato, cosa affatto scontata. Un utente esperto o un data scientist possono guardare una dashboard interattiva e capire cosa significano certi indicatori, sapere in che direzione approfondire l'analisi. Ma gli altri?
Un utente generico ha bisogno di spiegazioni più comprensibili - oggi si parla sempre più di "
data stories" - e di contestualizzazione. E della possibilità di esplorare dati e correlazioni con qualcosa di più immediato di una dashboard, come ad esempio le query in linguaggio naturale.
Tutti domini propri dell’AI. Si va in sostanza verso una interazione più naturare tra la piattaforma di analisi dei dati e chi la usa, grazie proprio alle possibilità dell'intelligenza artificiale.
Anche i fautori dell'augmented analytics mettono però in evidenza che
automazione e intelligenza artificiale non significano meno skill del personale umano. Non servirà magari essere data scientist e i singoli strumenti saranno più semplici da usare. Ma le aziende devono ora formare il personale ad avere un pensiero critico, ad avere cioè gli elementi e le capacità per valutare e contestualizzare le indicazioni date dalle piattaforme di analytics. Per quanta intelligenza queste possano avere.