Le novtà che AWS ha introdotto nella parte di
gestione dei dati si possono considerare come autonome, ma per l'hyperscaler statunitense esiste
una connessione sempre più implicita tra dati e funzioni di analisi tramite componenti di intelligenza artificiale. Nonostante il gran parlare che si fa di AI e in particolare di machine learning, però, siamo ancora in uno
stato iniziale di sviluppo del comparto, in cui tutto è ancora molto fluido.
"
Il 60% delle aziende che fanno machine learning - fa notare il CEO di AWS,
Andy Jassy -
usa più di due framework, e questi sono uno degli elementi più stabili dello stack ML". Secondo AWS premia quindi non aver puntato tutto sul framework una volta di riferimento, ossia TensorFlow.
Aver considerato sin da subito altri approcci consente ora ad AWS di offrire prestazioni di buon livello grazie all'ottimizzazione appunto su diversi framework.
Come per altri grandi nomi collegati al machine learning, anche per AWS il punto chiave da affrontare è una progressiva
democratizzazione dell'AI. Democratizzazione che nella pratica si attua rendendo disponibili componenti e servizi differenti in funzione dell'approccio che gli utenti intendono seguire. Chi ha le competenze per farlo può partire dagli
elementi infrastrutturali che AWS mette a disposizione, dai framework di ML ai
processori specifici passando per i motori inferenziali.
Ma buona parte delle iimprese interessate all'AI
non intende andare così in profondità nello stack del machine learning. Per loro il layer di partenza è ad un livello più elevato: quello di SageMaker prima e soprattutto
SageMaker Studio ora. Che, spiega Jassy, "
hanno avuto il compito di semplificare l'accesso al machine learning, il che di fatto ha ridotto il costo di accesso al mondo dell'intelligenza artificiale".
Sempre più SageMaker
L'approccio di SageMaker Studio è collaudato e, secondo AWS, apprezzato concretamente.
Va semmai ampliato per superare progressivamente i vari punti critici che si trovano ancora sulla strada dell'AI. "
Serve semplificare ancora - spiega Jassy -
e il tema più sentito è la data preparation per il machine learning, che resta un processo complicato". Ma c'è anche il tema del
riuso nel feature engineering, ossia la possibilità di usare gli attributi di un modello in altri modelli. E soprattutto, ricorda il CEO di AWS: "
servono funzioni di orchestrazione e automazione per facilitare lo sviluppo del machine learning, anche se non esistono tool di CI/CD per questo settore".
Da queste constatazioni nascono tre componenti lanciati al Re:Invent 2020.
SageMaker Data Wrangler aggrega, "pulisce" e rende coerenti i dati di un dataset, verificando anche che questo sia valido ed equilibrato. Il che porta genericamente ad algoritmi migliori.
SageMaker Feature Store è invece una sorta di repository degli attributi dei modelli di ML gestiti con SageMaker Studio.
SageMaker Pipelines, infine, è uno strumento di (quasi) Continuous Delivery per l'AI. In sintesi, serve a creare workflow di machine learning in Python.
AWS sottolinea l'importanza dell'approccio che sta usando
un po' ovunque. Prima sviluppare qualcosa - in questo caso SageMaker - di più innovativo ed evoluto rispetto alla media del mercato. Poi
continuare a migliorarlo costantemente con rilasci frequenti di novità. E in questo modo che si riesce a "
cambiare le regole del gioco per tutti quelli che si occupano di machine learning", spiega Jassy.
Il terzo livello del machine learning
Con tutte le agevolazioni che può portare SageMaker, il machine learning resta un ambito in cui ci si può mettere mano direttamente
solo se si sa bene quello che si fa. E qui non vale il vecchio mantra per cui tutte le aziende stanno diventando software house: l'AI "pura" non è per tutti. "Il che è logico - spiega Jassy -
perché per le aziende il machine learning è uno strumento che serve a fare altro, non una cosa di cui ci si deve occupare direttamente".
Per chi non vuole impegnarsi a capire come mettere insieme tutti i pezzettini del machine learning servono servizi di AI già "impacchettati". Servizi di livello elevato perché le aziende
devono potersi fidare dei modelli di ML creati a partire dai loro dati. Una esigenza oggi sentita in alcuni settori più che in altri ma che è comunque generalizzata. Senza questa sicurezza nelle previsioni generate dall'AI è impossibile che quest'ultima si diffonda davvero nelle imprese.
La strada scelta da AWS è quella dei servizi "preconfezionati" e semplici da usare. Spaziando dall'ottimizzazione del ciclo sviluppo-delivery (con
DevOps Guru) al monitoraggio dei macchinari (con
Monitron, una soluzione completa dai sensori in su), dalla manutenzione predittiva (con
Lookout for Equipment) alle appliance per rendere smart le telecamere industriali (con la
AWS Panorama Appliance).
Nuovi assaggi di BI
Lato applicativo, l'ambito più direttamente collegabile al machine learning è quello dell'analisi dei dati e quindi della
Business Intelligence. Un altro ambito che AWS pensa di reinventare per mettere in grado le aziende di "
fare machine learning senza conoscere il machine learning", come spiega Jassy. La novità più di spicco in questo senso è
Amazon QuickSight Q, che permette di fare qualsiasi domanda in linguaggio naturale e avere risposte in pochi secondi: il servizio, a partire dai dati aziendali, genera automaticamente i data model che riflettono i significati della query e le relazioni fra i dati che questa coinvolge.
È Business Intelligence o qualcosa di diverso? "
I clienti non ci hanno scelto per fare BI ma per poter fare in modo semplice le domande che servono al loro business ed avere risposte precise", spiega Jassy. Ma è un segnale che chi fa BI e data visualization deve comunque cogliere.