Il tema della
"democratizzazione" dell'IT è sempre stato sottotraccia rispetto a molte evoluzioni del cloud. L'idea fondante stessa del cloud è che i servizi IT evoluti vadano messi alla portata anche delle aziende che non hanno infrastrutture e competenze interne di alto livello, proprio sotto forma di servizi cloud.
AWS sposa questa visione quando parla di "builder", le persone che nelle (o per le) imprese
realizzano nuovi servizi, processi e applicazioni. E che non sono più, come una volta, solo gli sviluppatori più tecnici proprio grazie alla disponibilità di servizi cloud mirati.
Questa
evoluzione tecnologico-democratica ha portato
vantaggi concreti alle aziende: sviluppo più semplice delle applicazioni, logica del Continuous Development, time to market ridotto per nuovi servizi, in generale una maggiore soddisfazione dei clienti finali. Per questo "
Il software - ha spiegato
Marco Argenti, Vice President Technology di AWS, durante l'AWS Summit milanese -
diventa alla fine la base della competitività. È questo ciò che chiamiamo digital transformation: rifocalizzare l'azienda sui clienti e non sui processi". Ed è per questo che AWS si considera una piattaforma in grado di
portare competitività alle imprese, più che una tecnologica in senso stretto.
Ora al centro del processo di democratizzazione tecnologica c'è il
machine learning. Che anche per gli sviluppatori ha una importanza fondamentale perché "
il lavoro sul codice viene disaccoppiato per la prima volta dalla capacità di evolvere dell'applicazione", spiega Argenti. Grazie al machine learning, cioè, un'applicazione
può evolvere e dare risultati migliori senza che sia necessario riscrivere il suo codice.
Far uscire il machine learning dal mondo dei soli esperti non è, prevedibilmente, banale perché esso va
veicolato a diverse figure professionali, per scenari applicativi differenti e tenendo conto anche dei componenti tecnologici su cui si basa. Per il primo aspetto - gli utilizzatori dei servizi di machine learning - AWS pensa in particolare ai data scientist, agli sviluppatori e anche a chi vuole sfruttare funzioni di intelligenza artificiale senza programmare nulla.
I
data scientist per AWS saranno figure
sempre più importanti: "
la competitivtà delle aziende si misurerà sull'efficacia dei loro algoritmi, sviluppati proprio dai data scientist", spiega Argenti. A loro vanno dati ampia scelta e il
controllo completo sullo stack del machine learning, dai framework (Caffe2, Pytorch, TensorFlow...) alle interfacce (Keras, Gluon) sino alla parte infrastrutturale. Per questo AWS ha tra l'altro sviluppato istanze - le P3 -
disegnate apposta per le applicazioni di AI. "
Quelli che una volta erano supercomputer oggi sono disponibili in pochi clic su AWS, con pagamento in funzione dell'utilizzo. È un cambio epocale nel HPC", spiega il manager di AWS.
Gli
sviluppatori hanno un punto di vista diverso dai data scientist. Di norma
non creano l'algoritmo ma l'applicazione che lo sfrutta, quindi pensano allo sviluppo di quest'ultima, al suo training sui dati reali e al deploy in produzione. AWS
SageMaker tiene conto di queste tre fasi: mette a disposizione gli algoritmi di machine learning più comuni senza che un data scientist debba crearli, esegue un training automatizzato e poi attiva l'applicazione con una istanza P3 richiamabile via URL.
Nella logica del
machine learning "per tutti", infine, AWS ha fatto da data scientist e da sviluppatore. Ha cioè creato varie
applicazioni mirate, che le aziende utenti possono adottare da subito in funzione di quello che serve loro. Per fare qualche esempio: la definizione di chatbot con Lex, la conversione testo-parlato con Polly, il riconoscimento di oggetti in video o immagini con Rekognition.
Molti degli sforzi recenti di AWS sono stati concentrati su tutto ciò che r
uota intorno al machine learning, anche per adattarsi a come le sue applicazioni si stanno evolvendo. Molto è legato ad esempio all'IoT e in generale all'edge computing, con lo
spostamento delle funzioni di analisi e decisione là dove i dati sono generati, mentre la creazione e l'addestramento dei modelli possono restare centralizzati nel cloud. Questa visione del machine learning "at the edge"
si è concretizzata in
Greengrass.
Il buon funzionamento delle applicazioni di machine learning deriva anche dalla capacità di
gestire bene i dati e di elaborarli, quindi dalla parte di database e di computing. Lato database AWS punta evidentemente sul suo
Aurora, secondo Argenti "
il servizio che sta crescendo di più in assoluto" anche perché costa "
un decimo di un RDBMS commerciale". Le novità di Aurora riguardano una versione Multi-master per la
replica dei dati con più master database in availability zone diverse e una Serverless che
non prevede il provisioning esplicito di istanze ma scala automaticamente a seconda dei carichi di lavoro, con costo fatturato per secondo di utilizzo.
Serverless in prima linea anche
per la parte computing, con
Lambda che permette agli sviluppatori di pensare solo al massimo livello di astrazione (il codice) senza preoccuparsi delle infrastrutture che lo eseguono. Il serveless computing però è un approccio ancora da digerire per molti e c'è comunqe sempre
un equilibrio da cercare tra il controllo permesso dai container "tradizionali" e il massimo livello di astrazione delle funzioni Lambda. Per questo AWS spinge anche le tecnologie che ha sviluppato per semplificare al massimo
gestione e orchestrazione dei container: prima ECS (Elastic Container Service), poi EKS (ECS con Kubernetes come framework) e infine Fargate, un container service (ECS o EKS) senza gestione dell'infrastruttura.