La progressiva ricerca di una maggiore autonomia decisionale, basata su autoapprendimento, dioende dalla capacità di portare l'intelligenza artificiale otlre i limiti sinora raggiunti. Si inserisce in questo contesto
Project Brainwave, la piattaforma Microsoft nata per modelli di apprendimento approfondito basati in cloud, in grado di dare maggiore flessibilità e performance a questo genere di algoritmi.
L’obiettivo di Microsoft è arrivare alla “intelligenza artificiale in tempo reale”, con sistemi di reti neurali capaci di fornire risposte in tempi infinitesimali dopo aver ricevuto l’input. Project Brainwave,
secondo quanto spiegato dalla società statunitense, è basato su tre livelli: alle fondamenta si trova un’architettura distribuita ad alte prestazioni (i numerosi data center proprietari), su cui si innestano sempre a livello hardware i
chip Stratix 10 di Intel.
Si tratta di soluzioni Fpga (field programmable gate array), una tecnologia su cui il colosso californiano sta investendo molto anche e soprattutto
in seguito all’acquisizione di Altera, che di questi circuiti integrati riprogrammabili via software è specialista. Costruito a 14 nanometri, il componente può sprigionare una potenza di 39,5 teraflop con una
latenza inferiore al millisecondo.
Microsoft,
ha sottolineato Intel, è stato il primo service provider di cloud pubblico a utilizzare Fpga nella propria infrastruttura. Tornando all’ambito software, Project Brainwave si completa con un compilatore e una
libreria di runtime per l’implementazione logica dei modelli allenati. Sfruttando le proprie regioni cloud distribuite in quasi tutto il mondo, “condite” con gli Fpga, il colosso di Redmond può offrire reti neurali come microservizi hardware senza ricorrere a software aggiuntivo.
Un’architettura così progettate riduce la latenza, perché i processori non devono elaborare le richieste in arrivo, scaricando il compito sui
chip programmabili. L’unico limite è la velocità di trasmissione delle informazioni sulla rete, che ovviamente può variare a seconda delle condizioni del momento.
ll progetto di Microsoft si discosta da quanto realizzato finora da altri provider, specialmente
Google, proprio per la scelta di circuiti integrati non dedicati, ma flessibili come gli Fpga. Big G è infatti arrivata prima in questo mercato, proponendo però agli sviluppatori
un chip proprietario ottimizzato per un set specifico di algoritmi e non modificabile via software in un secondo momento (Tpu, Tensor Processing Unit).
Seppur caratterizzati da prestazioni mediamente maggiori, questi componenti mancano della flessibilità necessaria per adattarsi alla costante evoluzione degli
algoritmi di deep learning. Questa “libertà di movimento” ha dato a Microsoft la possibilità di integrare nella nuova piattaforma un nutrito numero di framework per l’intelligenza artificiale.
Si parte con il Cognitive Toolkit proprietario e proprio con Tensorflow di Google, ma l’azienda ha già in mente di supportarne “molti altri” in seguito, come Caffe2 di Facebook. Al momento, Project Brainwave verrà utilizzato
solo internamente, ma è molto probabile che la società di Redmond decida in futuro di aprire la piattaforma anche ai propri clienti, erogandone i servizi ovviamente in cloud.