All'HPE Discover 2023 di Barcellona l'offerta full stack Gen AI per l'enterprise.
Autore: Valerio Mariani
HPE Discover 2023 a Barcellona è il luogo in cui si dà un senso di business alla Generative AI. “L’AI generativa è il punto di flesso dell’economia mondiale” sottolinea Antonio Neri, CEO di Hewlett Packard Enterprise durante il keynote di apertura dell’annuale appuntamento europeo dell’azienda americana. L’evento che determina un cambiamento significativo nell’evoluzione di un’economia – come da definizione estesa di “inflection point” - non sarebbe tale se, al netto degli annunci roboanti a tema di tutte le big tech anche in contemporanea, non portasse in dote un chiaro modello di business, supportato da un’offerta tangibile e, soprattutto, dai tanto casi d’uso richiesti e portati dallo stesso Neri.
Solo con la dimostrazione sul campo, attraverso progetti già finalizzati e i numerosi POC attivi dichiarati da HPE, si può immaginare lunga vita allo sviluppo dell’AI in un contesto business. “Uno sviluppo accessibile a tutti – prosegue Neri – indipendentemente dal mercato di riferimento e dalla dimensione dell’azienda cliente”. Perché il modello d’offerta di HPE è pensato proprio per rendere accessibile l’AI a chiunque, rigorosamente in modalità as-a-service su qualsiasi infrastruttura il cliente chieda di operare, in colocation e on prem. HPE garantisce ampia scelta al cliente, come chiarisce Claudio Bassoli, AD di HPE Italia: “non chiediamo ai nostri clienti di spostare i loro dati, garantendo così la massima protezione e anche la sostenibilità del modello”.
Così, l’AI secondo HPE è fruibile su infrastrutture su data center, ma anche on prem, e garantisce economie di scala, coinvolgendo solo la capacità computazionale, di storage e di banda che serve all’azienda, piccola o grande che sia, in un determinato momento. Con la garanzia, va sottolineato, della massima protezione, controllo e governance dei dati.
L’offerta HPE è completa e integrata al punto da essere nativa, forte della leadership dell’azienda nei contesti core che richiede l’AI, ovvero capacità computazionale, storage e networking, oltre che nel software e nei servizi. E, dove l’azienda non arriva, ci pensano le partnership a colmare il gap, fra tutte quella con Nvidia. “Quello con HPE è un rapporto di lunga data – ricorda Manuvir Das, VP Enterprise Computing di Nvidia”, sottolineando che la partnership con HPE è molto di più di una integrazione di componenti e applicativi.
Si tratta di una (delle) partnership in cui crede fortemente HPE per sviluppare un ecosistema completo, composto da chi produce hardware, realizza piattaforme, fornisce servizi e da aziende di sviluppo specializzato, che, con puntualità certosina e visione, negli ultimi anni HPE ha inglobato all’interno della propria sfera.
Il modello teorico AI native ideato da HPE con il supporto di Nvidia differisce notevolmente dall’approccio cloud native e si pone come approccio evolutivo necessario. Perché di AI non si può fare a meno in un contesto business, se si vuole che l’elaborazione del dato sia realmente funzionale al business. Nel modello AI non si ha più bisogno di gestire migliaia di workloads ma uno solo, si agisce all’interno di una struttura ibrida by design, si sviluppa un ecosistema aperto e si garantisce una sostenibilità anch’essa by design. La connotazione by design in una struttura ibrida è supportata da HPE Ezmeral, la piattaforma che governa l’accesso, la gestione e l’elaborazione dei dati, elementi evidentemente centrali nell’approccio AI native.
“In questo momento è necessario – sottolinea Bassoli – aiutare tutte le aziende a comprendere il valore del dato che hanno in casa e che impatto economico (positivo) concreto può garantire la realizzazione di un progetto AI native. E ciò è possibile solo sviluppando cultura e distribuendo i casi reali che HPE sta rendendo pubblici”. A livello progettuale, l’idea è di procedere per segmentazioni specifiche sull’industria, applicare modelli che si sono già dimostrati vincenti pur garantendo il livello di personalizzazione richiesto dalla singola azienda. “L’approccio – prosegue Bassoli – è dunque sia standard che sartoriale, con un occhio particolare a un veloce ritorno dell’investimento”. In particolare, l’utilizzo di motori già allenati all’elaborazione in contesti specifici su cui HPE lavora insieme a Nvidia, permette di superare più velocemente la fase di Training, una delle tre componenti tipiche dell’approccio AI insieme al Tuning e all’Inferencing.
HPE si propone al mercato con un’offerta integrata reale capace di affrontare le tre fasi. Un’offerta preconfigurata e co-progettata (insieme a Nvidia) per il Tuning e l’Inferencing che permette di personalizzare rapidamente i modelli di base utilizzando dati privati e di distribuire applicazioni aziendali ovunque, dall'Edge al cloud.
L’offerta, oggi ancora più delineata rispetto all'HPE Discover 2023 di giugno a Las Vegas, si compone di HPE Machine Learning Development Environment Software, HPE Ezmeral Software, HPE ProLiant Compute e HPE Cray Supercomputers, insieme a Nvidia AI Enterprise Software Suite e Nvidia NeMo Framework. L’offerta hardware HPE, riprogettata specificamente per le esigenze particolari dell’AI, copre tutto il necessario, dall’elaborazione – e qui torna utilissima l’acquisizione a suo tempo di Cray e di SGI – allo storage passando per il networking integrato con le componenti disegnate da Nvidia.
In particolare, si offrono rack con HPE ProLiant Compute DL380a preconfigurato con GPU Nvidia L40S, DPU Nvidia BlueField-3 e la piattaforma per rete Ethernet Nvidia Spectrum-X. La soluzione è stata dimensionata per ottimizzare un modello Llama 2 da 70 miliardi di parametri e comprende 16 server HPE ProLiant DL380a e 64 GPU L40S. La componente HPE Machine Learning Development Environment è stata aggiornata a nuove funzionalità per prototipare e testare rapidamente modelli e software, mentre HPE Ezmeral presenta nuove funzionalità GPU-compatibili per semplificare l'implementazione e accelerare la preparazione dei dati per i carichi di lavoro AI nel cloud ibrido. Infine, integrato nell’offerta il software Nvidia AI Enterprise per accelerare lo sviluppo e l'implementazione dell'IA in produzione. Completa l’offerta, come detto, il framework Nvidia NeMo: un kit di strumenti di controllo, di data curation e modelli preaddestrati per semplificare e accelerare il roll out del progetto.
All’offerta full stack HPE accosta un nuovo portfolio di servizi di consulenza, training e sviluppo dedicati. Per le grandi aziende, invece, HPE e Nvidia propongono una soluzione basata sull’offerta HPC (supercomputing) e, infine, sarà disponibile una nuova architettura aperta e full-stack AI native, e una serie di offerte cloud ibride e native per lo sviluppo di machine learning, analisi dei dati, storage di file ottimizzato per l’AI, il Tuning e l’Inference.
In definitiva, HPE, insieme a Nvidia e alle aziende che sviluppano soluzioni applicative particolari, dimostra di voler fare sul serio e di non badare a spese nella proposizione di un portfolio completo, nativo e performante al servizio di quel 73% di aziende che, nel mondo, hanno dichiarato di voler porre l’AI prioritario su tutti gli investimenti sul digitale. Certo, la transizione non sarà immediata – Bassoli ricorda che i dati ministeriali parlano di appena un 6% di PMI italiane che usano già l’AI – ma è certamente ora il momento di piantare la bandiera su un mercato che promette faville, e HPE ha tutte le carte in regola per riuscirci, anche e soprattutto grazie alla profonda sterzata che ha dato Antonio Neri a struttura e offerta – a partire da HPE GreenLake - che, dati alla mano, sta pagando dividenti inaspettati.