Il nuovo GreenLake for Large Language Models offre alle aziende l'intelligenza artificiale su larga scala attraverso un servizio on-demand e multi-tenant
Autore: e. b.
“Siamo a un punto di svolta, un mutamento generazionale nel mercato dell'AI che cambierà in maniera altrettanto radicale il web, il mobile e il cloud", spiega Antonio Neri, Presidente e Ceo di Hewlett Packard Enterprise all'evento Discover 2023, svoltosi a fine giugno a Las Vegas, sintetizzando che "HPE rende l'AI accessibile a tutti, offrendo una gamma di applicazioni, a partire dai Large Language Models che girano sui nostri supercomputer collaudati e sostenibili, con un servizio cloud on-demand che addestra, perfeziona e implementa i modelli su vasta scala e in modo responsabile".
E non c’è dubbio che la nuova proposta GreenLake for Large Language Models (LLMs), con la quale HPE fa il suo ingresso nel mercato cloud dell'intelligenza artificiale, sia davvero diversa dal solito. Nelle intenzioni, l’idea è quella di permettere alle aziende di addestrare, mettere a punto e implementare l'intelligenza artificiale su larga scala attraverso una piattaforma cloud di supercomputing on-demand e multi-tenant. Il servizio sarà fornito in collaborazione la startup tedesca Aleph Alpha, partner di HPE e attiva in ambito AI, per garantire agli utenti un LLM collaudato sul campo e pronto all'uso, in modo da realizzare casi d'uso che richiedono l'elaborazione e l'analisi di testi e immagini. Infatti, la nuova offerta GreenLake per LLMs comprende anche l'accesso a Luminous, un modello linguistico pre-addestrato di Aleph Alpha, offerto in diverse lingue, tra cui inglese, francese, tedesco, italiano e spagnolo.
La nuova offerta, fa sapere HPE, è la prima di una serie di applicazioni di AI specifiche per vari settori, con supporto previsto in futuro per la modellazione climatica, la sanità e le life sciences, i servizi finanziari, la produzione e i trasporti. La società accetta già ora ordini per GreenLake per LMMs, di cui prevede la disponibilità entro la fine del 2023 a partire dal Nord America, mentre in Europa è prevista per l'inizio del prossimo anno.
Inoltre, spiega ancora HPE, a differenza delle offerte cloud generiche che eseguono più carichi di lavoro in parallelo, GreenLake per LLMs si basa su un'architettura AI-native progettata per eseguire un singolo carico di lavoro di training e simulazione AI su larga scala e alla massima capacità di computing, dato che supporterà attività di AI e HPC su centinaia o migliaia di CPU o GPU contemporaneamente.
Infine, GreenLake per LLMs sarà disponibile on-demand e funzionerà su quelli che HPE definisce i supercomputer più potenti e sostenibili al mondo, ovvero i Cray XD, eliminando la necessità per i clienti di acquistare e gestire un proprio supercomputer. L'offerta si avvale di HPE Cray Programming Environment, una suite software completamente integrata disegnata per ottimizzare le applicazioni HPC e AI, con una serie completa di strumenti per lo sviluppo, il porting, il debug e la messa a punto del codice.