Una collaborazione per combinare i modelli di AI addestrati con Red Hat OpenShift AI con i microservizi Nvidia Nim e sviluppare applicazioni guidate dalla Gen AI su un’unica piattaforma MLOps
Red Hat ha avviato l’integrazione dei microservizi Nvidia Nim su OpenShift AI con l’obiettivo di ottimizzare l’inferenza di decine di modelli di intelligenza artificiale tramite il supporto di una piattaforma cloud ibrida AI/ML coerente e open source. L’integrazione di Nvidia Nim, la serie di microservizi di inferenza di facile utilizzo inclusi nella piattaforma software Nvidia AI Enterprise, consentirà alle aziende di utilizzare Red Hat OpenShift AI per accelerare l’erogazione di applicazioni di AI generativa e velocizzare il time to value.
Il supporto di Nvidia Nim su Red Hat OpenShift AI si basa sull’ottimizzazione per Nvidia AI Enterprise esistente sulle tecnologie cloud ibride aperte di Red Hat, fra cui Enterprise Linux e OpenShift. Tramite quest’ultima collaborazione, Nvidia abiliterà l’interoperabilità di Nim con KServe, un progetto open source basato su Kubernetes per casi d’uso AI altamente scalabili e un collaboratore core upstream di OpenShift AI, contribuendo ad alimentare l’interoperabilità continua dei microservizi Nvidia Nim nelle future iterazioni di OpenShift AI.
Questa integrazione consente alle aziende di aumentare la produttività sfruttando le capacità dell’AI generativa in ambiti come l’ottimizzazione del servizio clienti con assistenti virtuali, la riepilogazione dei casi per i ticket IT e l’accelerazione delle operazioni di business con copiloti domain-specific.
I microservizi Nvidia Nim sono progettati per accelerare l’implementazione dell’intelligenza artificiale nelle aziende. Grazie al supporto di un’ampia gamma di modelli di AI, compresi quelli della comunità open-source, quelli di Nvidia AI Foundation e quelli personalizzati, Nim offre inferenze di AI scalabili e senza soluzione di continuità, sia on-premise che nel cloud, tramite interfacce di programmazione delle applicazioni (API) standard del settore.
“Grazie alla collaborazione con Nvidia, Red Hat vuole abbattere le barriere e le complessità legate alla rapida creazione, gestione e distribuzione di applicazioni abilitate dall’intelligenza artificiale generativa. Red Hat OpenShift AI fornisce una base scalabile e flessibile per estendere la portata dei microservizi Nim, consentendo agli sviluppatori di disporre di container pre-costruiti e API standard del settore, il tutto alimentato dall’innovazione open source”, commenta Chris Wright, Chief Technology Officer e SVP, Global Engineering di Red Hat.
“In ogni azienda, i team di sviluppo vogliono portare in produzione le proprie applicazioni di AI generativa nel modo più rapido e sicuro possibile. L’integrazione di Nvidia Nim in Red Hat OpenShift AI segna una svolta cruciale nella nostra collaborazione, in quanto aiuterà gli sviluppatori a costruire e scalare rapidamente applicazioni innovative utilizzando fondamenta e modelli di embedding ottimizzati per le prestazioni in qualsiasi cloud o data center”, conclude Justin Boitano, VP Enterprise AI di Nvidia.
(Immagine di apertura generata con AI tramite l'app Microsoft Copilot)