OpenShift 4.10 aggiunge funzionalità di supporto all'Intelligenza Artificiale e la certificazione Nvidia AI Enterprise 2.0 per semplificare lo sviluppo e l'innovazione con applicazioni avanzate
Autore: Redazione ImpresaCity
Da Red Hat arrivano nuove certificazioni e funzionalità per OpenShift con lo scopo di accelerare l'erogazione di applicazioni intelligenti nel cloud ibrido. Questi miglioramenti, tra cui la certificazione di OpenShift con Nvidia AI Enterprise 2.0, così come la disponibilità generale di Red Hat OpenShift 4.10, sono destinati ad aiutare le organizzazioni a implementare, gestire e scalare con fiducia carichi di lavoro di intelligenza artificiale (AI).
Oggi le imprese integrano funzionalità di AI e machine learning nelle applicazioni cloud-native per fornire insight e valore ai clienti, ma hanno bisogno di una piattaforma più agile, flessibile e scalabile per sviluppare e distribuire rapidamente modelli ML e applicazioni intelligenti in produzione. Red Hat OpenShift è progettato per fornire questa base e, con gli aggiornamenti odierni, rende ancora più facile aggiungere carichi di lavoro AI alla principale piattaforma Kubernetes del settore.
Con l'AI che sta trasformando il modo in cui le imprese fanno business, l'operatività di un'infrastruttura AI può essere complessa e richiedere molto tempo e risorse. Per aiutare ad accelerare il processo, Red Hat OpenShift è ora certificato e supportato dalla suite di software Nvidia AI Enterprise 2.0, una suite end-to-end, cloud-native di AI e software di data analytics che viene eseguita su sistemi mainstream certificati da Nvidia. La piattaforma integrata offre il principale software AI di Nvidia, la suite Nvidia AI Enterprise, ottimizzata per Red Hat OpenShift. Con Nvidia AI Enterprise su Red Hat OpenShift, data scientist e sviluppatori possono addestrare più rapidamente i modelli, integrarli in applicazioni e distribuirli su scala.
Oggi si ha quindi la possibilità di implementare Red Hat OpenShift su sistemi certificati Nvidia con il software Nvidia Enterprise AI, oltre che sui sistemi Nvidia DGX A100 precedentemente supportati, un sistema HPC universale per carichi di lavoro AI. In questo modo le aziende possono consolidare e accelerare l'intero ciclo di vita di MLOps, compresi data engineering, analytics, formazione, sviluppo e inferenza del software, in un’infrastruttura AI unificata e facile da implementare. Inoltre, le capacità integrate DevOps e GitOps di OpenShift permettono a MLOps di accelerare l’erogazione continua di applicazioni AI-powered.
Infine, Red Hat OpenShift 4.10 continua l’espansione della piattaforma a supporto di un ampio spettro di workload cloud-native attraverso cloud ibrido aperto, permettendo alle organizzazioni di eseguire i carichi di lavoro AI/ML in ancora più ambienti. L’ultima versione di OpenShift aggiunge il supporto per ulteriori public cloud e architetture hardware, fornendo alle organizzazioni la flessibilità di scegliere dove eseguire le loro applicazioni, rendendo lo sviluppo più facile e coerente possibile.
"Mentre le organizzazioni si rivolgono ad applicazioni intelligenti, AI/ML-powered per alimentare decisioni strategiche e ottenere un vantaggio competitivo, vediamo i container e Kubernetes come le chiavi per accelerare questo nuovo ciclo di vita delle applicazioni. Non solo Red Hat OpenShift fornisce la flessibilità, la portabilità e la scalabilità necessarie per addestrare, testare e distribuire modelli ML, ma anche funzionalità DevOps integrate per una migliore collaborazione tra data scientist e sviluppatori software. Grazie alla nostra collaborazione con Nvidia, stiamo aiutando i clienti ad accelerare una gamma diversificata di applicazioni AI e a semplificarne l'adozione”, commenta Joe Fernandes, vice president and general manager, Platforms Business Group di Red Hat.