Run:ai su OpenShift AI aiuta a massimizzare le risorse GPU e a semplificare i flussi di lavoro connessi all’intelligenza artificiale
Autore: Redazione ImpresaCity
Collaborazione tra Red Hat e Run:ai, attiva nell’ottimizzazione e nell’orchestrazione dell’AI, per portare le funzionalità di allocazione delle risorse di Run:ai su Red Hat OpenShift AI. Semplificando le operazioni AI e ottimizzando l’infrastruttura sottostante, questa collaborazione consente alle aziende di ottenere il massimo dalle risorse AI a disposizione, ottimizzando i flussi di lavoro sia hardware sia dei team, su una piattaforma MLOps affidabile per la creazione, la messa a punto, la distribuzione e il monitoraggio di applicazioni e modelli abilitati all’AI su scala.
Le GPU guidano i flussi di lavoro dell’AI, consentendone l’addestramento dei modelli, l’inferenza e la sperimentazione, ma il loro utilizzo può comportare costi notevoli, soprattutto nel caso di compiti distribuiti di addestramento e inferenza. Red Hat e Run:ai stanno lavorando per soddisfare questa esigenza critica di ottimizzazione delle risorse GPU con Run:ai’s certified OpenShift Operator on OpenShift AI, che aiuta gli utenti a scalare e ottimizzare i loro carichi di lavoro AI ovunque si trovino.
La piattaforma di orchestrazione di calcolo cloud-native di Run:ai su Red Hat OpenShift AI aiuta a risolvere problemi di pianificazione delle GPU per i carichi di lavoro AI con uno schedulatore dedicato per assegnare più facilmente le priorità ai carichi di lavoro mission-critical e consentire l’allocazione delle giuste risorse per supportare tali carichi di lavoro; utilizzare GPU frazionali e capacità di monitoraggio per allocare dinamicamente le risorse in base alle priorità e alle policy preimpostate e aumentare l’efficienza dell’infrastruttura; e infine migliorare controllo e visibilità sull’infrastruttura di GPU condivisa per facilitare l’accesso e l’allocazione delle risorse tra i team IT, di data science e di sviluppo delle applicazioni.
“La crescente adozione dell’AI e la domanda di GPU impone alle aziende di ottimizzare la propria piattaforma AI per ottenere il massimo dalle proprie operazioni e infrastrutture, indipendentemente dalla loro collocazione nel cloud ibrido. Grazie alla nostra collaborazione con Run:ai, stiamo consentendo alle organizzazioni di massimizzare i carichi di lavoro AI su scala senza sacrificare l’affidabilità di una piattaforma AI/ML o le risorse GPU preziose, ovunque sia necessario”, commenta Steven Huels, vicepresidente e direttore generale della Business Unit AI di Red Hat.
“Combinando i punti di forza MLOps di Red Hat OpenShift con l’esperienza di Run:ai nella gestione delle infrastrutture di intelligenza artificiale, stiamo innalzando gli standard dell’AI aziendale fornendo scalabilità continua e gestione ottimizzata delle risorse”, aggiunge Omri Geller, CEO e fondatore di Run:ai.
L’operatore OpenShift certificato di Run:ai è già disponibile, ma Red Hat e Run:ai fanno sapere che intendono continuare a sviluppare questa collaborazione con ulteriori capacità di integrazione.