▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Red Hat, con Run:ai per ottimizzare i workload AI nel cloud ibrido

Run:ai su OpenShift AI aiuta a massimizzare le risorse GPU e a semplificare i flussi di lavoro connessi all’intelligenza artificiale

Tecnologie

Collaborazione tra Red Hat e Run:ai, attiva nell’ottimizzazione e nell’orchestrazione dell’AI, per portare le funzionalità di allocazione delle risorse di Run:ai su Red Hat OpenShift AI. Semplificando le operazioni AI e ottimizzando l’infrastruttura sottostante, questa collaborazione consente alle aziende di ottenere il massimo dalle risorse AI a disposizione, ottimizzando i flussi di lavoro sia hardware sia dei team, su una piattaforma MLOps affidabile per la creazione, la messa a punto, la distribuzione e il monitoraggio di applicazioni e modelli abilitati all’AI su scala.

Le GPU guidano i flussi di lavoro dell’AI, consentendone l’addestramento dei modelli, l’inferenza e la sperimentazione, ma il loro utilizzo può comportare costi notevoli, soprattutto nel caso di compiti distribuiti di addestramento e inferenza. Red Hat e Run:ai stanno lavorando per soddisfare questa esigenza critica di ottimizzazione delle risorse GPU con Run:ai’s certified OpenShift Operator on OpenShift AI, che aiuta gli utenti a scalare e ottimizzare i loro carichi di lavoro AI ovunque si trovino.

La piattaforma di orchestrazione di calcolo cloud-native di Run:ai su Red Hat OpenShift AI aiuta a risolvere problemi di pianificazione delle GPU per i carichi di lavoro AI con uno schedulatore dedicato per assegnare più facilmente le priorità ai carichi di lavoro mission-critical e consentire l’allocazione delle giuste risorse per supportare tali carichi di lavoro; utilizzare GPU frazionali e capacità di monitoraggio per allocare dinamicamente le risorse in base alle priorità e alle policy preimpostate e aumentare l’efficienza dell’infrastruttura; e infine migliorare controllo e visibilità sull’infrastruttura di GPU condivisa per facilitare l’accesso e l’allocazione delle risorse tra i team IT, di data science e di sviluppo delle applicazioni.

La crescente adozione dell’AI e la domanda di GPU impone alle aziende di ottimizzare la propria piattaforma AI per ottenere il massimo dalle proprie operazioni e infrastrutture, indipendentemente dalla loro collocazione nel cloud ibrido. Grazie alla nostra collaborazione con Run:ai, stiamo consentendo alle organizzazioni di massimizzare i carichi di lavoro AI su scala senza sacrificare l’affidabilità di una piattaforma AI/ML o le risorse GPU preziose, ovunque sia necessario”, commenta Steven Huels, vicepresidente e direttore generale della Business Unit AI di Red Hat.

Combinando i punti di forza MLOps di Red Hat OpenShift con l’esperienza di Run:ai nella gestione delle infrastrutture di intelligenza artificiale, stiamo innalzando gli standard dell’AI aziendale fornendo scalabilità continua e gestione ottimizzata delle risorse”, aggiunge Omri Geller, CEO e fondatore di Run:ai.

L’operatore OpenShift certificato di Run:ai è già disponibile, ma Red Hat e Run:ai fanno sapere che intendono continuare a sviluppare questa collaborazione con ulteriori capacità di integrazione.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Speciali Tutti gli speciali

Reportage

Red Hat Summit Connect 2024

Reportage

WPC 2024

Speciale

Speciale Data Center

Speciale

Speciale Hybrid Working

Reportage

Cybertech Europe 2024

Calendario Tutto

Gen 23
Nutanix Cloud Day Roadshow - Bari

Magazine Tutti i numeri

ImpresaCity Magazine


Leggi il Magazine

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter