▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Red Hat, più scalabilità e adattabilità con la versione 2.15 di OpenShift AI

Prestazioni migliorate e flussi di lavoro semplificati con lo scopo di alimentare l’innovazione dell’intelligenza artificiale generativa su scala

Tecnologie

Disponibile da Red Hat l’ultima versione di OpenShift AI, la piattaforma di intelligenza artificiale e machine learning basata su Red Hat OpenShift, che consente di creare e installare applicazioni AI-enabled su scala attraverso il cloud ibrido. Progettato per fornire maggiore flessibilità, tuning e capacità di tracciamento, Red Hat OpenShift AI 2.15 contribuisce ad accelerare l’innovazione AI/ML delle imprese e la coerenza operativa attraverso una più efficiente regolarità e una più solida sicurezza su scala tra cloud pubblici, datacenter e ambienti edge.

Nel dettaglio, Red Hat OpenShift AI 2.15 ha l’obiettivo di aiutare ad affrontare le emergenti richieste di carichi di lavoro AI unitamente ai requisiti delle applicazioni mission-critical e cloud-native che oggi alimentano il business. Tra le funzionalità presenti in quest’ultima versione spicca in primo luogo il registro dei modelli, attualmente disponibile in anteprima tecnologica, che diventa il luogo principale per la visualizzazione e la gestione dei modelli registrati. Esso fornisce un ambiente strutturato e organizzato per la condivisione, la modifica, la distribuzione e la tracciabilità di modelli di AI predittiva e generativa, metadati e articoli di modello. È disponibile anche l’opzione che consente di disporre di più registri di modelli. Inoltre, Red Hat ha donato il progetto alla comunità di Kubeflow a titolo di sottoprogetto.

Inoltre, è previsto il rilevamento della dispersione dei dati per monitorare i cambiamenti nelle distribuzioni dei dati di input dei modelli ML impiegati. In questo modo, i data scientist possono rilevare quando i dati reali utilizzati per l’interferenza del modello si discostano significativamente da quelli impiegati per l’addestramento dello stesso. Il rilevamento della dispersione aiuta a verificare l’affidabilità del modello, monitorando continuamente i dati di input, mantenendolo allineato con i dati del mondo reale e contribuendo a garantire l’accuratezza delle sue previsioni nel tempo.

Non mancano strumenti di rilevamento dei bias per aiutare i data scientist e gli AI engineer a monitorare se i loro modelli risultano corretti e imparziali, un aspetto cruciale per stabilire la fiducia nei confronti dei modelli. Questi strumenti non solo aiutano a capire se sono imparziali sulla base dei dati di addestramento, ma osservano anche la loro equità durante le implementazioni nel mondo reale. Questi tool sono stati integrati nella comunità open source TrustyAI che fornisce un kit di strumenti diversificati per lo sviluppo e l’implementazione responsabile dell’AI.

È anche presente la regolazione efficiente con LoRA utilizza adattatori a basso grado per consentire una regolazione più efficiente degli LLM, come Llama 3, permettendo alle organizzazioni di scalare i carichi di lavoro AI e riducendo al contempo i costi e il consumo di risorse. Ottimizzando l’addestramento e la messa a punto dei modelli in ambienti cloud nativi, la soluzione migliora sia le prestazioni che la flessibilità, rendendo l’implementazione dell’AI più accessibile e scalabile.

Infine, c’è il supporto di Nvidia NIM, ovvero una serie di microservizi di interfaccia di facile utilizzo che accelerano l’erogazione di applicazioni di gen AI. L’integrazione di NIM, parte della piattaforma software NVIDIA AI Enterprise, aiuterà ad accelerare le implementazioni di AI generativa e a supportare un’ampia gamma di modelli di intelligenza artificiale per offrire inferenza scalabile in sede o nel cloud tramite interfacce API. Le GPU di AMD offrono l’accesso a un’immagine del workbench AMD ROCm per lo sviluppo di modelli mediante il loro utilizzo. La nuova funzionalità consente inoltre di accedere a immagini che possono essere utilizzate per i casi d’uso di servizio e di addestramento/tuning con le GPU di AMD. Questo supporto offre alle organizzazioni ulteriori opzioni di utilizzo di questi processori per migliorare le prestazioni delle attività ad alta intensità di calcolo.

Da notare infine che Red Hat OpenShift AI 2.15 migliora le pipeline di data science e il tracking degli esperimenti, consentendo agli esperti di gestire, confrontare e analizzare più facilmente le pipeline raggruppate in una struttura lineare. La piattaforma offre anche la regolazione degli iperparametri con Ray Tune, aggiungendo algoritmi di ottimizzazione avanzati per migliorare la precisione e addestrare i modelli in modo più efficiente. Le immagini dei container di base per i cluster Ray sono ora incluse nella versione aggiornata di Red Hat OpenShift AI, e i lavori di training e tuning possono essere pianificati su carichi di lavoro distribuiti nel cluster per accelerare i lavori e massimizzare il loro utilizzo.

“Le imprese stanno esplorando il nuovo mondo di funzionalità offerte dalle applicazioni e dai carichi di lavoro abilitati dall’intelligenza artificiale e ci aspettiamo che l’interesse e la domanda di piattaforme di supporto aumentino man mano che prendono forma delle strategie concrete. È imperativo per le aziende vedere i ritorni di questi investimenti attraverso una piattaforma di AI affidabile, scalabile e flessibile che funzioni ovunque i loro dati si trovino nel cloud ibrido. L’ultima versione di Red Hat OpenShift AI offre significativi miglioramenti in termini di scalabilità, prestazioni ed efficienza operativa, fungendo al contempo da pilastro per l’intero ciclo di vita del modello, rendendo possibile per le organizzazioni IT ottenere i vantaggi di una potente piattaforma di AI e mantenendo al contempo la capacità di costruire, distribuire ed eseguire su qualsiasi ambiente previsto dalle loro specifiche esigenze di business”, commenta Joe Fernandes, vice president e general manager, AI business unit di Red Hat.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Speciali Tutti gli speciali

Reportage

Cybertech Europe 2024

Speciale

Speciale Data Analitycs

Speciale

Speciale Multicloud

Speciale

Speciale Storage

Speciale

Speciale Networking

Calendario Tutto

Nov 26
WPC 2024
Nov 26
IDC CIO Forum, Milano
Dic 03
Dynatrace Innovate Italy
Dic 05
Nutanix Cloud Day Roadshow - Torino
Dic 11
NetApp INSIGHT Xtra
Gen 23
Nutanix Cloud Day Roadshow - Bari

Magazine Tutti i numeri

ImpresaCity Magazine


Leggi il Magazine

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter