Nuove funzionalità studiate per aiutare a potenziare al massimo i progetti di intelligenza artificiale generativa, con un'infrastruttura semplificata, sicura e ad alte prestazioni in collaborazione con Nvidia
Da NetApp arrivano nuove funzionalità che aiuteranno a potenziare al massimo i progetti di intelligenza artificiale generativa e creeranno dei vantaggi competitivi per gli utenti. I clienti possono ora migliorare i propri progetti, combinando l'infrastruttura di dati intelligenti con l'elaborazione, il networking e il software ad alte prestazioni di NvidiaA per raggiungere più ambiziosi obiettivi basati sull'intelligenza artificiale.
Per sbloccare il potenziale della Gen AI, le aziende hanno bisogno di un accesso sicuro e ad alte prestazioni ai dati raccolti in ambienti ibridi e multicloud complessi. NetApp vanta una lunga e proficua esperienza nel supportare l'intelligenza artificiale con soluzioni che offrono semplicità di gestione ovunque si trovino i dati, fornendo prestazioni elevate senza richiedere nuovi silos infrastrutturali e di fornire dati affidabili e sicuri per gestire responsabilmente l'AI.
Per supportare le aziende che sfruttano la Gen AI per migliorare le operazioni e i propri processi decisionali strategici, NetApp ha aggiornato le funzionalità della propria infrastruttura dati intelligente. In particolare, NetApp AIPod è l'infrastruttura ottimizzata per l'AI per i progetti prioritari delle aziende: NetApp AIPod powered by Nvidia è ora una soluzione certificata Nvidia DGX BasePOD che utilizza la piattaforma DGX H100 di Nvidia collegata ai sistemi flash capacitivi NetApp AFF C-Series per raggiungere un nuovo livello di ottimizzazione dei costi e prestazioni, migliorando al contempo lo spazio su rack e la sostenibilità.
Inoltre, le nuove architetture di riferimento di FlexPod per AI estendono la soluzione di infrastruttura convergente leader di NetApp e Cisco. FlexPod per AI supporta ora la piattaforma software Nvidia AI Enterprise e può essere esteso per sfruttare RedHat OpenShift e SuSE Rancher. Sono state aggiunte nuove funzionalità di scaling e benchmarking per supportare applicazioni sempre più impegnative per le GPU. I clienti possono utilizzare queste nuove soluzioni FlexPod per ottenere un modello end-to-end per progettare, implementare e gestire in modo efficiente la piattaforma FlexPod per i casi d'uso di AI.
Non solo: NetApp è ora validata per i sistemi Nvidia OVX. Lo storage NetApp combinato con i sistemi di computing Nvidia OVX può aiutare a semplificare le implementazioni di AI nelle aziende, compresi i carichi di lavoro di fine-tuning e inferenza dei modelli. Basate sulle GPU Nvidia L40S, le soluzioni Nvidia OVX convalidate sono disponibili presso i principali vendor di server e includono il software Nvidia AI Enterprise insieme a Nvidia Quantum-2 InfiniBand, o Nvidia Spectrum-X Ethernet, e Nvidia BlueField-3 DPUs. NetApp è uno dei primi partner a completare questa nuova validazione dello storage per Nvidia OVX.
"L'intelligenza artificiale alimenta casi d'uso mission-critical in ogni settore, dalla sanità alla produzione fino ai servizi finanziari. NetApp AIPod certificato per Nvidia DGX BasePOD fornisce una potente architettura di riferimento che aiuta le aziende a eliminare la complessità della progettazione, ridurre i tempi di implementazione e semplificare l’operatività", commenta Tony Paikeday, Senior Director of AI Systems di Nvidia.
(Parte delle immagini generata con AI tramite l'app Microsoft Copilot)