▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Pure Storage, col Data Hub gli Analytics e l’Intelligenza Artificiale sono senza silos

Una nuova architettura data centric per superare la logica nata con i dischi e ormai superata dalle nuove esigenze sempre più guidate dai dati

Trasformazione Digitale Cloud
Rinnovare l’architettura storage per i carichi di lavoro non strutturati e soprattutto data-intensive: questa l’idea alla base dell’architettura data hub progettata da Pure Storage partendo da FlashBlade, che si configura come un'architettura incentrata sui dati archiviati ma sempre pronti ad alimentare gli analitycs e l'AI.

È un fatto che nel contesto sempre più data-driven di oggi le infrastrutture IT devono in primo luogo tenere conto dei dati, dandovi accesso completo e in tempo reale. Ma le soluzioni più diffuse oggi sono state progettate per i dischi, e hanno storicamente contribuito a creare silos di dati. Un’architettura data hub è invece progettata per fornire, condividere e unificare i dati, offrendo la possibilità di accedere a un valore senza precedenti.  

"I silos di dati sono un punto debole in ogni settore. Le aziende hanno bisogno di estrarre valore dai dati anche quando questo valore è nascosto, il che è impossibile senza una visione d'insieme", sottolinea Matt Burr, GM di FlashBlade in Pure Storage. "Abbiamo creato un sistema di storage data-centrico che soddisfa i requisiti applicativi attuali e futuri con una moderna piattaforma progettata per lavorare per conto dei clienti". 

Oggi le aziende si affidano a quattro tipologie di soluzioni di analytics in silos: data warehouse, data lake, streaming analytics e cluster di AI. Un data hub integra le caratteristiche più importanti di queste quattro tipologie di silos e le unifica in una singola piattaforma, grazie a quattro caratteristiche principali: 

Throughput elevato sia per object storage che per archiviazione di file. I dispositivi di backup e data warehouse richiedono un throughput elevato per workload comuni e basati su file, e per applicazioni cloud-native e object-based
Architettura scale-out. La caratteristica primaria del data lake è la sua architettura scale-out nativa, che consente di scalare senza limiti i lavori batch, in quanto è il software, non l'utente, a gestire la resilienza e le prestazioni
Prestazioni multidimensionali. I dati non sono prevedibili e possono arrivare a qualsiasi velocità, pertanto le aziende necessitano di una piattaforma in grado di processare qualsiasi tipo di dato e con qualsiasi modello di accesso
Elaborazione in parallelo. Nell'industria informatica c'è stato un profondo cambiamento dalle tecnologie seriali alle tecnologie parallele, costruite per imitare il cervello umano, e lo storage deve omologarsi.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Speciali Tutti gli speciali

Reportage

Red Hat Summit Connect 2024

Reportage

WPC 2024

Speciale

Speciale Data Center

Speciale

Speciale Hybrid Working

Reportage

Cybertech Europe 2024

Calendario Tutto

Gen 23
Nutanix Cloud Day Roadshow - Bari

Magazine Tutti i numeri

ImpresaCity Magazine


Leggi il Magazine

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter