Rinnovare l’architettura storage per i carichi di lavoro non strutturati e soprattutto data-intensive: questa l’idea alla base
dell’architettura data hub progettata da
Pure Storage partendo da FlashBlade, che si configura come un'
architettura incentrata sui dati archiviati ma sempre pronti ad alimentare gli analitycs e l'AI.
È un fatto che nel contesto sempre più data-driven di oggi le infrastrutture IT devono in primo luogo tenere conto dei dati, dandovi accesso completo e in tempo reale. Ma le soluzioni più diffuse oggi sono state progettate per i dischi, e hanno storicamente contribuito a creare silos di dati. Un’architettura
data hub è invece progettata per fornire, condividere e unificare i dati, offrendo la possibilità di accedere a un valore senza precedenti.
"
I silos di dati sono un punto debole in ogni settore. Le aziende hanno bisogno di estrarre valore dai dati anche quando questo valore è nascosto, il che è impossibile senza una visione d'insieme", sottolinea
Matt Burr, GM di FlashBlade in Pure Storage. "
Abbiamo creato un sistema di storage data-centrico che soddisfa i requisiti applicativi attuali e futuri con una moderna piattaforma progettata per lavorare per conto dei clienti".
Oggi le aziende si affidano a quattro tipologie di soluzioni di analytics in silos:
data warehouse, data lake, streaming analytics e cluster di AI. Un data hub integra le caratteristiche più importanti di queste quattro tipologie di silos e le unifica in una singola piattaforma, grazie a quattro caratteristiche principali:
Throughput elevato sia per object storage che per archiviazione di file. I dispositivi di backup e data warehouse richiedono un throughput elevato per workload comuni e basati su file, e per applicazioni cloud-native e object-based
Architettura scale-out. La caratteristica primaria del data lake è la sua architettura scale-out nativa, che consente di scalare senza limiti i lavori batch, in quanto è il software, non l'utente, a gestire la resilienza e le prestazioni
Prestazioni multidimensionali. I dati non sono prevedibili e possono arrivare a qualsiasi velocità, pertanto le aziende necessitano di una piattaforma in grado di processare qualsiasi tipo di dato e con qualsiasi modello di accesso
Elaborazione in parallelo. Nell'industria informatica c'è stato un profondo cambiamento dalle tecnologie seriali alle tecnologie parallele, costruite per imitare il cervello umano, e lo storage deve omologarsi.