Dall’antigravità dei dati all’AI generativa, dal FinOps alla sicurezza, le strategie per il nuovo anno dovranno guardare a dati sempre più distribuiti
Autore: Redazione ImpresaCity
Un nuovo anno è appena iniziato, e Denodo, campione della gestione dati, ha identificato i 5 principali trend che guideranno il data management nel 2024.
Cloud, data lake cloud e data warehouse cloud rimarranno determinanti, tuttavia sarà sempre più difficile affidarsi a un unico provider per soddisfare ogni esigenza in termini di dati e analytics.
Negli ultimi due decenni, i data warehouse e i data lake hanno contribuito a risolvere numerosi problemi aziendali, ma ne hanno anche creati altri (poiché fanno parte di sistemi sia on-premise sia cloud, e per la loro dispersione geografica). Inoltre, ogni fornitore di servizi cloud cerca di risolvere i problemi relativi a dati e analytics in modo indipendente; tuttavia, la maggior parte delle organizzazioni gestisce i propri dati in un ambiente multi-cloud.
Oggi, dunque, il concetto della cosiddetta “gravità” dei dati non è più attuale: ogni organizzazione con una strategia moderna necessita di data warehouse e di data lake multipli per soddisfare le proprie esigenze. Ecco perché l'antigravità dei dati sarà la nuova norma nel 2024, con fattori come costi di replica e sovranità dei dati, normative locali e velocità di analisi ad accelerare questa tendenza. Per farvi fronte, sarà fondamentale investire in tecnologie basate sulla gestione distribuita dei dati.
In un’epoca data-driven, non è più sufficiente limitarsi a integrare i dati, ma è necessario migliorare l'intera esperienza dell'utente finale e le moderne piattaforme devono offrire funzionalità simili a quelle dei giganti dell'e-commerce, come raccomandazioni personalizzate e un ciclo di feedback interattivo per le richieste degli utenti.
Nel 2024, il data mesh sarà quindi al centro delle trasformazioni nell’ambito della gestione dei dati, abbracciando la loro natura intrinsecamente distribuita. A differenza dei paradigmi tradizionali e centralizzati, in cui i dati sono archiviati e gestiti da un team centrale che fornisce i dati a che ne ha bisogno, il data mesh organizza i dati intorno a più domini, ciascuno gestito da chi di tale dominio è esperto, mettendo poi a fattor comune quei Data Product che si ritiene siano di interesse comune e consentendone un consumo quanto più possibile self-service.
L’AI generativa avrà un forte impatto anche sulla gestione dei dati e aprirà la strada a strumenti e tecnologie estremamente utili. Tuttavia, le aziende stanno incontrando diverse sfide nel processo di implementazione della Gen AI e dei modelli linguistici di grandi dimensioni (LLM), tra cui problemi di qualità e governance dei dati, conformità etica e gestione dei costi. Ognuno di questi ha a che fare con la strategia generale di gestione dei dati, che influisce sulla capacità di garantire l'integrità dei dati utilizzati nell’addestramento dei modelli di AI, di rispettare complesse linee guida normative o di facilitare l'integrazione del modello nei sistemi esistenti.
Appare chiaro che, in assenza della capacità di garantire l'accesso a dati affidabili e di alta qualità, un'infrastruttura di gestione dei dati abilitata dalla Gen AI sarà di scarsa o nulla utilità.
La migrazione dei dati sul cloud pone le aziende di fronte a un ostacolo significativo: l'aumento incessante dei costi relativi al cloud. Diversamente dall’archiviazione dei dati on-premise, hosting e gestione dei dati nel cloud presentano costi in aumento che impediscono di effettuare previsioni e budget precisi. Per l'anno prossimo, l’obiettivo sarà non solo quello di contenere i costi per il cloud, ma di farlo mantenendo un servizio di qualità e prestazioni competitive. Le aziende dovranno quindi analizzare a fondo le spese, individuare le inefficienze e considerare opzioni di archiviazione più convenienti.
Anche l'adozione dei principi FinOps, che combinano la responsabilità finanziaria con il modello di spesa flessibile del cloud, aiuterà le organizzazioni a bilanciare i risparmi sui costi e l'efficacia operativa, assicurando al contempo che le data strategy siano economicamente e funzionalmente solide e sostenibili.
I dati dovranno essere sempre protetti e governati, ma l’aggiornamento di numerosi sistemi isolati richiede tempo, ed è impossibile proteggere o governare tutti i sistemi aziendali contemporaneamente.
Per far fronte a questa sfida, le organizzazioni stanno sfruttando policy globali per la sicurezza e la governance dei dati, basate non solo sui ruoli degli utenti, ma anche sulla loro ubicazione. Inoltre, poiché i dati rimangono distribuiti tra sistemi on-premise e cloud, la sicurezza e la governance dei dati non devono costituire un ulteriore ostacolo all'accesso ai dati, alla collaborazione e all'innovazione, motivo per cui, nel 2024, assisteremo a un aumento delle soluzioni che semplificheranno la sicurezza e la governance.
In tale contesto, le piattaforme di gestione logica dei dati offrono tre vantaggi fondamentali per la sicurezza e la governance dei dati: riduzione dei rischi grazie a meno copie di dati; controllo centralizzato dell'accesso ai dati e monitoraggio tra sistemi diversi; disaccoppiamento delle policy dalle diverse sorgenti dati, per ottenere un controllo flessibile e continuo su sicurezza e governance dei dati aziendali.
“Per avere successo, le aziende data-driven dovranno prepararsi ad operare in un ambiente in cui i dati saranno sempre più distribuiti. Gli approcci tradizionali, basati sulla replica fisica dei dati da più sistemi in un repository centrale, come un data warehouse o un data lake, non sono adatti per dati distribuiti e che cambiano sempre più velocemente. Al contrario, l’approccio logico alla gestione dei dati consente connessioni in tempo reale a dati eterogenei senza necessità di replicarli, portando evidenti vantaggi in termini di tempo, costi e di un uso oculato delle risorse. Queste soluzioni contribuiranno a creare una cultura dei dati solida, facendo del 2024 un anno di trasformazione nel modo in cui le aziende gestiscono, utilizzano e valorizzano i propri dati”, sintetizza Andrea Zinno, Data Evangelist di Denodo.