BigLake promette una gestione unificata dei dati aziendali, indipendentemente dalle piattaforme che li conservano e dai workload che li devono elaborare
I dati sono il "nuovo petrolio" delle aziende? Nei dati ci sono tutte le informazioni di cui le imprese hanno bisogno per prendere le giuste decisioni di business? Se è vero, come è opinione comune, allora il problema più grosso che le aziende hanno al momento è mettere insieme in maniera efficace le molte, moltissime, inoformazioni che già posseggono. Perché i dati sono eterogenei, divisi tra applicazioni e silos funzionali, devono essere portati ad una vasta gamma di applicazioni e servizi. E tutto questo, prima lo si fa meglio è.
Sembrano lontani - anche se non lo sono - i bei tempi dei Big Data in cui bisognava occuparsi solo delle loro tre "v" (volumi, varietà, velocità). Siamo arrivati ad un punto in cui - spiega Gerrit Kazmaier, VP and GM of Database, Data Analytics, and Looker per Google Cloud - "le architetture dati tradizionali, anche quando implementate in cloud, non riescono a sloccare il pieno potenziale dei dati".
La risposta a questo ostacolo è, per Google Cloud, un approccio "limitless data". Dati "senza limiti" perché possono essere gestiti indipendentemente dal loro tipo, passati a qualsiasi workload, resi accessibili per qualsiasi utente. Un obiettivo ambizioso che si può raggiungere, sempre secondo Google Cloud, mediante alcuni strumenti presentati al suo Data Cloud Summit.Il più significativo è BigLake, un data lake storage engine attualmente ancora in versione preliminare. Promette di integrare fra loro i dati che sono conservati in data lake e data warehouse distinti, permettendo in sostanza di gestirli in maniera unificata astraendosi dai formati e dai sistemi che fisicamente conservano le informazioni. Una astrazione che permette di non dover spostare o duplicare i dati dalla loro sorgente originaria ad altre piattaforme più congeniali all'elabrorazione dei dati che vogliamo eseguire.
BigLake può aiutare molto nella gestione dei dati, ma serve anche un approccio comune dei vendor tecnologici all'apertura dei generici data store. Un approccio cioè che garantiscas a priori un buon livello di portabilità dei dati tra le piattaforme di vendor diversi. A questo serve la neonata Data Cloud Alliance, un gruppo di nomi noti del mondo dati (per ora Google Cloud con Accenture, Confluent, Databricks, Dataiku, Deloitte, Elastic, Fivetran, MongoDB, Neo4j, Redis, Starburst) che promettonodi fare in modo che "l'accesso ai dati non sia mai un ostacolo per la Digital Transformation".
Con un taglio più pratico e immediato, Google Cloud ha anche lanciato un nuovo Database Migration Program. In collaborazione con alcuni partner - quello citato è Deloitte - il programma comprende strumenti, competenze e incentivi finanziari per assistere un'azienda nella migrazione dei suoi dati a Google Cloud, spostandoli da piattaforme on-premise o da altri cloud.