Man mano che una infrastruttura IT cresce, spesso aumenta anche la complessità della sua architettura e quindi anche
la sua gestione. La risposta dei vendor tecnologici a questo problema è stata rappresentata dai sistemi cosiddetti
convergenti. In questo approccio le parti di elaborazione, storage e networking non sono più considerate del tutto separate ma come un insieme integrato compreso sotto l'ombrello di un’unica piattaforma software di management. A muovere il tutto è di solito uno strato di
virtualizzazione delle risorse stesse, che permette di allocarle dinamicamente ai compiti che devono di volta in volta essere eseguiti.
In molti casi i sistemi convergenti hanno aperto la strada all'implementazione del passo concettuale successivo, ossia le soluzioni di
Hyperconverged Infrastructure (o HCI). Per molte imprese si tratta di un approccio ancora un po' esoterico mentre è già stato ampiamente "assorbito" dagli hyperscaler per le proprie infrastrutture. Non è un caso, ovviamente: le HCI nascono per dare una
maggiore elasticità rispetto ai sistemi convergenti e i datacenter dei grandi provider sono gli ambienti che maggiormente cercano elasticità e scalabilità.
Il pregio delle HCI sta nel premere l'acceleratore sul fattore della
modularità come elemento chiave della scalabilità. Computing, networking e storage sono "mattoncini" il più possibile virtualizzati che possono essere attivati e allocati istantaneamente a seconda delle esigenze. Questo in linea di massima pone l'accento molto più sulla
parte software delle soluzioni e meno sulla parte hardware, ma ciascun produttore calibra questo equilibrio in base alle sue esigenze e punti di vista. Per cui una HCI può avere
tre forme concettuali molto diverse fra loro.
Quella probabilmente più familiare alle imprese è l'
appliance fortemente integrata. I vari componenti (elaborazione, networking, storage) sono fisicamente integrati, testati e spesso anche ottimizzati per uno specifico funzionamento. Una scelta legata anche al fatto che una buona fetta degli usi delle HCI
è molto mirata: gestione di database, applicazioni enterprise, ambienti di desktop virtuali. Il vantaggio è quello della classica soluzione ad hoc: si ha un sistema studiato da zero per operare in un certo modo sfruttando al massimo le sue componenti. Il punto debole è prevedibilmente legato alla scalabilità, che è più o meno semplice
a seconda delle scelte architetturali e di mercato del singolo vendor.
Per questo esiste la seconda strada delle
reference architecture. In questo approccio i componenti di computing, storage e networking non devono essere integrati in una unica appliance ma possono essere sistemi diversi, purché
riconosciuti dal vendor principale della soluzione e
certificati per poter operare in sinergia. In sintesi si dà all'utente una "mappa" di riferimento dei componenti che può usare con la ragionevole certezza che funzioneranno insieme senza problemi. In questo modo si possono assemblare architetture più vicine ai propri bisogni e spesso più facilmente scalabili, serve però avere le competenze tecniche per seguire lo sviluppo del proprio sistema.
La terza opzione è quella più destrutturata e
incentrata sulla piattaforma software di controllo e virtualizzazione delle risorse. Questa diventa l'elemento chiave mentre le risorse hardware sono fornite attraverso componenti hardware generici estremamente modulari, anche
server x86 "unbranded" con storage integrato e connessi da collegamenti di rete ad alta velocità. Le risorse di elaborazione e di storage di ogni nodo sono combinate in
un pool unico in cui tutto è software-defined ed è quindi particolarmente elastico. In molte imprese questa organizzazione così modulare e virtualizzata del datacenter non è ancora una realtà e potrebbe anche non prendere piede per lungo tempo, sta diventando invece
la norma nei grandi datacenter dove ci sono da gestire decine di migliaia di server fisici.