Più capacità di calcolo ma consumi contenuti, più strutture fisiche ma locali: che 2025 sarà per i fornitori di infrastrutture IT?
Le stime di Anitec-Assinform (Il Digitale in Italia 2023, previsioni 2023-2026 e Policy) indicano un +20% per il Cloud Computing nel nostro Paese, con una previsione di crescita di poco inferiore al 18% e il superamento del tetto dei 10 miliardi di euro di investimento entro il 2026.
Insomma, la corsa al cloud non si arresta, e con questa non si ferma l’inevitabile ricorso ai data center degli hyperscaler e dei colocator. Anche il 2025, dunque, si prospetterebbe come un anno d’oro per chi fornisce le infrastrutture IT decentrate, a patto che non si rimanga sordi agli input di mercato.
Secondo Dell’Oro Group, solo nell’ultimo trimestre del 2024 Amazon, Google, Meta e Microsoft hanno incrementato dell’81% gli investimenti nelle loro infrastrutture e le stesse Big Tech potrebbero mettere sul tavolo altri 180 miliardi di dollari per rendere i loro data center all’altezza delle nuove esigenze di mercato.
Ma quali sono le direzioni di sviluppo di hyperscaler e fornitori di data center? In questo periodo la quantità di comunicazioni del tipo “X previsioni per il settore dei data center nel 2025” riempiono le nostre caselle di posta e quasi tutte le visioni collimano.
Una sintesi di ciò che aspetta il mercato dei data center è racchiusa nella dichiarazione di Stefano Cevenini, Product Manager e Data Center Segment Marketing Manager di Eaton Italia: “Il 2025 sarà cruciale per il settore, che sarà chiamato a rispondere alle sfide legate a capacità, densità di potenza, volatilità energetica e conformità normativa. Il futuro dei data center si basa su decentramento, automazione e adattabilità, essenziali per competere in un contesto complesso come quello attuale. Soluzioni modulari, sistemi di raffreddamento avanzati, energia rinnovabile e pratiche di sostenibilità trasparenti saranno fondamentali per il successo e per mantenere una posizione di leadership”.
Capacità e densità di potenza, innanzitutto, ovvero la necessità di trovare un compromesso tra la richiesta di maggiore elaborazione da parte dei clienti dovuta al crescente uso dell’intelligenza artificiale integrata sulle soluzioni applicative, e quella di mantenere le strutture fisicamente contenute. Sebbene si continui a costruirne di nuovi, anche in Italia, è evidente che non tutti i fornitori siano in grado di affrontare spese dell’ordine di centinaia di milioni di euro, se va bene.
Anche perché il mercato immobiliare non è intenzionato a fare sconti. Per questo, la parolina magica del 2025 tra i fornitori è “brownfield”, ovvero la conversione di strutture preesistenti e non la costruzione di nuove. Sebbene l’investimento in una riconversione dovrebbe essere più contenuto, spesso la spesa non vale l’impresa a causa di fattori inaspettati e non direttamente preventivabili dall’investitore.
Il compromesso è, quindi, individuare soluzioni infrastrutturali che, all’interno di uno spazio già configurato, garantiscano la maggiore capacità di elaborazione richiesta dall’AI, dal Quantum Computing e dall’HPC, ovvero maggiore densità di potenza.
Se si chiede maggiore capacità computazionale, si otterrà maggiore consumo energetico. Secondo quanto calcolato da Goldman Sachs, entro il 2030 l’AI dovrebbe causare un aumento del 160% della domanda di energia nei data center rappresentando il 75% del consumo totale di queste strutture, ed è un vero problema. In soldoni, se oggi i data center mondiali sono responsabili di quasi il 2% di tutta l’energia consumata nel mondo, la percentuale potrebbe raddoppiare molto velocemente. Così come entro il 2030 raddoppierebbero le emissioni di CO2 dei data center stessi.
Per questo l’edge computing potrebbe dare una mano. La disponibilità di piccoli data center, quantomeno snelli se non proprio mobili e magari autoalimentati da pannelli solari, potrebbe aiutare. Ma la crescita dell’edge sembra essere ostacolata, per esempio, dalla carenza di personale qualificato. Internamente le aziende non ne hanno e i fornitori d’infrastrutture edge non si possono permettere di inviare in giro per il mondo le loro risorse. Dunque, a intervenire sul campo potrebbero essere solo le risorse dei partner di canale, ammesso che siano sufficientemente strutturati e, in ogni caso, i costi (di servizio) più alti sarebbero a carico del cliente, facendogli rizzare i capelli.
Leggi anche: La seconda fase dell'AI lancia l'edge computing
A limitare la corsa dell’edge, secondo gli analisti, sarebbero anche le lungaggini burocratiche per ottenere le autorizzazioni a costruire e la mancanza di infrastrutture ecosostenibili di prossimità per la generazione dell’energia necessaria. Inoltre, il ricorso sempre più ampio a strutture distribuite richiede infrastrutture di rete capienti e veloci disponibili sul territorio, e ciò non è per niente scontato.
La questione dell’approvvigionamento di energia non è poi risolvibile esclusivamente dai data center. Per quanti investimenti si possano fare, i fornitori non possono garantire da soli la copertura di una superficie geografica con forme di energia alternative. Ci sono le istituzioni, spesso locali, di mezzo e c’è da tener conto di diversi fattori, ambientali, strutturali e anche geopolitici. Questi ultimi, infatti, incidono direttamente sul costo dell’energia, come nel caso del gas naturale.
L’adeguamento alle normative è l’altro grande problema da affrontare. In Europa c’è la necessità di garantire la sovranità dei dati. Dunque, diventano necessari i data center “locali” e i fornitori (gli hyperscaler per esempio) devono garantire che i dati di aziende e cittadini europei non escano dai confini.
Allo stesso tempo, le normative che si riferiscono al Green Deal europeo non solo richiedono ai fornitori di data center di garantire sostenibilità ed energie rinnovabili, ma li rendono direttamente corresponsabili rispetto alla stessa normativa applicata alle aziende clienti. In questo contesto, si configura una competizione tra fornitori in cui primeggerà chi può dimostrare oggettivamente la propria ecosostenibilità. Quelle stesse garanzie, nero su bianco, non solo saranno oggetto di trattativa commerciale, ma dovranno essere citate nei bilanci ESG delle aziende clienti. Di più, un’azienda cliente potrebbe essere sanzionata per una scelta non conforme dei propri fornitori.
Tempi duri per hyperscaler e colocator, insomma. Da una parte non si può deludere la forte richiesta del mercato, dall’altra bisogna fare i conti con investimenti consistenti, ostacoli e normative. I fornitori di hardware combattono una lotta impari contro i vincoli fisici –da sempre a una densità maggiore corrisponde un maggiore surriscaldamento -, strizzano l’occhio al Quantum Computing ma i costi sono alti e i tempi sono lunghi. Si diffondono, poi, nuovi sistemi di condizionamento liquido e si esplorano modalità miste di approvvigionamento di energia, pensando per esempio al nucleare, ma ci vorrà molta pazienza.
In definitiva, per hyperscaler e fornitori di strutture in colocation il rischio di non soddisfare pienamente l’offerta è alto e una cosa è molto probabile: il costo di storage, elaborazione, rete e istanze cloud non sembra destinato a scendere nel 2025.