AI, nazionalismo della supply chain e una tempesta perfetta di rischi centralizzati sono i temi che dominano la sicurezza iT nell’anno appena iniziato
Il 2024 ha segnato una svolta nell’evoluzione degli attacchi basati sull’intelligenza artificiale: gli attaccanti hanno superato la fase sperimentale per passare a un’azione sistematica e “industrializzata”. L’AI non si è limitata a potenziare attacchi già noti, ma ha anche reso accessibili tecniche avanzate, come l’hacking hardware, che in passato erano appannaggio esclusivo di attori altamente specializzati. Guardando al 2025, è probabile che questa tendenza si intensifichi, con attaccanti pronti a sfruttare l’AI per sondare sistemi federali in un contesto globale sempre più instabile.
Il prossimo anno ci vedrà ancora immersi in una corsa globale all’adozione dell’AI, in cui ogni attore, dalle piccole imprese agli stati nazionali, cercherà di muoversi a velocità vertiginosa con un pensiero dominante: “Se non lo facciamo noi, lo faranno loro”. Ogni organizzazione, in fondo, ha il proprio “loro” di cui preoccuparsi.
Ma questa corsa non riguarda solo la velocità. Sta creando un pericoloso circolo vizioso: la pressione per implementare l’AI più rapidamente ci rende sempre più dipendenti da essa per gestire la complessità che stiamo costruendo. Prevedo un’accelerazione nell’adozione dell’AI da parte dei governi per migliorare l’efficienza, ma con essa emergeranno inevitabilmente vulnerabilità significative nella sicurezza.
Stiamo assistendo a un parallelo inquietante con l’adozione rapida del cloud nei primi anni 2010, ma con rischi decisamente maggiori. Le organizzazioni devono mettere al centro l’architettura AI e la difesa stratificata, con la sicurezza delle API come pilastro fondamentale. Ogni interazione con l’AI passa attraverso le API, che rappresentano sia il cuore pulsante di questa trasformazione che il suo potenziale tallone d’Achille.
Oggi molte organizzazioni conoscono solo superficialmente il proprio ecosistema di API e la relativa esposizione ai rischi. Come dico spesso: “Un mondo di AI è un mondo di API”. Le API sono il mezzo attraverso cui i modelli AI vengono addestrati, utilizzati e attaccati. Le nostre stime indicano che circa il 50% delle API non è né monitorato né gestito.
Il nazionalismo della supply chain non si limita al rimpatrio delle produzioni. Rappresenta un cambiamento profondo che richiede di ripensare completamente l’architettura digitale.
Con l’intensificarsi delle tensioni geopolitiche e l’introduzione di nuovi dazi, le organizzazioni si trovano strette tra esigenze di efficienza e restrizioni nella catena di approvvigionamento. Questo potrebbe portare alla creazione di nuove classi di rischi sistemici, nel tentativo di fare di più con meno risorse.
Mi aspetto un’accelerazione di strategie come il geofencing e il cloud sovrano. Tuttavia, le supply chain critiche, difficilmente rimpatriabili in tempi brevi, rischiano di causare carenze di componenti e ritardi in progetti critici. Parallelamente, la spinta all’efficienza di alcuni governi potrebbe ridurre l’efficacia della due diligence sui fornitori e della governance, aumentando i rischi legati a terze e quarte parti.
Per mitigare questi rischi, le organizzazioni cercheranno di ridurre il numero di fornitori e i relativi processi di controllo, facendo leva sull’adozione dell’AI e sulla consolidazione delle piattaforme. Questo consentirà di ridurre le vulnerabilità della supply chain, garantendo che i sistemi critici provengano da vendor affidabili.
Stiamo assistendo a una convergenza pericolosa di tre tendenze: la centralizzazione dei rischi attorno a piattaforme AI dominanti, la proliferazione di API non gestite che le collegano e la riduzione della supervisione umana proprio nel momento in cui sarebbe più necessaria. Il risultato è una combinazione di fragilità istituzionale e vulnerabilità tecnica.
Tagli di budget e pressioni per migliorare l’efficienza spingeranno le agenzie verso soluzioni AI “ombra”, centralizzando involontariamente i punti deboli attorno a un numero limitato di vendor AI. Questo scenario crea obiettivi ideali: compromettendo un modello AI centrale, l’impatto potrebbe propagarsi a catena su più organizzazioni. Stiamo costruendo una monocultura di sistemi AI connessi tramite API non gestite, riducendo nel contempo supervisione e governance.
A ciò si aggiunge il rischio dell’eccessiva fiducia (overtrust) nell’AI. Come i primi utilizzatori di GPS che finivano in laghi e campi perché “il computer diceva di girare a destra”, questa combinazione di fiducia cieca e supervisione ridotta potrebbe influire su decisioni politiche, analisi strategiche e risposte alle emergenze.
Questa tempesta perfetta di rischi centralizzati si sta scatenando in un momento di molteplici conflitti regionali che intensificano le tensioni geopolitiche, con avversari sempre più audaci nel cercare e sfruttare le vulnerabilità.
Chuck Herrin è Field Ciso di F5