Se da un lato la Gen AI aumenta le vulnerabilità, dall'altro più della metà delle aziende ritiene che l'uso di questa tecnologia possa accelerare il rilevamento delle minacce e migliorarne l'accuratezza
Autore: Redazione ImpresaCity
Dalla proliferazione dell'AI e dell'AI generativa stanno emergendo nuovi rischi per la cybersecurity, ma allo stesso tempo queste tecnologie rappresentano un cambiamento trasformativo nel rafforzamento delle strategie di cyber-difesa a lungo termine che consentono di anticipare, rilevare e rispondere alle minacce. È quanto rileva un recente report del Capgemini Research Institute, nel quale è anche evidenziato che due terzi delle aziende considerano ormai prioritaria l'AI nelle loro operazioni di sicurezza.
Secondo il report “New defenses, new threats: What AI and Gen AI bring to cybersecurity”, frutto di un’indagine che ha coinvolto un migliaio di aziende in tutto il mondo, Italia compresa, se da un lato l'AI è considerata dalle organizzazioni una tecnologia strategica per il rafforzamento delle proprie strategie di sicurezza, dall'altro la crescente adozione della Gen AI in vari settori comporta una maggiore vulnerabilità. L'intelligenza artificiale generativa introduce tre principali aree di rischio per le organizzazioni: attacchi più sofisticati con un maggior numero di avversari, l'espansione della superficie di attacco informatico e l'aumento delle vulnerabilità nell'intero ciclo di vita delle soluzioni personalizzate di Gen AI. Questi rischi sono inoltre aggravati dall'uso improprio dell'AI e dell'AI generativa da parte dei dipendenti, con un conseguente aumento significativo del rischio di violazioni dei dati.
Quasi tutte le organizzazioni intervistate (97%) affermano di aver riscontrato violazioni o problemi di sicurezza legati all'uso della Gen AI nell'ultimo anno. Questa tecnologia comporta anche rischi aggiuntivi, tra cui allucinazioni, generazione di contenuti distorti, dannosi o inappropriati e attacchi di tipo prompt injection. Due organizzazioni su tre (67%) sono preoccupate per l'inquinamento dei dati e per la possibile fuga di dati sensibili attraverso i dataset utilizzati per l'addestramento dei modelli di intelligenza artificiale generativa. Inoltre, la capacità della Gen AI di generare contenuti sintetici altamente realistici sta comportando ulteriori rischi: oltre due aziende intervistate su cinque (43%) hanno dichiarato di aver subito perdite finanziarie derivanti dall'uso di deepfake. Circa 6 organizzazioni su 10 ritengono inoltre di dover aumentare il budget destinato alla cybersecurity per rafforzare adeguatamente le proprie difese.
Da sottolineare che l'AI e la Gen AI sono fondamentali per rilevare e rispondere agli attacchi: l’indagine Capgemini ha rilevato che la maggior parte delle aziende si affida all’AI per rafforzare la sicurezza dei dati, delle applicazioni e del cloud, grazie alla sua capacità di analizzare rapidamente grandi quantità di dati, identificare modelli di attacco e prevedere potenziali violazioni. Oltre il 60% delle aziende intervistate ha registrato una riduzione di almeno il 5% del proprio time-to-detect, mentre quasi il 40% ha dichiarato che il tempo di ripristino è diminuito almeno del 5% a seguito dell'implementazione dell'AI nei propri centri operativi di sicurezza (SOC).
Tra le organizzazioni intervistate, tre su cinque (61%) ritengono che l'AI sia essenziale per una risposta efficace alle minacce, in quanto consente di implementare strategie di sicurezza proattive contro attori sempre più sofisticati. Inoltre, la stessa percentuale ritiene che l'intelligenza artificiale generativa sia in grado di rafforzare le strategie di difesa proattiva a lungo termine, grazie a un rilevamento più rapido delle minacce. Oltre la metà ritiene inoltre che questa tecnologia consentirà agli analisti di cybersecurity di concentrarsi maggiormente sulle strategie di contrasto a minacce più complesse.
“L'uso dell'AI e della Gen AI si è finora rivelato un'arma a doppio taglio. Se da un lato introduce rischi senza precedenti, dall'altro le organizzazioni si stanno affidando sempre più all'AI per un rilevamento più rapido e accurato degli incidenti informatici. L'AI e l'AI generativa forniscono ai team di sicurezza nuovi e potenti strumenti per limitare questi incidenti e trasformare le loro strategie di difesa. Per garantire che rappresentino un vantaggio significativo di fronte a minacce sempre più sofisticate, le organizzazioni devono mantenere e dare priorità al monitoraggio continuo dell’evoluzione delle minacce informatiche, costruire in modo adeguato l'infrastruttura di gestione dei dati, i framework per l'adozione dell'AI e le relative linee guida etiche e introdurre validi programmi di formazione e sensibilizzazione dei dipendenti”, commenta Monia Ferrari, Amministratore Delegato di Capgemini in Italia.