Netskope: più di un terzo delle info sensibili nelle app AI sono dati regolamentati

Una ricerca dei Netskope Threat Labs indica che a fronte di un rapido sviluppo dell’intelligenza artificiale generativa, le aziende faticano ancora a trovare un equilibrio tra abilitazione sicura e gestione del rischio

Autore: Redazione ImpresaCity

Da Netskope, attiva in ambito Secure Access Service Edge, SASE, arriva una ricerca da cui emerge che i dati regolamentati, ovvero quelli che le aziende hanno obbligo legale di proteggere, costituiscono più di un terzo dei dati sensibili condivisi con applicazioni di intelligenza artificiale generativa, rappresentando un potenziale rischio per le aziende di costose violazioni dei dati.

La nuova ricerca "AI Apps in the enterprise" dei Netskope Threat Labs rivela anche che tre quarti delle aziende intervistate ora bloccano completamente almeno un’applicazione di AI generativa: questo riflette la volontà di limitare il rischio di esfiltrazione di dati sensibili. Tuttavia, poiché meno della metà delle organizzazioni applica controlli incentrati sui dati per impedire la condivisione di informazioni sensibili nelle richieste di input degli utenti, la maggior parte è ancora un passo indietro nell’adottare soluzioni avanzate di prevenzione della perdita di dati (DLP, data loss prevention) necessarie per abilitare in sicurezza l’AI generativa.

Utilizzando set di dati globali, i ricercatori hanno scoperto che il 96% delle aziende utilizza l’AI generativa, un numero che è triplicato negli ultimi 12 mesi. In media, le aziende ora utilizzano quasi dieci applicazioni di AI, rispetto alle tre dell'anno scorso, con l'1% degli utenti che ora utilizza una media di 80 applicazioni, in aumento rispetto alle 14. Con l'aumento dell'utilizzo, le aziende hanno registrato un aumento della condivisione del codice sorgente proprietario all’interno delle applicazioni AI, che rappresenta il 46% di tutte le violazioni documentate di policy DLP. Queste dinamiche mutevoli complicano il modo in cui le aziende controllano il rischio, suggerendo la necessità di un impegno verso la DLP (data loss prevention) più solido.

Ci sono segnali positivi di gestione proattiva del rischio nei controlli di sicurezza e di perdita dei dati che le organizzazioni stanno applicando: per esempio, il 65% delle aziende ora implementa il coaching per gli utenti in tempo reale per guidare le interazioni degli utenti con le applicazioni AI. Secondo la ricerca, un efficace coaching degli utenti ha svolto un ruolo cruciale nel mitigare i rischi relativi ai dati, spingendo il 57% degli utenti a modificare le proprie azioni dopo aver ricevuto alert.

“La protezione dell’AI generativa richiede ulteriori investimenti e maggiore attenzione poiché il suo utilizzo permea le aziende, senza segnali di rallentamento nel breve periodo”,Le aziende devono riconoscere che i risultati ottenuti dall’AI generativa possono inavvertitamente esporre informazioni sensibili, diffondere disinformazione o persino introdurre contenuti malevoli. Richiede un solido approccio alla gestione del rischio per salvaguardare i dati, la reputazione e la continuità aziendale”, commenta James Robinson, Chief Information Security Officer di Netskope.


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.