Una riflessione di Vincenzo Costantino di Commvault su come affrontare I rischi derivanti dai continui progressi registrati dall’AI e dal suo uso improprio da parte dei criminali informatici
Autore: Redazione ImpresaCity
Immaginate di essere a capo delle attività di sicurezza e protezione dei dati in qualità di Chief Information Security Officer (CISO) di un’azienda globale, quando una tempesta di chiamate e messaggi istantanei sconvolge la vostra routine mattutina. Un attacco inarrestabile guidato dall’intelligenza artificiale ha preso il controllo di dispositivi, sistemi e reti, minacciando i vostri dati.
Con i continui progressi registrati dall’AI, cresce la preoccupazione per il suo uso improprio da parte dei criminali informatici. Le minacce basate su questa tecnologia hanno il potenziale per essere più sofisticate, adattive e dannose degli attacchi tradizionali. Per contrastare questo panorama di rischi in evoluzione, è necessario quindi adottare una strategia di resilienza che abbracci approcci altrettanto innovativi.
I criminali informatici sfruttano l’AI per esplorare miglioramenti e tecniche volti ad aumentare le loro capacità di attacco. Gli esempi non mancano, come vediamo qui di seguito.
L’AI generativa consente ai malintenzionati di automatizzare le attività fraudolente, come la creazione di email di phishing, la generazione di falsi account, recensioni e commenti sui social media, l’impersonificazione di agenti di servizio e assistenza e la realizzazione di truffe. I vasti set di credenziali e dati personali rubati possono essere analizzati in pochi secondi per migliorare le campagne di phishing e social engineering.
Le minacce informatiche e le botnet guidate dall’intelligenza artificiale che si modificano durante le fasi di attacco espongono i team IT a rischi esponenziali, evolvendosi in tempo reale per evitare le misure di sicurezza, identificare vulnerabilità nei sistemi target e coordinare gli attacchi in modo più efficiente rispetto alle minacce generate dall’uomo. Una preoccupazione crescente nel campo della cybersicurezza è legata alle minacce generate dall’AI in grado di aggirare le difese tradizionali basate su firma.
Gli attori delle minacce celano in modo creativo codice pericoloso ed exploit zero-day per ampliare la distribuzione dell’attacco ed estenderne il raggio d’azione nascondendo il payload dannoso, ad esempio, all’interno di un modello di intelligenza artificiale costruito per svolgere funzioni legittime come l’autenticazione biometrica. In un altro scenario, gli attaccanti possono manipolare l’AI per apprendere gli algoritmi dei sistemi di intrusione delle minacce ed eluderne il rilevamento.
Automatizzando il processo di accesso non autorizzato ad account e sistemi aziendali attraverso credenziali rubate e combinazioni di password comuni, l’intelligenza artificiale accelera l’attacco stesso. Inoltre, gli algoritmi di apprendimento automatico vengono utilizzati per eludere i sistemi di rilevamento e gli strumenti basati sull’intelligenza artificiale accelerano il cracking delle password analizzando gli schemi nei database di password trapelati.
Video e audio generati dall’AI impersonano voci e volti familiari per indurre le persone a compiere azioni che garantiscono l’accesso a dati, sistemi e fonti sensibili. La tecnologia alla base dei deepfake crea audio e immagini convincenti con input minimi raccolti tramite i social media o altre piattaforme pubbliche. L’intelligenza artificiale ha il potere di amplificare l’impatto e la complessità degli attacchi, aumentando i danni e i rischi per i patrimoni di dati.
Vincenzo Costantino è Sr. Director South Western Europe, Sales Engineering di Commvault