▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Perché il deepfake è una minaccia concreta per le aziende

Sembravano poco più di una boutade, ma gli attacchi deepfake sono aumentati del 13% nel 2022.

Tecnologie

Gli attacchi che sfruttano il deepfake ampliano il loro raggio d’azione. Se inizialmente si pensava che al massimo avrebbero influito sull’opinione pubblica, o creato problemi di reputazione a qualche celebrity, oggi lo scenario sta cambiando.

Il deepfake – alterazione delle sembianze e della voce di una persona in un’immagine, un file audio o un video grazie all’AI (deep learning) - ha fatto capolino nel 2017 coinvolgendo qualche attore americano, per poi dare dimostrazione di sé anche in Politica, e ora è il momento delle aziende.

Secondo il VMware Global Incident Response Threat Report 2022, nell’anno passato gli attacchi deepfake sono aumentati del 13%, con il 66% degli interpellati da VMware che ha dichiarato di aver assistito almeno a un attacco.

C’è anche l’interessante rapporto FBI - Deepfakes and Stolen PII Utilized to Apply for Remote Work Positions - che racconta che il pericolo è prossimo e le aziende private, oltre alle Istituzioni, non dovrebbero sottovalutarlo. In particolare, l’FBI lancia l’allarme su “l'uso di deepfake e informazioni per l’identificazione personale (PII) rubate per candidarsi a posizioni di lavoro da casa”. Dunque, un attacco che sfrutta il deepfake non solo può creare diversi danni a un’azienda, ma usa veicoli e obiettivi diversi.

Deepfake: attenzione ai messaggi audio

Il report di VMware sostiene che la maggioranza degli attacchi si manifestano sottoforma di video (58%) più che di audio (42%). Anche se l’audio sembra essere in crescita, visto che con la voce è più facile confondere le persone. La distribuzione, del video o dell’audio, avviene generalmente via mail, messaggio in chat, messaggio vocale, in segreteria telefonica o via social.

In particolare, le piattaforme di collaboration sono sempre più sfruttate per questo tipo di attacchi. Ci si riferisce ad applicazioni di terze parti per i meeting da remoto (31%) o, in generale, agli strumenti di collaborazione aziendale (27%).

L’obiettivo è generalmente la truffa (60% dei rispondenti), mentre il comparto IT è stato elencato come primo target (47%), seguito dalla finanza (22%) e dalle telecomunicazioni (13%).

Il deepfake viene accoppiato generalmente a un attacco di tipo BCC, Business Email Compromise. Ovvero a un attacco che “buca” la posta elettronica aziendale e che successivamente usa falsi messaggi con contenuti deepfake.

I deepfake più diffusi per truffare un’azienda

I deepfake che hanno l’obiettivo di truffare, o danneggiare, un’azienda sono generalmente di tre tipi.

La “frode a livello C” è quella che sfrutta il potere di un manager nei confronti dei dipendenti, ed è la più diffusa. In pratica, si crea un video, più frequentemente un audio, che simula voce e sembianze del CFO, per esempio, e si effettua una chiamata a un dipendente ordinandogli di compiere qualche azione. Per esempio, dirottare del denaro su un conto non noto.

C’è poi il deepfake sfruttato per incidere sulla reputazione aziendale. Per esempio, potrebbe essere facilmente prodotto un video con un CEO che annuncia che un'azienda ha perso tutte le informazioni sui clienti o che sta per fallire. L’attaccante potrebbe ricattare l'azienda con la minaccia di inviare il video alle agenzie di stampa o di pubblicarlo sui social network.

Infine, con il deepfake è possibile manipolare l'autenticazione biometrica basata sul riconoscimento facciale.

Come difendersi da un deepfake

Realizzare un deepfake non né costoso, né complicato. Basta una videocamera, una buona scheda video, uno sfondo verde e del tempo. Un attacco deepfake si basa su tecniche di social engineering e sfrutta molto bene le vulnerabilità umane. Chi si rifiuterebbe di eseguire un ordine, benché particolare, che arriva direttamente dall’Amministratore Delegato di un’azienda? La voce nel messaggio in segreteria telefonica è (quasi) identità, oppure nel video sembrava proprio lui.

Chiunque, anche un ex dipendente, può realizzare un deepfake per danneggiare la reputazione aziendale. Ed è stato calcolato che le conseguenze sono immediate e si sviluppano nell’arco di 24 ore. Per questo è fondamentale essere a conoscenza del rischio e rispondere quanto prima con una opportuna strategia di crisis management.

Il problema vero è che il deepfake è molto difficile da smascherare. Se è praticamente impossibile che il destinatario del messaggio riconosca il pericolo, l’unica strategia possibile è attivare forme di prevenzione. La più immediata prevede l’utilizzo dell’autenticazione a due fattori per ogni tipo di comunicazione in entrata o in uscita, o interazione, con il sistema di collaboration aziendale. Ogni volta che qualcuno interagisce con la piattaforma, deve fornire la doppia autenticazione, eventualmente reiterandola su più azioni (upload o download del contenuto).

Diversi vendor specializzati in cybersecurity stanno ragionando su nuovi sistemi di verifica e blocco dei deepfake, anche se la questione non è facile da affrontare. Per esempio, si può pensare di inserire un layer più potente per il controllo di tutti gli allegati che circolano nella piattaforma aziendale di collaboration.

Servirebbe un sistema di verifica capace di analizzare, velocemente, un maggior numero di informazioni sul file. Un sistema che però, per esempio, non avrebbe alcuna utilità nel caso di messaggi vocali in segreteria.

Intel e il suo FakeCatcher

Anche Intel, tra gli altri, sta ragionando su come smascherare un deepfake. FakeCatcher è un algoritmo di analisi di un video che lavora osservando molto da vicino il flusso sanguigno del volti. L’algoritmo utilizza una tecnica chiamata fotopletismografia (PPG), citata in una ricerca del MIT.

Il sistema utilizza il toolkit di deep learning Intel OpenVino per correggere la geometria, sovrapponendo una griglia sul viso per analizzare attentamente i minuscoli cambiamenti nei colori dei vasi sanguigni sotto la pelle, ogni 64 o 128 fotogrammi. Da ogni cella della griglia del modello si estrae il “segnale PPG”, ovvero le informazioni relative al moto del flusso sanguigno, impossibili da riprodurre in un deepfake.

Secondo Intel, FakeCatcher rileva i deepfake nel 96% dei casi e in tempo reale e “resiste” anche a miglioramenti e modifiche del deepfake stesso, come la “levigazione” del viso. FakeCatcher si presta bene a essere integrato nei sistemi di videoconferenza o nei tool per l’accesso biometrico con il riconoscimento del volto.

Come per ogni modello deep learning, anche per FakeCatcher è necessario un certo periodo di addestramento e un enorme numero di dati PPG. Intel sta lavorando per migliorarne i risultati, anche e soprattutto in caso di video compressi. Il problema è che non esistono set di dati PPG sufficientemente corposi. Sembra che, per ora, esistano insiemi di qualche decina di persone, troppo pochi per costituire una base utilizzabile da un modello deep learning.

Altro limite della nuova tecnologia Intel riguarderebbe la situazione in cui la luce che colpisce il viso cambia costantemente, poiché risulterebbe difficile misurare i colori. Ma è una situazione estrema, e se ciò capita forse chi sta guardando il video dovrebbe farsi due domande.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Speciali Tutti gli speciali

Reportage

Cybertech Europe 2024

Speciale

Speciale Data Analitycs

Speciale

Speciale Multicloud

Speciale

Speciale Storage

Speciale

Speciale Networking

Calendario Tutto

Nov 26
WPC 2024
Nov 26
IDC CIO Forum, Milano
Dic 03
Dynatrace Innovate Italy
Dic 05
Nutanix Cloud Day Roadshow - Torino
Dic 11
NetApp INSIGHT Xtra
Gen 23
Nutanix Cloud Day Roadshow - Bari

Magazine Tutti i numeri

ImpresaCity Magazine


Leggi il Magazine

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter