Il 46% delle minacce agite a livello mondiale con l’utilizzo di deepfake avviene mediante video manipolati. È quanto emerge dal primo Deepfake Intelligence Report prodotto da IdentifAI, startup italiana dedicata allo sviluppo di tecnologie difensive contro i media sintetici e per l’individuazione di immagini e video prodotti con l’intelligenza artificiale generativa.
L’analisi, che ha coperto un arco temporale compreso tra il 2020 e i primi mesi del 2026 e ha riguardato l’ambiente digitale mondiale, ha rivelato le diverse nature dei vettori utilizzati per gli attacchi, degli ambiti geografici coinvolti e degli obiettivi prescelti, oltre che delle finalità degli attori. Se, come detto, il 46% degli incidenti ha visto l’utilizzo di video deepfake, quasi uno su quattro, il 24,6%, ha avuto finalità di manipolazione politica, mentre uno su cinque, il 20,1%, mirava alla frode.
La pornografia ha riguardato l’11,3% delle manipolazioni, mentre l’abuso di celebrità e la satira registrano rispettivamente il 9,3% e il 3,2% di esse, a conferma di quanto questi strumenti siano indirizzati prevalentemente alla sovversione o alterazione politica e alla monetizzazione.
Mentre il primo obiettivo è perseguito sostanzialmente da minacce permanenti avanzate sostenute da governi ostili o da gruppi di hacktivisti, il secondo è tipico dei gruppi cyebrcriminali, che abbattono così notevolmente il costo del social engeneering necessario a penetrare i sistemi aziendali. Anche i deepfake pornografici possono essere utilizzati a scopo estorsivo, ma possono avere anche finalità politiche attraverso attacchi reputazionali a obiettivi pubblicamente esposti.
Spesso i vettori di attacco non sono univoci, bensì mutivariabili, con l’utilizzo sapientemente miscelato, a seconda degli obiettivi prescelti e dei veicoli di disseminazione identificati, di diverse modalità: una campagna può ad esempio utilizzare una immagine statica sintetica per affermare una falsa narrativa su X, successivamente validata da un testo generato artificialmente e amplificato da ondate algoritmiche su TikTok.
La gran parte degli incidenti ha riguardato gli Stati Uniti d’America, dove si è concentrato il 46,9% degli attacchi, in gran parte orchestrati con vettori multivariabili per aumentarne l’efficacia. Ben lontano, al secondo posto, il Regno Unito con l’8,2% degli episodi, seguito dall’India con il 7,2% e Israele con il 6,6%.
Gli attori malevoli prediligono lo sfruttamento dell’amplificazione algoritmica consentita da piattaforme di social network come X, canale di distribuzione primario dei deepfake con il 51,2% degli incidenti rilevati, o TikTok, dove ha viaggiato il 21,1% degli atti ostili perpetrati attraverso video manipolati o interamente generati con la IA, o YouTube, con il 10% dei casi.
“Le nostre scoperte – osserva Marco Ramilli, CEO e co-fondatore di identifAI – confermano che i deepfake e altri contenuti sintetici sono ormai strumenti facilmente accessibili per estorsioni e campagne di disinformazione su larga scala. Man mano che gli attori malevoli si spostano verso la generazione in tempo reale e il dispiegamento automatizzato, la finestra per l’intervento umano si sta riducendo rapidamente. La resilienza delle istituzioni non dipende più dalla moderazione reattiva, ma dall’integrazione, a livello architetturale, di sistemi di rilevamento multi-modali matematicamente rigorosi per sostenere la verità e difendere l’integrità del nostro mondo digitale e delle nostre istituzioni”.
Scopri di più da GazzettadiMilano.it
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.






























































