Di cosa parliamo
La tecnologia deepfake sta rapidamente diventando uno degli strumenti più pericolosi nel mondo del cybercrimine e dello spionaggio online.
Secondo recenti statistiche, il numero di video deepfake online è aumentato del 900% tra il 2019 e il 2021, con oltre l’85% di questi contenuti utilizzati a scopi illeciti.
Inoltre, una ricerca di Sensity ha rilevato che, a partire dal 2023, si stimano più di 20.000 nuovi video deepfake creati ogni mese.
Questo articolo esplora come i deepfake vengano utilizzati per scopi illeciti, concentrandosi in particolare sul loro uso per il ricatto e il cyberspionaggio.
Cos’è un deepfake?
Un deepfake è un contenuto multimediale falsificato grazie all’uso di tecnologie di intelligenza artificiale, in particolare algoritmi di machine learning e reti neurali generative.
Attraverso questi strumenti, è possibile sovrapporre i volti di persone reali su altri corpi o modificare le loro espressioni, creando video che sembrano autentici.
Oltre ai video, anche gli audio possono essere falsificati, permettendo di replicare la voce di una persona per farle dire cose mai pronunciate.
Deepfake come strumento di ricatto
Una delle applicazioni più preoccupanti dei deepfake è il ricatto.
I criminali possono creare video compromettenti di una persona, facendola apparire in situazioni imbarazzanti o illegali. Questi video vengono poi utilizzati per chiedere denaro o favori in cambio della non diffusione del contenuto.
Questo fenomeno, noto anche come “deepfake blackmail” o “revenge porn deepfake”, sta diventando sempre più comune, soprattutto contro personaggi pubblici, dirigenti aziendali e persino cittadini comuni.
La realtà è che anche senza la presenza di un video autentico, la semplice minaccia di un deepfake può bastare per esercitare una forte pressione psicologica sulla vittima.
Il realismo di questi video falsi è spesso tale da rendere difficile distinguere il contenuto manipolato da quello reale, e ciò aumenta il potere di chi li utilizza per scopi di estorsione.
Deepfake e cyberspionaggio
Nel campo del cyberspionaggio, i deepfake sono diventati un’arma sofisticata e particolarmente efficace.
Gli attori malevoli possono creare deepfake di dirigenti aziendali o rappresentanti governativi per indurre altre persone a compiere azioni specifiche. Ad esempio, un video o un audio falsificato di un amministratore delegato potrebbe essere utilizzato per convincere un dipendente a trasferire fondi a un conto bancario estero o a divulgare informazioni sensibili.
I deepfake possono anche essere usati per compromettere le relazioni internazionali, creando false dichiarazioni di leader politici che potrebbero provocare tensioni diplomatiche. La capacità di manipolare l’informazione in questo modo rappresenta una seria minaccia alla sicurezza globale e alla fiducia pubblica nei media.
Recentemente, Sophos ha condotto un esperimento per esplorare l’uso dei deepfake e delle tecnologie di intelligenza artificiale generativa per scopi di cyberspionaggio e ricatto. Sophos ha dimostrato come sia possibile utilizzare modelli di linguaggio come GPT-4 per creare siti di e-commerce fraudolenti con immagini, descrizioni dei prodotti e persino pagine di login false per rubare le credenziali degli utenti.
L’esperimento ha evidenziato come la tecnologia deepfake, combinata con strumenti come Auto-GPT, possa facilitare la creazione di campagne di truffa su larga scala, rendendo questi attacchi estremamente pericolosi e difficili da rilevare.
L’automazione del processo ha permesso di generare numerosi siti fraudolenti in poco tempo, aumentando così il potenziale di danno per le vittime.
Questo tipo di utilizzo dei deepfake rappresenta una minaccia crescente per la sicurezza personale e globale, in quanto rende sempre più difficile distinguere i contenuti autentici da quelli manipolati.
Come proteggersi dai deepfake
Riconoscere un deepfake non è sempre semplice, ma ci sono alcuni segnali a cui prestare attenzione.
Tra questi, possiamo includere una mancata sincronizzazione tra il labiale e l’audio, un movimento irrealistico degli occhi o delle espressioni facciali, o una qualità video che appare leggermente alterata. Tuttavia, man mano che la tecnologia migliora, questi segnali diventano sempre più difficili da individuare.
Per le aziende e i governi, la protezione dai deepfake richiede investimenti in tecnologie avanzate in grado di rilevare manipolazioni digitali.
Diversi strumenti e software sono stati sviluppati negli anni per riconoscere i tratti distintivi delle falsificazioni generate da AI, ma è necessario rimanere sempre aggiornati sugli sviluppi tecnologici.
Allo stesso tempo, è fondamentale aumentare la consapevolezza tra le persone, educandole sui rischi e sulle tecniche per individuare i deepfake.