Cybercrime, truffe e intelligenza artificiale: è il momento dei rapimenti virtuali

Ecco come gli strumenti di clonazione vocale basati su AI e Chat GPT possono essere usati per compiere truffe o estorsioni

Foto di QuiFinanza

QuiFinanza

Redazione

QuiFinanza, il canale verticale di Italiaonline dedicato al mondo dell’economia e della finanza: il sito di riferimento e di approfondimento per risparmiatori, professionisti e PMI.

Le nuove tecnologie, come l’intelligenza artificiale (AI) e il machine learning (ML), possono essere utilizzate (vedi qui come) dai cybercriminali per compieretruffeed estorsioni e il “rapimento virtuale” è il nuovo crimine informatico emergente. Trend Micro, leader globale di cybersecurity, ha approfondito questo nuovo trend cybercriminale nel suo ultimo studio “Virtual Kidnapping: How AI Voice Cloning Tools and Chat GPT are Being Used to Aid Cybercrime and Extortion Scams”. Negli Stati Uniti, l’FBI ha già messo in guardia il pubblico su come i criminali informatici utilizzino la tecnologia deepfake per manipolare foto e video innocui e convertirli in schemi redditizi di sextortion. La Federal Trade Commission ha stimato che nel 2022 le perdite derivanti da queste attività illecite hanno raggiunto i  2,6 miliardi di dollari.

Qui per conoscere la strategia italiana sulla cybrsicurrezza 2022-2026. Vedi quanto è a rischio il nostro Paese.

Truffe e intelligenza artificiale

Una truffa comune prevede l’utilizzo di file vocali falsi generati dall’intelligenza artificiale, noti anche come audio deepfake, che possono essere creati utilizzando quantità anche ridotte di informazioni biometriche raccolte da contenuti personali pubblicati in fonti pubbliche come TikTok, Facebook, Instagram e altre piattaforme social, inclusi i portali governativi. Strumenti di intelligenza artificiale come VoiceLab possono elaborare la biometria vocale, dando vita a un vocale deepfake che riproduce esattamente la voce di una persona specifica. Questo processo è anche definito clonazione vocale e si verifica quando la biometria vocale è utilizzata per compiere estorsioni o frodi.

Il rapimento virtuale

Nell’aprile 2023, in Arizona, una donna di nome Jennifer De Stefano ha ricevuto una chiamata nella quale un anonimo affermava di aver rapito la figlia di 15 anni e chiedeva un riscatto di 1 milione di dollari, minacciando di compiere violenza sulla vittima, in caso di mancato pagamento. La donna ha affermato di aver sentito chiaramente il pianto, le urla e la voce supplichevole della figlia in sottofondo, anche se il criminale si è rifiutato di lasciarla parlare con la figlia al telefono. Dopo alcuni minuti di negoziazione, l’importo del riscatto è sceso a 50.000 dollari. Per fortuna, prima del pagamento, la vittima ha potuto verificare che sua figlia fosse al sicuro e che non fosse stata rapita. La questione è stata immediatamente denunciata alla polizia, che ha poi identificato la telefonata come una comune truffa,

Raccomandazioni sulla sicurezza

Quando le vittime pagano il riscatto, incoraggiano i malintenzionati a continuare a lanciare attacchi contro altre vittime. Inoltre, quando le vittime pagano il riscatto, le loro informazioni vengono aggiunte a un elenco di vittime etichettate come redditizie, che viene poi rivenduto ad altri aggressori. Questi attacchi implicano un livello di astrazione che supera le tipiche soluzioni di sicurezza a livello di router. Per questo, saranno sempre più necessarie tecniche antifrode basate sull’identità.