I criminali non rapinano più le banche, le ingannano. Simulano volti, riproducono voci, replicano conversazioni telefoniche. In pochi secondi, riescono a ottenere bonifici ingiustificati, aprire conti correnti o attivare finanziamenti. È la nuova frontiera delle frodi finanziarie: sofisticata, invisibile, inquietante. A guidarla è l’intelligenza artificiale generativa, con i deepfake come tecnologia chiave.
Le perdite causate da frodi basate su AI generativa negli Stati Uniti potrebbero raggiungere i 40 miliardi di dollari entro il 2027, partendo da una base di 12,3 miliardi stimata nel 2023 (Deloitte, 2024).
Un tasso di crescita annuo composto del 32% che evidenzia non solo la diffusione, ma la velocità con cui queste pratiche stanno diventando sistemiche. Il rischio non è futuro: è già in corso. E non si limita all’alterazione di immagini. La minaccia più insidiosa è sonora: bastano pochi secondi di registrazione vocale, da un video online, una call aziendale o una segreteria telefonica, per generare clip audio del tutto credibili, capaci di superare anche i sistemi di riconoscimento biometrico.
Un inganno che parla come noi
Non si tratta di episodi isolati. Già nel 2019, un manager britannico fu indotto a trasferire 220mila euro dopo una telefonata che riproduceva la voce del suo CEO. Da allora, i casi si sono moltiplicati, seguendo l’evoluzione degli strumenti a disposizione. Oggi è sufficiente un software open source o un’applicazione da pochi euro per clonare una voce, abbinare un volto e realizzare una videochiamata in cui l’interlocutore appare autentico. Alcuni attacchi recenti combinano video e audio sintetici, phishing e social engineering: l’aspetto tecnologico si intreccia con le dinamiche psicologiche della fiducia, dell’urgenza, dell’autorità.
Le vittime non sono solo utenti finali poco esperti. Anche dipendenti di istituti finanziari, assicurazioni, grandi aziende tecnologiche vengono coinvolti in scenari sempre più complessi. L’interazione umana diventa la falla principale nel sistema: la voce nota, il volto credibile, il messaggio verosimile inducono a compiere azioni senza tempo per verifiche. Il deepfake non agisce solo sulla tecnica, ma sulla percezione.
Tecnologia contro fiducia: chi sta vincendo?
A fronte di questi sviluppi, le contromisure avanzano, ma a ritmo incerto. Le banche stanno investendo in sistemi di rilevamento dei contenuti sintetici, in particolare per il voice spoofing, e in soluzioni di autenticazione multifattoriale più robuste. Deloitte stima che il Mercato globale delle tecnologie anti-deepfake possa raggiungere i 15,7 miliardi di dollari entro il 2026. Tuttavia, i sistemi di sicurezza appaiono spesso in affanno rispetto alla rapidità di adozione degli strumenti fraudolenti da parte della criminalità organizzata.
Anche i regolatori stanno intervenendo. Negli Stati Uniti, FinCEN e Finra hanno pubblicato alert specifici, mentre in Europa si discute di aggiornare le normative in materia di identificazione digitale e antiriciclaggio per includere i contenuti sintetici.
Ma resta una questione culturale: siamo entrati in un’epoca in cui la verosimiglianza digitale ha superato il nostro senso critico. E quando ogni immagine o voce può essere falsificata, la fiducia, che è la base stessa del sistema economico, si fa vulnerabile quanto un codice temporaneo di accesso.
La nuova sfida, dunque, non riguarda solo le tecnologie di difesa, ma la tenuta del tessuto fiduciario che regge i rapporti economici, bancari e istituzionali. In un contesto in cui la realtà può essere manipolata in tempo reale, la domanda non è più se la frode possa verificarsi, ma quanto rapidamente riusciremo a riconoscerla e se sarà ancora possibile farlo.
