Ad accorgersi delle potenzialità dell’IA non sono solo i cosiddetti ‘buoni’: anche il crimine organizzato sta sfruttando sempre di più quanto i sistemi di calcolo e di simulazione più avanzati mettono sul piatto. Dunque, anche nel panorama della sicurezza digitale le tecnologie generative stanno facendo sempre più la differenza, trasformando la natura stessa dei problemi legati alla cyber security e complicando notevolmente l’aggiornamento dei sistemi di sicurezza a causa del loro rapidissimo sviluppo.
Secondo le analisi più recenti, i casi in cui le frodi a danno delle aziende si avvalgono dell’intelligenza artificiale non sono più fenomeni emergenti, ma minacce divenute, in un arco temporale ridotto, tante per quantità e frequenza da essere considerate strutturali. Per di più, sono in rapida e ulteriore espansione.
Moltissimi report di aziende specializzate nell’ambito della cybersecurity confermano questa situazione, come il nuovo ‘Voice Intelligence and Security Report’ della società statunitense Pindrop, che, da ultimo, fotografa un salto di scala che ridefinisce il modo in cui le organizzazioni devono difendersi.
Un fenomeno globale: l’IA come motore delle frodi digitali
Il quadro che emerge confrontando i principali report internazionali è quello di un ecosistema criminale che ha ormai integrato l’intelligenza artificiale come leva strategica per amplificare, automatizzare e rendere più credibili le frodi digitali. Le analisi di Pindrop, ad esempio, si inseriscono in un contesto più ampio, in cui deepfake, identità sintetiche e strumenti generativi stanno trasformando l’intera catena del valore della criminalità informatica.
Secondo il suo report, focalizzato sulle aziende USA, gli attacchi contro i principali clienti sono aumentati del 1.210%, con perdite stimate in 1 miliardo di dollari, e le frodi basate sull’AI hanno superato quelle tradizionali; lo stesso dato trova riscontro nel ‘Q3 2025 Deepfake Report’ di un’altra società di analisi, Resemble AI, che documenta 2.031 incidenti classificato come ‘deepfake’ verificati in un solo trimestre, il numero più alto mai registrato; di questi, 385 casi hanno generato perdite finanziarie dirette. L’incremento non riguarda solo la quantità, ma anche la sofisticazione: gli attacchi sono sempre più mirati, industrializzati e distribuiti lungo l’intera Supply Chain.
Il fenomeno è confermato anche dal National Consumers League White Paper, che, sempre guardando alla realtà statunitense, segnala perdite dovute alle frodi informatiche pari a 12,5 miliardi di dollari nel 2024, il 25% in più nonostante il numero di segnalazioni sia rimasto stabile.
Sono quindi aumentate le frodi andate a segno: il rapporto attribuisce la maggior efficacia delle truffe proprio all’uso dell’IA, che rende gli attacchi più realistici e convincenti; non è infatti casuale che a registrare un incremento significativo sia stato il ricorso a deepfake audio e video contro le aziende.
Deepfake: la nuova arma dei truffatori
La dimensione sistemica del problema è sottolineata anche dall’intervento di KnowBe4 alla SEC, che definisce la frode AI-enabled una minaccia ‘immediata e pervasiva’, capace di rendere scalabili – leggi: facilmente accessibili – tecniche di ingegneria sociale prima limitate da costi e competenze umane. Un’altra voce, quella di Trend Micro, dal canto suo, evidenzia come i cybercriminali stiano adottando strumenti generativi per supportare attacchi che spaziano dalla compromissione aziendale all’estorsione, fino al furto d’identità, delineando un vero e proprio ‘playbook criminale’ basato sui deepfake.
Il cuore di queste tecniche è la capacità dell’IA di imitare voce e volto con un realismo tale da ingannare operatori, sistemi automatici e perfino dirigenti aziendali: i deepfake, spiega Pindrop, sono ormai strumenti quotidiani nelle mani dei criminali digitali, capaci di replicare identità reali e di superare controlli tradizionali.
Il report sottolinea come la diffusione di queste tecnologie stia alimentando un incremento significativo delle frodi soprattutto nei contact center, dove le decisioni vengono prese in tempo reale e i margini di errore sono minimi.
Tecnologia accessibile, minaccia sistemica
Nel complesso, i dati convergono su tre tendenze principali, vale a dire l’industrializzazione della frode grazie all’IA che consente di automatizzare tentativi multipli, ridurne i costi e aumentare la credibilità degli attacchi, la propagazione lungo la Supply Chain, con i deepfake che vengono utilizzati per impersonare dirigenti, fornitori, partner e candidati, colpendo i punti decisionali più vulnerabili, e la crescita delle perdite economiche – infatti, tutti i report indicano un aumento significativo dei danni, sia diretti sia indiretti.
Il report Pindrop, per citarne uno, evidenzia una crescita senza precedenti nell’uso di deepfake e identità sintetiche per colpire contact center, istituzioni finanziarie e aziende di ogni settore. Le tecniche di manipolazione vocale e video, proprio per la maggior accessibilità data dagli strumenti di generative AI, stanno alimentando un’ondata di attacchi sempre più sofisticati.
Il quadro complessivo mostra quindi un fenomeno in accelerazione, in cui la capacità dell’IA di generare contenuti sintetici convincenti sta ridefinendo le dinamiche della frode digitale. Le aziende si trovano di fronte a un salto di complessità che richiede nuove strategie di difesa, basate su autenticazioni avanzate, capacità di rilevamento dei deepfake e un approccio di sicurezza distribuito lungo tutta la Supply Chain.
Oltretutto, il rischio è in crescita per tutti i settori e l’impatto non riguarda solo il mondo finanziario. Pindrop evidenzia come retail, assicurazioni e servizi al consumatore siano sempre più esposti: la capacità dell’IA di automatizzare tentativi multipli rende gli attacchi più rapidi, scalabili e difficili da rilevare.
Il report 2024, presentato ufficialmente da Pindrop, mette in guardia anche sugli effetti collaterali, che contemplano disinformazione, danni reputazionali e perdite economiche crescenti.



