C’è un video su TikTok. Il logo è quello del TG5, il giornalista sembra reale, la notizia sembra urgente. Ma è tutto falso: voce, volto e sfondo costruiti al computer, pezzo per pezzo. Non è fantascienza, e non è nemmeno un caso raro.
Cosa sono i deepfake
I deepfake sono contenuti — video, foto o audio — manipolati dall’intelligenza artificiale fino a diventare quasi indistinguibili da quelli veri. Secondo uno studio Ipsos, solo il 30% degli italiani conosce con precisione il termine, una percentuale bassa rispetto ad altri Paesi. Eppure il fenomeno è già nella nostra quotidianità, spesso senza che ce ne accorgiamo.
Gli usi illeciti sono vari e in crescita. Si va dall’aggiramento dei sistemi di autenticazione alle frodi finanziarie, fino all’impersonificazione di figure aziendali per autorizzare bonifici su conti falsi.
Un caso emblematico: un dipendente di una multinazionale britannica ha partecipato a una videoconferenza in cui tutti i colleghi presenti, incluso il CFO, erano deepfake generati in tempo reale. Risultato: 25,6 milioni di dollari trasferiti su conti falsi.
Come vengono regolamentati i contenuti AI
Sul fronte normativo, qualcosa si muove. Dal 10 ottobre 2025 è in vigore l’articolo 612-quater del Codice penale: chi diffonde senza consenso immagini o video falsificati con l’AI, causando un danno alla persona ritratta, rischia da uno a cinque anni di reclusione.
Come ci si difende? Prima di condividere qualcosa, vale sempre la pena verificare la fonte e controllare se la notizia compare su testate affidabili. A livello visivo, dettagli come movimenti delle labbra non sincronizzati o luci incongruenti possono essere segnali. Il 78% delle persone e delle aziende dichiara di temere l’impatto di questi strumenti, soprattutto perché la distinzione tra reale e falso è sempre più difficile.
La tecnologia evolve più in fretta delle leggi e della percezione comune. La consapevolezza, per ora, rimane lo strumento più utile che abbiamo.



