Le notizie false corrono veloci, e con l’intelligenza artificiale diventano sempre più credibili.
Per questo nasce il watermark generativo, un segno digitale invisibile che viene inserito nei contenuti creati da algoritmi — immagini, video, testi o audio — per indicare che non sono frutto di un essere umano.
Uno dei sistemi più avanzati è SynthID (di Google DeepMind), che inserisce una sorta di “timbro nascosto” nei contenuti generati da AI.
Questo watermark può essere riconosciuto da software dedicati, aiutando giornalisti, piattaforme e utenti a individuare eventuali manipolazioni.
Un’altra iniziativa è la C2PA (Coalition for Content Provenance and Authenticity), che con le Content Credentials (credenziali di contenuto) permette di tracciare chi ha creato o modificato un file digitale, rendendo più difficile diffondere materiale ingannevole.
Il watermark generativo è già tra le tecnologie emergenti segnalate dal World Economic Forum per il 2025.
Non ferma da solo le fake news, ma può rendere il web più trasparente e affidabile.
Resta però fondamentale la verifica umana: nessuna tecnologia potrà mai sostituire il buon senso e l’attenzione di chi legge.



