googlef35cdb6cf8e7c110-1.html
sabato 18 Aprile, 2026
Logo La Sintesi

Deepfake e intelligenza artificiale: il pericolo è reale?

Esaminiamo come le recenti normative europee stiano cercando di arginare la diffusione di contenuti manipolati sui principali social network

Da Davide Cannata
Condividi questa notizia nei tuoi canali, non tenerla per te:

L’AGCOM ricopre attualmente il ruolo di Coordinatore dei Servizi Digitali, una funzione stabilita dal Digital Services Act (il regolamento UE di novembre 2022). Questa autorità vigila sulle piattaforme web e protegge lo spazio digitale. Tuttavia, pochi sanno che tale incarico si lega strettamente all’intelligenza artificiale e alle norme dell’AI Act, il primo quadro normativo europeo dedicato a questa tecnologia. In questo contesto, analizzeremo come le leggi proteggano i cittadini dai contenuti manipolati che minacciano la tenuta democratica.

L’impatto dell’intelligenza artificiale sui processi democratici

La manipolazione digitale non colpisce solo la società nel suo complesso, ma intacca profondamente l’integrità cognitiva delle persone. Un esempio eclatante risale a maggio dello scorso anno: alcuni filmati mostravano le star Emma Stone e Brad Pitt mentre sostenevano la propaganda russa contro l’Ucraina. Si trattava di interviste deepfake create con l’intelligenza artificiale e doppiate in lingue straniere. Prima della rimozione, questi video hanno totalizzato migliaia di visualizzazioni sui social.

La fatica epistemica e i pericoli dei contenuti generati

Nel libro ‘Post-verità’ (Utet, 2019), Lee McIntyre descrive la “fatica epistemica” come lo sforzo necessario per distinguere il vero dal falso. Oggi l’intelligenza artificiale alimenta anche l’“automated journalism”, dove i software scrivono testi basati su fatti reali ma privi di intervento umano. Un’indagine di Newsguard di aprile 2024 ha svelato l’esistenza di content farm che creano interi siti web per pochi dollari. Queste realtà usano l’intelligenza artificiale per diffondere notizie decontestualizzate o false per favorire determinati politici.

Il ruolo di AGCOM nella vigilanza dei rischi sistemici

Esiste un rischio concreto di “de-referenzializzazione” della conoscenza, dove la verosimiglianza sostituisce la verità fattuale. Alcuni studiosi, come Quattrociocchi (2025), definiscono “epistemia” l’illusione che le chatbot offrano vera conoscenza. Nonostante ciò, l’intelligenza artificiale resta un alleato fondamentale per il newsmaking e il fact checking. Il DSA e l’AI Act conferiscono all’AGCOM poteri specifici per intervenire in Italia, limitando la circolazione di contenuti dannosi e proteggendo i diritti degli utenti, come previsto anche dalla delibera 298/23/CONS e dal TUSMA.

La redazione

Potrebbe anche piacerti

error: © Riproduzione riservata