Un video realistico, una voce credibile, un volto perfettamente costruito da un algoritmo. Bastano pochi secondi perché un contenuto sintetico si confonda con la realtà, generando fiducia, indignazione o panico. Nell’era dell’intelligenza artificiale, l’informazione non è più solo raccontata: è prodotta, moltiplicata e alterata da sistemi capaci di simulare l’umano con una precisione inquietante.
La linea che separa la verità dalla manipolazione si assottiglia. I deepfake non sono più curiosità da laboratorio ma strumenti di influenza politica, commerciale e sociale. Ogni notizia può essere replicata, riscritta, clonata. E la fiducia nel giornalismo, già fragile, vacilla.

L’Italia ha scelto di reagire con una norma che fa discutere: la Legge n.132/2025, la prima in Europa a introdurre un reato specifico per chi diffonde contenuti falsificati con intelligenza artificiale. È una scelta che nasce da un’urgenza: proteggere la verità e la credibilità dell’informazione. Ma apre anche un interrogativo inevitabile: chi controllerà la verità, quando a produrla saranno le macchine?
L’AI come minaccia
L’intelligenza artificiale ha moltiplicato la velocità e la quantità delle notizie, ma non la loro qualità. Modelli linguistici e sistemi generativi producono testi, immagini e video in grado di imitare perfettamente lo stile umano, spesso senza distinzione tra ciò che è vero e ciò che è inventato. Il risultato è un sovraccarico informativo che confonde il pubblico e mette in crisi la funzione primaria del giornalismo: filtrare, verificare, interpretare.

Nel Mondo circolano oltre 500.000 video deepfake, in aumento del 900% rispetto a tre anni fa (fonte: Deeptrace 2024). Le piattaforme social, dove l’algoritmo premia l’engagement più che la verità, amplificano questa distorsione. Le redazioni si trovano a competere non solo con l’informazione non verificata, ma con una disinformazione generata automaticamente.
Quando tutto può essere generato da una macchina, la credibilità diventa un bene raro. L’informazione rischia di trasformarsi in un ecosistema autoreferenziale, dove il valore non è più la verità, ma la viralità.
La legge italiana
Di fronte a una situazione sempre più contaminata da contenuti sintetici, l’Italia diventa il primo Paese europeo a varare una legge organica sull’intelligenza artificiale. La Legge n.132/2025 non si limita a regolare gli aspetti tecnici della tecnologia, ma interviene su quelli culturali e sociali, mettendo al centro la fiducia pubblica e la responsabilità umana.
Tra i settori considerati più sensibili ci sono la giustizia, la sanità e la formazione, ma l’attenzione principale ricade sull’editoria. Qui l’intelligenza artificiale è vista come una risorsa e, insieme, una minaccia. Da un lato offre strumenti di automazione e analisi avanzata; dall’altro rischia di minare la sostenibilità economica delle testate e la paternità dei contenuti.
Il cuore della norma è l’articolo 26, che introduce il reato di diffusione di contenuti falsificati o manipolati tramite AI, con pene da uno a cinque anni di reclusione (fonte: Legge n.132/2025). È un segnale politico forte: la falsificazione digitale diventa materia penale.
La legge nasce anche dal lavoro della Commissione AI per l’informazione, presieduta da Padre Paolo Benanti, che ha individuato due emergenze: la tutela del diritto d’autore e la ricostruzione del rapporto di fiducia tra cittadini e informazione.

Deepfake e diritto
L’articolo 26 della Legge n.132/2025 introduce nel codice penale un nuovo reato: la diffusione di contenuti generati o alterati dall’intelligenza artificiale con lo scopo di ingannare o danneggiare. La pena va da uno a cinque anni di reclusione, un segnale netto che colloca l’Italia in una posizione pionieristica rispetto al resto d’Europa (fonte: Legge n.132/2025).
Il provvedimento punta a colmare un vuoto normativo: fino a oggi, chi diffondeva un video o un audio manipolato non rispondeva di un reato specifico, ma solo di ipotesi generiche come la diffamazione o la frode informatica. Ora la falsificazione digitale diventa di per sé un illecito penale. È una scelta che nasce dall’urgenza di proteggere la reputazione individuale e la fiducia collettiva, due beni sempre più vulnerabili in un ambiente informativo manipolabile con pochi clic.
L’Italia sceglie così la via repressiva, mentre l’Unione Europea, con l’AI Act, preferisce la prevenzione: obbligo di etichettare i contenuti generati artificialmente e trasparenza sugli algoritmi, ma nessuna sanzione penale (fonte: AI Act, Regolamento UE 2024/1689). Negli Stati Uniti, le leggi variano da Stato a Stato e si concentrano sui deepfake pornografici o elettorali, mentre la Cina impone watermark obbligatori e rigidi controlli governativi.
Resta una domanda aperta: punire la falsità basterà a fermarla? O servirà una cultura dell’informazione capace di riconoscerla prima che la legge intervenga?
L’altra grande frontiera aperta dalla legge sull’intelligenza artificiale riguarda il diritto d’autore. Se l’informazione diventa un materiale su cui gli algoritmi si addestrano, chi è il vero proprietario di una notizia, di un testo o di un’immagine generata da un sistema artificiale?
La legge n.132/2025
La Legge n.132/2025 interviene su questo punto aggiornando la storica normativa del 1941 e stabilendo che le opere create con l’aiuto dell’intelligenza artificiale sono protette solo se frutto di un apporto umano originale (fonte: Legge n.132/2025, art. 25). L’obiettivo è evitare che un contenuto generato in modo automatico possa godere della stessa tutela di un’opera creativa. In altre parole, la paternità resta umana.
Ma la parte più significativa riguarda l’uso dei contenuti protetti per l’addestramento dei modelli di AI. L’articolo 26 rafforza il diritto di opposizione degli autori e degli editori: chi non autorizza esplicitamente il text e data mining dei propri materiali deve essere rispettato, pena sanzioni. È un principio già previsto dalla direttiva europea sul copyright del 2019, ma ora reso effettivo in Italia con sanzioni precise e applicabili (fonte: Direttiva UE 2019/790).
La norma risponde a un problema crescente. I grandi modelli linguistici, da ChatGPT a Gemini, vengono addestrati su miliardi di testi e immagini disponibili in rete, spesso senza consenso o compenso.. L’Italia sceglie di prevenire lo scontro, stabilendo una regola chiara: se un contenuto è coperto da diritto d’autore, non può essere usato per addestrare un’AI senza licenza o consenso esplicito.
Questa impostazione tutela il valore economico del giornalismo, ma introduce anche un nodo etico: fino a che punto è possibile bilanciare innovazione e proprietà intellettuale? Limitare l’accesso ai dati può frenare la ricerca, ma ignorare il diritto d’autore rischia di svuotare di valore il lavoro creativo. È il paradosso del giornalismo nell’era algoritmica: o diventa materia prima, o torna a essere artigianato intellettuale.

Aumentato o sostituto?
L’intelligenza artificiale è già entrata il certe redazioni. Non solo come strumento di supporto, ma come parte del processo produttivo. Secondo il Reuters Digital News Report 2024, oltre il 60% delle testate europee utilizza sistemi di generative AI per la scrittura di testi, la traduzione, la moderazione dei commenti o l’analisi dei dati. In Italia, progetti come MfGPT di Class Editori o le sperimentazioni del gruppo GEDI mostrano che l’AI può velocizzare la produzione e liberare tempo per l’approfondimento.
Il rischio, però, è che l’automazione diventi sostituzione. Se i contenuti giornalistici vengono generati da modelli addestrati sugli stessi dati, il risultato è un linguaggio piatto, omologato, senza identità. La specificità delle redazioni – il tono, lo sguardo, la sensibilità – rischia di scomparire dietro la standardizzazione algoritmica.

La legge italiana cerca di prevenire questo scenario, riaffermando la centralità del lavoro umano e imponendo trasparenza nell’uso dell’AI. Ma nessuna norma può da sola difendere la qualità dell’informazione. Serve una cultura editoriale capace di integrare l’intelligenza artificiale senza delegarle la responsabilità della verità.
Il futuro del giornalismo non sarà né interamente umano né interamente artificiale. Probabilmente sarà ibrido: fatto di algoritmi che assistono, ma non decidono; di redattori che si servono della tecnologia, ma non le cedono il controllo. In questo equilibrio fragile si giocherà la prossima sfida dell’informazione. ©
Articolo tratto dal numero del 1 dicembre 2025 de Il Bollettino. Abbonati!
📸 Credits: Canva
