
Il punto è questo: non si tratta di dire genericamente “qui c’è dell’AI”, ma di definire chi debba contrassegnare tecnicamente gli output, chi sia tenuto a informare il pubblico e in quali casi l’intervento umano modifichi effettivamente il perimetro dell’obbligo.
Una delle letture più diffuse del dibattito pubblico è anche una delle meno precise. L’Unione europea, infatti, non sta introducendo una etichetta universale su ogni contenuto che passi, anche solo in parte, da un sistema di AI. L’articolo 50 dell’AI Act adotta un approccio più selettivo. Interviene su specifici obblighi di trasparenza connessi ai rischi di inganno, manipolazione e riconoscibilità del contenuto, non su una dichiarazione indiscriminata relativa a qualsiasi uso strumentale dell’AI.
La distinzione centrale è tra provider e deployer. Sul versante tecnico, l’articolo 50, paragrafo 2, impone ai provider di sistemi di AI che generano audio, immagini, video o testo sintetico di predisporre gli output in modo che siano marcati in formato machine-readable e rilevabili come artificialmente generati o manipolati, con soluzioni efficaci, interoperabili, robuste e affidabili per quanto tecnicamente fattibile. Sul versante informativo, l’articolo 50, paragrafi 4 e 5, impone invece ai deployer, in casi specifici, una disclosure chiara e distinguibile verso il pubblico, in particolare quando diffondono deepfake o testi generati o manipolati dall’AI pubblicati allo scopo di informare il pubblico su temi di interesse generale. È questo doppio binario, tecnico da un lato e comunicativo dall’altro, che definisce il perimetro reale della norma.
Provider e deployer, doveri e obblighi
Il cuore tecnico dell’articolo 50, per quanto riguarda i contenuti sintetici, non riguarda soltanto una etichetta visibile all’utente finale. La norma richiede che i provider dei sistemi di AI che generano audio, immagini, video o testo sintetico adottino soluzioni di marcatura in formato leggibile dalle macchine e tali da consentire la rilevabilità dell’origine artificiale o della manipolazione del contenuto. Il regolamento precisa inoltre che tali soluzioni devono essere, per quanto tecnicamente fattibile, efficaci, interoperabili, robuste e affidabili, tenendo conto delle specificità e dei limiti dei diversi tipi di contenuto, dei costi di implementazione e dello stato dell’arte. In questo senso, la trasparenza non è costruita come semplice avviso cosmetico, ma come requisito tecnico destinato a sostenere tracciabilità, riconoscibilità e integrità informativa lungo la filiera distributiva del contenuto digitale.
Questo passaggio merita attenzione perché sposta la discussione ben oltre la semplice etichetta visibile (watermark). Il legislatore europeo infatti non si limita a chiedere un messaggio superficiale per l’utente finale, ma apre il tema della provenance del contenuto, della sua rilevabilità tecnica e della capacità dell’infrastruttura digitale di trasportare quel segnale lungo la filiera distributiva. In altri termini, la trasparenza non viene trattata solo come formula comunicativa, ma come problema architetturale.
Sul lato dei deployer, la norma entra direttamente nel rapporto con il pubblico. Chi pubblica immagini, audio o video che costituiscono deepfake deve dichiarare che quel contenuto è stato generato o manipolato artificialmente. La stessa logica si applica anche ai testi generati o manipolati dall’AI pubblicati allo scopo di informare il pubblico su temi di interesse generale, salvo le eccezioni previste dal regolamento. Inoltre, l’informazione richiesta dall’articolo 50 deve essere fornita in modo chiaro e distinguibile, al più tardi al momento della prima interazione o della prima esposizione al contenuto.
Qui si coglie bene la ratio della disposizione: non basta che l’informazione esista in astratto, magari relegata in una nota marginale o dispersa nelle condizioni d’uso. La disclosure, quando è dovuta, deve essere intelligibile, tempestiva e percepibile. La trasparenza europea, almeno in questo perimetro, non è pensata come adempimento ornamentale, ma come condizione minima per consentire al destinatario di capire con quale tipo di contenuto stia interagendo.
Le eccezioni che cambiano il perimetro
È proprio sulle eccezioni che cade una parte rilevante della semplificazione giornalistica. L’obbligo di marking posto in capo ai provider non si applica nella misura nella quale il sistema svolga soltanto una funzione assistiva di editing standard o non alteri sostanzialmente i dati di input né il loro significato. Sul lato dei deployer, la disclosure sui deepfake incontra un regime particolare quando il contenuto rientra in opere artistiche, creative, satiriche o di fiction: in questi casi l’obbligo resta, ma deve essere reso in modo appropriato, senza compromettere la fruizione dell’opera. Sono inoltre previste eccezioni per gli usi autorizzati dalla legge nel contrasto ai reati.
Ancora più rilevante, per il settore editoriale, è la disciplina dei testi generati o manipolati dall’AI pubblicati allo scopo di informare il pubblico su temi di interesse generale. In questo caso, l’obbligo di disclosure non si applica quando il contenuto sia stato sottoposto a human review o editorial control e quando una persona fisica o giuridica assuma la responsabilità editoriale della pubblicazione. Il punto, però, va formulato con precisione: questa eccezione non equivale a una esenzione generale per ogni uso dell’AI in ambito editoriale, ma opera entro quel perimetro specifico e presuppone un controllo umano effettivo e una responsabilità editoriale realmente assunta, non meramente dichiarata.
Media, piattaforme e governance
Per editori, testate, piattaforme e operatori dell’informazione, il vero punto non è soltanto stabilire se usino o meno sistemi di AI. Il nodo è costruire una governance interna capace di distinguere con chiarezza tra uso assistivo, generazione sintetica rilevante, manipolazione significativa e controllo umano effettivo. L’articolo 50, letto fino in fondo, non disciplina soltanto un contenuto: disciplina anche la credibilità dei processi attraverso i quali quel contenuto viene prodotto, verificato, pubblicato e presentato al pubblico.
Questo ha anche una dimensione industriale e operativa. L’efficacia della norma dipenderà dalla capacità di tradurre l’obbligo in standard, metadati, procedure di detection, interfacce di disclosure e pratiche organizzative che resistano al passaggio dei contenuti tra modelli, CMS, piattaforme, social network e sistemi di redistribuzione. La compliance, quindi, non sarà soltanto una questione di interpretazione giuridica. Sarà anche una questione di interoperabilità tecnica, sostenibilità implementativa e coordinamento lungo la catena del valore del contenuto digitale.
Il Code of Practice
La Commissione europea si sta muovendo anche su questo terreno con un Code of Practice volontario sul marking e il labelling dei contenuti AI-generated. La documentazione ufficiale chiarisce che il codice serve a supportare provider e deployer nella dimostrazione di conformità rispetto agli obblighi di trasparenza relativi al marking e al labelling dei contenuti generati dall’AI, in particolare rispetto all’articolo 50, paragrafi 2 e 4, senza sostituire il regolamento né modificarne il contenuto giuridico. Il secondo draft è stato pubblicato il 5 marzo 2026 e la Commissione lo presenta come una versione semplificata e più flessibile, orientata anche all’uso di standard aperti e a una maggiore praticabilità operativa.
Questo però va detto con precisione, dato che il codice non sostituisce la norma e non ne ridefinisce il contenuto giuridico. Resta uno strumento volontario di supporto. Proprio per questo è utile leggerlo per ciò che è: non una fonte normativa autonoma, ma un indicatore concreto del terreno sul quale l’Unione europea sta cercando di rendere operativi obblighi che, senza una traduzione tecnica condivisa, rischierebbero di restare fragili o disomogenei nell’applicazione.
Verso il 2 agosto 2026
L’articolo 50 conta perché, allo stato del testo vigente dell’AI Act, prova a disciplinare un complesso groviglio che da tempo riguarda informazione, fiducia pubblica, piattaforme e infrastrutture di distribuzione: la riconoscibilità del contenuto sintetico. E per questo motivo, si pone non certo inaugurando una generica era delle etichette AI, ma introducendo un primo schema europeo nel quale trasparenza, provenance, responsabilità editoriale e rilevabilità tecnica iniziano a diventare parte integrante della filiera del contenuto digitale.
Per i provider questo significa – e significherà – progettare sistemi capaci di marcare e rendere rilevabili gli output sintetici; mentre per i deployer, invece, capire con precisione quando la disclosure sia obbligatoria. Per media e piattaforme infine, significherà dotarsi di processi interni seri, non cosmetici, tali da rendere verificabile il confine tra contenuto sintetico rilevante, uso assistivo e controllo umano effettivo. Dal 2 agosto 2026, la domanda non sarà più soltanto se un’organizzazione usi l’AI, ma come ne governi l’impiego nei casi nei quali la legge europea pretende trasparenza reale.
Glossario
AI Act. E’ il regolamento europeo sull’intelligenza artificiale. Introduce un quadro normativo basato sul rischio e prevede, tra le altre cose, obblighi di trasparenza per alcuni sistemi e contenuti generati o manipolati tramite AI.
Articolo 50. Disposizione dell’AI Act che disciplina alcuni obblighi di trasparenza relativi all’interazione con sistemi AI e alla diffusione di contenuti sintetici o manipolati. È il riferimento centrale del pezzo.
Provider. Soggetto che sviluppa o mette a disposizione un sistema di intelligenza artificiale. Nell’articolo 50, per alcuni sistemi generativi, ha l’obbligo di rendere gli output marcati e rilevabili come artificialmente generati o manipolati.
Deployer. Soggetto che utilizza un sistema AI sotto la propria autorità. In alcuni casi specifici, deve informare il pubblico che un contenuto è stato generato o manipolato artificialmente.
Contenuto sintetico. Contenuto prodotto artificialmente da un sistema AI, come testo, audio, immagini o video. Nel pezzo è il tipo di output rispetto al quale la norma richiede, in certi casi, marking tecnico o disclosure.
Contenuto manipolato. Contenuto preesistente modificato in modo artificiale tramite AI. La norma non riguarda solo ciò che viene creato da zero, ma anche ciò che viene alterato in modo rilevante.
Deepfake. Immagine, audio o video generato o manipolato artificialmente in modo da rappresentare persone, scene o eventi con un elevato grado di verosimiglianza. L’articolo 50 prevede obblighi specifici di disclosure quando questi contenuti vengono pubblicati.
Marking. Marcatura tecnica dell’output generato da un sistema AI. Non coincide con una semplice etichetta visibile: indica l’inserimento di segnali o metadati che rendano il contenuto riconoscibile come artificiale.
Machine-readable. Espressione che indica un formato leggibile automaticamente dai sistemi informatici. Nel contesto dell’articolo 50, serve a rendere il contenuto sintetico tecnicamente rilevabile da software e piattaforme.
Disclosure. Comunicazione esplicita al pubblico che un contenuto è stato generato o manipolato tramite AI. A differenza del marking, è una forma di trasparenza rivolta direttamente all’utente finale.
Human review. Revisione umana del contenuto prima della pubblicazione. Nel testo dell’AI Act è uno degli elementi che possono incidere sull’applicazione dell’obbligo di disclosure per alcuni testi di interesse generale.
Editorial control. Controllo editoriale esercitato da una redazione, da un editore o da un soggetto responsabile della pubblicazione. Nell’articolo è rilevante perché può restringere il perimetro dell’obbligo di disclosure in presenza di responsabilità editoriale assunta formalmente.
Responsabilità editoriale. Assunzione formale di responsabilità sul contenuto pubblicato da parte di una persona fisica o giuridica. È uno dei passaggi chiave per distinguere l’uso dell’AI dentro un processo editoriale governato da una semplice pubblicazione automatizzata.
Provenance. In questo contesto, tracciabilità dell’origine e della trasformazione di un contenuto digitale. È uno dei concetti di sfondo del pezzo: non basta sapere che un contenuto esiste, conta anche capire da dove provenga e come sia stato prodotto o modificato.
Stato dell’arte. Livello più avanzato raggiunto, in un determinato momento, dalle soluzioni tecniche disponibili. La norma lo richiama per valutare quanto un obbligo di marking sia concretamente esigibile.
Compliance. Insieme di misure organizzative, tecniche e procedurali adottate per rispettare gli obblighi previsti dalla norma. Nell’articolo non riguarda solo il testo legale, ma anche processi editoriali, metadati, interfacce e governance interna.
Uso assistivo di editing. Impiego dell’AI come supporto a interventi standard di correzione o modifica, senza alterazione sostanziale del significato del contenuto. È uno dei casi nei quali la norma prevede un’esenzione dagli obblighi più stringenti.
Trasparenza selettiva. Espressione utile a riassumere il senso dell’articolo 50: non una trasparenza generalizzata su ogni uso dell’AI, ma obblighi mirati in funzione del tipo di contenuto, del rischio di inganno e del ruolo del soggetto coinvolto.
Fonti
Testo & Articoli dell’AI Act
AI Act Service Desk – Article 50
AI Act Service Desk – Article 113
AI Act Service Desk – Recital 13 (ruolo del deployer)
Commissione Europea — Linee Guida & Codici di Condotta
Commissione europea – Navigating the AI Act
Commissione europea – Guidelines and Code of Practice on transparent AI systems
Commissione europea – Code of Practice on marking and labelling of AI-generated content
Commissione europea – Second draft Code of Practice (5 marzo 2026)
Analisi Legali & Accademiche
JIPITEC – Analisi accademica su Article 50
Kennedys – Analisi legale sul secondo draft e sulle eccezioni editoriali