Salta al contenuto
16 Maggio 2026

Come cambiano le regole sull’origine artificiale dei contenuti con l’AI Act

Una panoramica pratica dei requisiti di trasparenza dell'AI Act, dei soggetti responsabili e delle conseguenze per lo spazio pubblico

Come cambiano le regole sull'origine artificiale dei contenuti con l'AI Act

La bozza delle linee guida della Commissione europea sull’attuazione dell’art. 50 del AI Act segna un passaggio operativo nella regolazione dell’Intelligenza artificiale: non si tratta solo di compliance formale, ma di restituire chiarezza alla relazione tra persone e sistemi intelligenti. La disciplina punta a rendere riconoscibile l’origine artificiale di un’interazione o di un contenuto ogni volta che tale informazione può influenzare il giudizio dell’utente, proteggendo così la capacità di scelta e la qualità del dibattito pubblico.

Il termine indicato per l’applicazione degli obblighi è il 2 agosto 2026, data dalla quale si attiveranno regole concrete per i sistemi rientranti nel perimetro dell’art. 50. Le linee guida della Commissione hanno carattere orientativo, ma assumono subito una rilevanza pratica importante per autorità, operatori e utilizzatori: chiariscono infatti come verificare, segnalare e tracciare la presenza di contenuti sintetici e sistemi interattivi che possono generare rischio di opacità.

Perché la trasparenza è centrale

La norma non è meramente tecnica: assegna alla trasparenza una funzione costituzionale, perché tutela la premessa cognitiva della libertà individuale e della partecipazione democratica. Quando un avatar, una voce sintetica o un testo generato partecipano alla formazione di opinioni pubbliche o decisioni individuali, l’identificazione dell’origine diventa condizione minima per un giudizio informato. In quest’ottica, l’obbligo informativo è pensato per prevenire fenomeni di inganno, impersonificazione, disinformazione e manipolazione su larga scala, con effetti diretti sui processi elettorali e sulla fiducia sociale.

La funzione pratica dell’informazione

Secondo la bozza, l’avviso sull’origine artificiale deve essere chiaro, distinguibile e accessibile, fornito al più tardi alla prima interazione o esposizione. L’informazione non può essere nascosta in termini contrattuali o documenti tecnici: deve emergere nel contesto concreto in modo percepibile. Questa prescrizione tutela l’affidamento razionale dell’utente, che altrimenti potrebbe attribuire al sistema qualità relazionali o competenze non effettive.

Quadro degli obblighi: chi fa cosa

La bozza ricostruisce l’art. 50 attraverso quattro obblighi distinti per oggetto e per soggetto responsabile. Si va dalla necessità di dichiarare l’uso di un sistema in interazione diretta con persone fisiche, fino all’obbligo di fornire marcature tecniche e strumenti di rilevazione per i contenuti sintetici di testo, audio, immagine e video. Accanto ai provider, che rispondono della progettazione e messa in servizio, il ruolo del deployer è centrale quando riguarda l’uso concreto del sistema e l’output effettivamente esposto al pubblico.

Responsabilità funzionale e ambito extraterritoriale

La disciplina adotta una logica di responsabilità funzionale, basata sul potere effettivo di governo della tecnologia: il provider è responsabile del prodotto, mentre il deployer risponde dell’impiego sotto la propria autorità. Il regolamento ha anche un effetto pratico extraterritoriale: operatori stabiliti fuori dall’Unione rientrano nel perimetro normativo quando l’output viene usato nel territorio europeo, con l’obiettivo di preservare la tutela dei diritti e la certezza dei rimedi nel mercato unico.

Contenuti sintetici, deepfake e verificabilità pubblica

Per i materiali generati o alterati da IA il requisito di tracciabilità assume un valore collettivo: le marcature tecniche devono consentire a piattaforme, media, ricercatori e società civile di ricostruire l’origine e la catena dell’informazione, favorendo la verificabilità pubblica. Questo strumento è pensato per distinguere tra documento autentico, simulazione intenzionale, opera creativa e manipolazione fraudolenta, contribuendo alla qualità del discorso pubblico.

Deepfake, eccezioni e controllo editoriale

L’art. 50 prevede obblighi specifici per i deepfake e per i testi rivolti al pubblico su questioni di interesse generale: il deployer deve indicarne l’origine artificiale, salvo che sia garantito un controllo editoriale umano sostanziale e una responsabilità editoriale attribuibile a una persona fisica o giuridica. La bozza tutela inoltre usi di ricerca e l’ambito artistico, riconoscendo la necessità di contemperare la trasparenza con la libertà creativa e la sperimentazione culturale.

Applicazione pratica e sanzioni

L’enforcement è affidato ad autorità di vigilanza, all’AI Office e al Garante europeo della protezione dei dati, ciascuno nei propri ambiti di competenza. Le violazioni dell’art. 50 possono comportare sanzioni severe: fino a 15 milioni di euro o il 3 per cento del fatturato mondiale annuo dell’impresa, se superiore, mentre per istituzioni e organismi dell’Unione la multa amministrativa può raggiungere 750.000 euro. Queste misure sottolineano che la trasparenza è un obbligo regolatorio, non una scelta comunicativa.

Nel complesso, la bozza delle linee guida valorizza l’idea che prima di ogni valutazione di rischio o responsabilità per danno esista un bisogno minimo di conoscenza: sapere se ciò che informa, persuade o simula proviene da una persona o da una macchina è un elemento essenziale della libertà contemporanea. La normativa mira così a proteggere il cittadino come destinatario capace di giudizio, il consumatore nei suoi diritti e la democrazia nella sua condizione di verifica del discorso pubblico.

Autore

Anna Innocenti

Anna Innocenti ha recuperato per un dossier le registrazioni del consiglio comunale di Verona dopo una notte in archivio; è collabora a coperture breaking con analisi storiche e propone rubriche tematiche. Laureata al polo veronese, partecipa a tavole rotonde locali sulla memoria urbana.