La bozza delle linee guida della Commissione europea sull’attuazione dell’art. 50 del AI Act segna un passaggio operativo nella regolazione dell’Intelligenza artificiale: non si tratta solo di compliance formale, ma di restituire chiarezza alla relazione tra persone e sistemi intelligenti. La disciplina punta a rendere riconoscibile l’origine artificiale di un’interazione o di un contenuto ogni volta che tale informazione può influenzare il giudizio dell’utente, proteggendo così la capacità di scelta e la qualità del dibattito pubblico.
Il termine indicato per l’applicazione degli obblighi è il 2 agosto 2026, data dalla quale si attiveranno regole concrete per i sistemi rientranti nel perimetro dell’art. 50. Le linee guida della Commissione hanno carattere orientativo, ma assumono subito una rilevanza pratica importante per autorità, operatori e utilizzatori: chiariscono infatti come verificare, segnalare e tracciare la presenza di contenuti sintetici e sistemi interattivi che possono generare rischio di opacità.
Perché la trasparenza è centrale
La norma non è meramente tecnica: assegna alla trasparenza una funzione costituzionale, perché tutela la premessa cognitiva della libertà individuale e della partecipazione democratica. Quando un avatar, una voce sintetica o un testo generato partecipano alla formazione di opinioni pubbliche o decisioni individuali, l’identificazione dell’origine diventa condizione minima per un giudizio informato. In quest’ottica, l’obbligo informativo è pensato per prevenire fenomeni di inganno, impersonificazione, disinformazione e manipolazione su larga scala, con effetti diretti sui processi elettorali e sulla fiducia sociale.
La funzione pratica dell’informazione
Secondo la bozza, l’avviso sull’origine artificiale deve essere chiaro, distinguibile e accessibile, fornito al più tardi alla prima interazione o esposizione. L’informazione non può essere nascosta in termini contrattuali o documenti tecnici: deve emergere nel contesto concreto in modo percepibile. Questa prescrizione tutela l’affidamento razionale dell’utente, che altrimenti potrebbe attribuire al sistema qualità relazionali o competenze non effettive.
Quadro degli obblighi: chi fa cosa
La bozza ricostruisce l’art. 50 attraverso quattro obblighi distinti per oggetto e per soggetto responsabile. Si va dalla necessità di dichiarare l’uso di un sistema in interazione diretta con persone fisiche, fino all’obbligo di fornire marcature tecniche e strumenti di rilevazione per i contenuti sintetici di testo, audio, immagine e video. Accanto ai provider, che rispondono della progettazione e messa in servizio, il ruolo del deployer è centrale quando riguarda l’uso concreto del sistema e l’output effettivamente esposto al pubblico.
Responsabilità funzionale e ambito extraterritoriale
La disciplina adotta una logica di responsabilità funzionale, basata sul potere effettivo di governo della tecnologia: il provider è responsabile del prodotto, mentre il deployer risponde dell’impiego sotto la propria autorità. Il regolamento ha anche un effetto pratico extraterritoriale: operatori stabiliti fuori dall’Unione rientrano nel perimetro normativo quando l’output viene usato nel territorio europeo, con l’obiettivo di preservare la tutela dei diritti e la certezza dei rimedi nel mercato unico.
Contenuti sintetici, deepfake e verificabilità pubblica
Per i materiali generati o alterati da IA il requisito di tracciabilità assume un valore collettivo: le marcature tecniche devono consentire a piattaforme, media, ricercatori e società civile di ricostruire l’origine e la catena dell’informazione, favorendo la verificabilità pubblica. Questo strumento è pensato per distinguere tra documento autentico, simulazione intenzionale, opera creativa e manipolazione fraudolenta, contribuendo alla qualità del discorso pubblico.
Deepfake, eccezioni e controllo editoriale
L’art. 50 prevede obblighi specifici per i deepfake e per i testi rivolti al pubblico su questioni di interesse generale: il deployer deve indicarne l’origine artificiale, salvo che sia garantito un controllo editoriale umano sostanziale e una responsabilità editoriale attribuibile a una persona fisica o giuridica. La bozza tutela inoltre usi di ricerca e l’ambito artistico, riconoscendo la necessità di contemperare la trasparenza con la libertà creativa e la sperimentazione culturale.
Applicazione pratica e sanzioni
L’enforcement è affidato ad autorità di vigilanza, all’AI Office e al Garante europeo della protezione dei dati, ciascuno nei propri ambiti di competenza. Le violazioni dell’art. 50 possono comportare sanzioni severe: fino a 15 milioni di euro o il 3 per cento del fatturato mondiale annuo dell’impresa, se superiore, mentre per istituzioni e organismi dell’Unione la multa amministrativa può raggiungere 750.000 euro. Queste misure sottolineano che la trasparenza è un obbligo regolatorio, non una scelta comunicativa.
Nel complesso, la bozza delle linee guida valorizza l’idea che prima di ogni valutazione di rischio o responsabilità per danno esista un bisogno minimo di conoscenza: sapere se ciò che informa, persuade o simula proviene da una persona o da una macchina è un elemento essenziale della libertà contemporanea. La normativa mira così a proteggere il cittadino come destinatario capace di giudizio, il consumatore nei suoi diritti e la democrazia nella sua condizione di verifica del discorso pubblico.