Argomenti trattati
Negli ultimi tempi il confronto pubblico italiano sulla regolazione dei social si è intensificato, anche alla luce delle prime battute d’arresto giudiziarie di Meta e Google negli Stati Uniti e di varie proposte legislative depositate in Parlamento. In questo scenario il rischio è quello di limitarsi a reagire agli effetti senza toccare le cause: il DDL 1859 cambia prospettiva e punta dritto al modo in cui le piattaforme progettano i sistemi che selezionano e amplificano i contenuti.
La scelta di mettere sotto osservazione il design non è solo tecnica ma politica: si tratta di intervenire sulle pratiche che plasmano lo spazio pubblico digitale, influenzano i minori e modellano la qualità del dibattito civico. Il testo non pretende di censurare opinioni, bensì di regolamentare i meccanismi che determinano cosa vediamo, quanto tempo restiamo e con quale intensità veniamo sollecitati.
Il quadro europeo e il limite delle norme esistenti
L’Unione europea ha dotato il mercato di strumenti fondamentali: il GDPR tutela i diritti sui dati personali, il Digital Services Act introduce trasparenza e obblighi di audit sui sistemi di raccomandazione, il Digital Markets Act affronta squilibri concorrenziali e l’AI Act classifica i sistemi di intelligenza artificiale per rischio. Tuttavia, queste norme centrano spesso i dati, i contenuti e la trasparenza formale, lasciando in parte scoperto il punto cruciale: la logica di progettazione delle interfacce e degli algoritmi che massimizzano reazioni emotive e permanenza degli utenti.
Un precedente normativo importante
L’Unione europea conosce già interventi che colpiscono la tecnica comunicativa piuttosto che il contenuto: il divieto di pubblicità subliminale è un esempio. Allo stesso modo, pratiche come lo scroll infinito, l’autoplay impostato per default, le notifiche a rinforzo variabile e la gamification della permanenza operano con una logica che può aggirare la capacità critica dell’utente su scala molto più ampia.
I tre livelli di rischio su cui interviene il DDL 1859
Il testo distingue almeno tre aree di rischio. Primo, la dipendenza algoritmica: tecniche di design che rendono difficile interrompere la fruizione e sfruttano meccanismi di rinforzo simili a quelli alla base di molte dipendenze comportamentali. Secondo, l’influenza algoritmica: la selezione e il ranking dei contenuti orientano attenzione e priorità informative attraverso profilazione e premi per determinati segnali emotivi. Terzo, la manipolazione selettiva, quando l’operatore interviene intenzionalmente per amplificare o silenziare contenuti per fini politici o commerciali.
Evidenze e casi concreti
Ricerche scientifiche hanno dimostrato che modifiche al ranking del feed possono influenzare opinioni politiche in tempi rapidi (studi pubblicati su riviste come Science). Eventi concreti, come l’annullamento delle elezioni presidenziali in Romania a dicembre 2026 per interferenze digitali coordinate via TikTok, mostrano che la manipolazione algoritmica non è un’ipotesi teorica ma un rischio reale.
Strumenti giuridici proposti e impatto sulla responsabilità
Tra le misure più rilevanti il DDL introduce il principio della non profilazione come regola di base: la fruizione senza profilazione comportamentale deve essere gratuita e attivabile di default; ogni profilazione richiede un consenso espresso. L’articolo 4 definisce un duty of care algoritmico che obbliga le piattaforme a progettare i servizi per ridurre il rischio all’origine, inclusa la rilevazione di crisi psicologiche nei sistemi di IA conversazionale. L’articolo 12 prevede una responsabilità civile con inversione dell’onere della prova, modellata sull’articolo 2050 del codice civile: se il danno è verosimilmente collegato al design, spetta al gestore dimostrare di aver adottato tutte le misure idonee.
Enforcement, sanzioni e misure per l’alfabetizzazione
L’autorità competente è AGCOM, investita di poteri ispettivi, linee guida tecniche vincolanti e provvedimenti urgenti. Le sanzioni previste arrivano fino al 2% del fatturato mondiale per violazioni relative a dipendenza algoritmica e duty of care e fino al 4% per casi di influenza e manipolazione selettiva, con un’aggravante del 50% in caso di coinvolgimento di minori o vicinanza a consultazioni elettorali. L’80% delle somme riscosse è destinato a un Fondo per l’alfabetizzazione digitale, riconoscendo che formazione e regolazione devono procedere insieme.
Misure esclusivamente proibizioniste, come il Social Media Minimum Age Act australiano di novembre 2026, rispondono a emergenze ma non cambiano il modello che genera i danni; anzi, rischiano di spingere i giovani verso spazi meno regolati. Il DDL 1859 prova a invertire questa logica: non si tratta solo di limitare l’accesso, ma di ridefinire le condizioni tecniche e commerciali con cui i social operano. Se l’obiettivo è proteggere la democrazia e i più fragili, la discussione deve spostarsi dal contenuto al motore che lo produce.

