Argomenti trattati
Nelle giornate del 24 e 25 marzo 2026 il dibattito sulle responsabilità delle grandi piattaforme social ha subito una svolta significativa: non si è più trattato solo di chi pubblica un contenuto, ma di come le piattaforme siano costruite per catturare e trattenere l’attenzione. Questi verdetti riaccendono la riflessione su cosa significhi considerare un servizio digitale come un prodotto e su quali obblighi impongano ai provider scelte progettuali che possono esporre i minori a rischi.
Le decisioni delle giurie hanno colpito Meta e, in uno dei casi, anche YouTube, aprendo scenari giudiziari e regolatori che vanno ben oltre i risarcimenti economici: la questione centrale riguarda la riconoscibilità di un difetto di progetto quando il meccanismo di funzionamento della piattaforma favorisce uso compulsivo e dipendenza.
I verdetti e le cifre che contano
Il primo pronunciamento è arrivato dallo Stato del New Mexico il 24 marzo 2026, dove una giuria ha condannato Meta a 375 milioni di dollari per pratiche ritenute ingannevoli in merito alla sicurezza e per aver esposto minorenni a rischi gravi. La sanzione è stata calcolata applicando penalità per violazione pari a 5.000 dollari per ciascuna delle 37.500 infrazioni riconosciute. Ventiquattro ore più tardi, a Los Angeles, un’altra giuria ha stabilito responsabilità per danni alla salute mentale di una giovane utente riconducibili al design di Meta e YouTube, assegnando complessivamente 6 milioni di dollari (3 milioni compensativi e 3 milioni punitivi), ripartiti 70% a carico di Meta e 30% a YouTube.
Santa Fe: il contesto e le accuse
Nel processo del New Mexico la contestazione si è focalizzata sulla rappresentazione pubblica della sicurezza delle piattaforme e sulla mancata prevenzione di fenomeni come grooming e sfruttamento. Il New Mexico Department of Justice ha descritto la sentenza come un primo successo contro una Big Tech per danni ai minori e ha annunciato una fase successiva per discutere rimedi e modifiche operative.
Los Angeles: il caso K.G.M. e il banco di prova
Il procedimento di Los Angeles ha riguardato la ricorrente indicata come K.G.M. (nota in stampa come Kaley), oggi ventenne, che ha raccontato un uso intensissimo dei servizi fin dall’infanzia con ripercussioni gravi sulla salute mentale. Al processo sono emerse testimonianze di dirigenti, whistleblower ed esperti sui meccanismi di dipendenza e raccomandazione; tra i testimoni sono comparsi anche Mark Zuckerberg e Adam Mosseri. Snap e TikTok hanno transatto prima del dibattimento, mentre Meta e Google hanno impugnato il verdetto.
Il nodo giuridico: dal contenuto al design
Storicamente la section 230 del Communications Decency Act ha protetto le piattaforme dalle responsabilità sui contenuti generati dagli utenti. Le azioni legali recenti, però, mirano a circoscrivere la questione: non si contesta il singolo post, ma le scelte progettuali come scroll infinito, autoplay, notifiche e sistemi di raccomandazione che riducono l’attrito e aumentano il tempo di esposizione. Questa strategia legale cerca di aggirare lo scudo della section 230 sostenendo che il danno derivi dal prodotto stesso, e non solo dai contenuti ospitati.
Analogie e limiti con il modello del tabacco
I ricorrenti evocano spesso il paragone con la stagione contro il tabacco, dove Stati e autorità ottennero riconoscimenti sulle pratiche di marketing e dipendenza. Gli avvocati hanno parlato di “engineering of addiction” per descrivere la scelta di funzioni che spingono al coinvolgimento continuo. Al tempo stesso esperti avvertono che la relazione causale tra uso delle app e disturbi psichici è complessa e multilivello, rendendo più difficile isolare effetti analoghi a quelli di una sostanza chimica come la nicotina.
Prospettive europee e conseguenze regolatorie
Le implicazioni non si fermano agli Stati Uniti. In Europa il DSA aveva già spostato l’attenzione sul design delle piattaforme: la Commissione europea ha aperto procedimenti formali (tra cui il 16 maggio 2026 contro Meta e il 26 marzo 2026 contro Snapchat) e ha pubblicato linee guida il 14 luglio 2026 che chiedono misure come account privati di default per i minori, limiti ai recommender e strumenti di age assurance. Il 6 febbraio 2026 la Commissione ha inoltre segnalato criticità sul design di TikTok, ribadendo possibili rimedi tecnici come pause schermo efficaci e riduzione di funzioni che incentivano l’uso compulsivo.
Il combinato disposto dei verdetti americani e delle iniziative europee indica una tendenza chiara: il diritto e la regolazione stanno spostando il baricentro dalla gestione dei contenuti alla responsabilità progettuale. Se questa linea si consolidasse, piattaforme e sviluppatori potrebbero trovarsi obbligati a introdurre attrito progettuale, limiti alle metriche di engagement e meccanismi di tutela più stringenti per proteggere fasce vulnerabili come i minori.

