Argomenti trattati
Due settimane di apertura non bastano a riscrivere le regole globali, ma quando una giuria di Santa Fe si trova a giudicare le pratiche di una big tech, il risultato assume portata simbolica. Nel processo promosso dal procuratore generale del New Mexico ai sensi dell’Unfair Practices Act, Meta — proprietaria di Facebook, Instagram e WhatsApp — è chiamata a rispondere delle scelte di design che, secondo l’accusa, avrebbero favorito il profitto sull’incolumità dei minori.
Le testimonianze raccolte in aula spaziano da insegnanti a whistleblower, passando per esperti clinici e dirigenti della società. Al centro del dibattito c’è l’ipotesi che funzioni come le raccomandazioni algoritmiche e le notifiche siano state progettate in modo da aumentare il coinvolgimento, esponendo gli utenti più giovani a contenuti nocivi e contatti predatori. Questo processo è solo uno dei tanti procedimenti analoghi avviati da più di quaranta stati, ma è tra i primi ad arrivare a una sentenza effettiva, qualità che ne fa un caso-pilota con possibili ripercussioni internazionali.
Le accuse in aula e la richiesta di risarcimento
I pubblici ministeri hanno formalizzato una domanda che punta a una sanzione superiore ai 2 miliardi di dollari, calcolata moltiplicando la multa massima di 5.000 dollari per violazione dolosa per il numero stimato di 208.700 utenti minorenni nel New Mexico nell’arco di alcuni anni. L’impostazione processuale si basa sulla cosiddetta logica del danno aggregato, già vista in cause contro i produttori di oppioidi, e richiede alla giuria di accertare non solo la conoscenza del rischio, ma anche un eventuale intento di occultamento.
Prove interne e difficoltà probatorie
Documenti interni presentati dall’accusa mostrano ricerche di Meta in cui si registrerebbero pattern di uso problematico tra gli adolescenti. Tuttavia la distanza tra riconoscere un rischio e dimostrare un dolo intenzionale rappresenta il punto più fragile della tesi accusatoria. La difesa sottolinea che la società ha attivato strumenti di moderazione e che alcuni rischi erano dichiarati nei termini di servizio, ammettendo contestualmente che nessun filtro è perfetto. La giuria, che ha iniziato le deliberazioni il 23 marzo 2026, dovrà valutare questi elementi e decidere se applicare la sanzione massima per ciascuna violazione ritenuta dolosa.
Quadro normativo: Stati Uniti, Section 230 e approcci statali
Il contesto legislativo americano aggiunge complessità: a livello federale il KOSA (Kids Online Safety Act) è rimasto bloccato in Congresso, ostacolato da questioni costituzionali e pressioni lobbistiche. In assenza di una disciplina unificata, i procuratori generali statali hanno riadattato strumenti legali preesistenti come le norme contro le pratiche sleali per perseguire le piattaforme. Una questione chiave è la Section 230 del Communications Decency Act, che da decenni protegge le piattaforme dalla responsabilità per i contenuti pubblicati dagli utenti; i pubblici ministeri cercano invece di circoscrivere la responsabilità alla logica degli algoritmi che amplificano quei contenuti.
Strategie processuali e impatto sul modello di business
Se i tribunali dovessero riconoscere che le architetture di raccomandazione sono parte integrante della responsabilità, le conseguenze per il prodotto e per i ricavi delle grandi piattaforme sarebbero profonde. Obbligare modifiche di design significa intervenire sulle leve che determinano le metriche di engagement e, di conseguenza, sui meccanismi di monetizzazione. Il confronto giuridico tra contenzioso statale e negoziazione politica federale sta dunque tracciando un percorso che potrebbe ridefinire il modo in cui le aziende progettano i loro servizi.
Il fronte europeo e la risposta italiana
Parallelamente, l’Unione europea si è dotata di strumenti regolatori: il Digital Services Act assegna alla Commissione poteri sanzionatori fino al 6% del fatturato globale annuo per violazioni gravi. Con ricavi 2026 di Meta stimati intorno ai 165 miliardi di dollari, il potenziale tetto europeo supererebbe di molto la richiesta del New Mexico. Anche se le procedure comunitarie tendono a essere più lente rispetto a un processo civile statale, il DSA impone obblighi ex ante di valutazione dei rischi e misure di mitigazione per le cosiddette Very Large Online Platforms.
Misure italiane e implicazioni pratiche
L’Italia ha adottato interventi concreti: dal 12 novembre 2026 AGCOM ha introdotto un sistema di verifica dell’età che tutela l’anonimato, e la delibera n. 197/25/CONS del luglio 2026 ha imposto un codice di condotta per influencer con soglie di 500.000 follower o un milione di visualizzazioni mensili, prevedendo sanzioni fino a 600.000 euro per i casi più gravi. Queste misure mostrano come la combinazione di regolazione preventiva europea e azione legale statale possa coordinarsi per spingere verso un ripensamento delle scelte di prodotto.
Conseguenze per le imprese e per le policy
Indipendentemente dall’esito immediato del processo di Santa Fe, il valore più duraturo potrebbe essere concettuale: stabilire che la responsabilità si estende al design algoritmico fatturerà un cambiamento nel perimetro regolatorio. Le aziende dovranno integrare valutazioni di impatto sui diritti dei minori nelle fasi di progettazione e adottare controlli indipendenti più stringenti. Per le istituzioni e gli operatori italiani e europei, il processo resta un importante banco di prova per capire se il diritto potrà effettivamente governare le scelte tecniche che influenzano comportamenti e ricavi.

