Salta al contenuto
15 Maggio 2026

Agenda di Anthropic e rischio di miglioramento ricorsivo per la PA italiana

Anthropic ha tracciato scenari che mettono al centro il miglioramento ricorsivo e la diffusione dell'AI: un alert per i decisori della PA italiana su rischi, governance e formazione

Agenda di Anthropic e rischio di miglioramento ricorsivo per la PA italiana

Il panorama dell’Intelligenza artificiale ha ricevuto un segnale forte quando Anthropic ha annunciato il lancio del The Anthropic Institute (TAI) il 7 maggio 2026 e ha pubblicato la propria agenda di ricerca. Nello stesso documento Jack Clark, co‑fondatore, ha posto una stima che non può essere ignorata: >60% di probabilità che entro la fine del 2028 un sistema AI possa addestrare autonomamente un modello più potente del proprio. Questo dato riapre il dibattito non solo tra ricercatori e imprese tecnologiche, ma anche tra amministrazioni pubbliche che devono governare servizi critici.

È essenziale leggere l’agenda TAI non come mera dichiarazione aziendale ma come una fonte di segnali pratici: l’istituto unisce team di stress testing, studi sugli impatti socioeconomici e ricerche economiche, offrendo ciò che Anthropic definisce un vantaggio informativo di chi costruisce modelli di frontiera. Le implicazioni per la pubblica amministrazione italiana vanno dalla sicurezza informatica alla manutenzione del pensiero critico tra i dipendenti pubblici, fino alle modifiche nella formazione professionale e nella governance del ritmo di adozione tecnologica.

Le grandi aree dell’agenda e le ricadute per la PA

L’agenda di TAI è organizzata in quattro filoni principali che influenzano direttamente la gestione pubblica: diffusione economica, minacce e resilienza, AI systems in the wild e ricerca guidata dall’AI. Il primo filone, l’Economic Diffusion, analizza chi ottiene benefici e chi rischia di rimanere indietro: se pochi modelli permettono a pochi operatori di svolgere il lavoro di molti, la macchina amministrativa cambia forma. Per gli enti locali questo significa ripensare organici, percorsi di carriera e processi di apprendimento on the job.

Miglioramento ricorsivo: perché conta

Il concetto di miglioramento ricorsivo (recursive self-improvement) sta al centro delle preoccupazioni: finora l’evoluzione dei modelli era guidata da competenze umane; se invece l’AI inizia a progettare e addestrare versioni più avanzate di sé, la traiettoria di progresso può accelerare in modo non lineare. Questo solleva domande di governance fondamentali: chi decide il ritmo di sviluppo? e quali meccanismi permettono a istituzioni pubbliche di monitorare questa velocità in tempo reale?

Minacce, uso collettivo e fragilità istituzionale

Il secondo blocco di temi, Threats and Resilience, tocca la natura dual‑use dei modelli: capacità utili per la pubblica amministrazione possono essere usate anche per attacchi informatici più sofisticati. Negli ultimi anni gli attacchi a enti locali sono aumentati; l’arrivo di tool AI più potenti abbassa la soglia tecnica per attori malintenzionati. Perciò la sicurezza non è più un problema solo del CED: richiede strategie intersettoriali e investimenti in resilienza digitale con priorità di protezione dei servizi essenziali.

AI systems in the wild e rischio di omogeneizzazione

TAI dedica attenzione anche ai fenomeni che emergono quando molte persone si affidano agli stessi modelli: la diffusione di stili comunicativi, bias condivisi e una possibile erosione del pensiero critico. Per la PA la questione è pratica: se si insegna ai funzionari ad usare AI per produrre atti e relazioni senza sviluppare competenze di valutazione critica, la conseguenza può essere una standardizzazione che aumenta la fragilità decisionale e riduce la capacità di adattamento a contesti complessi.

Indicazioni concrete per la pubblica amministrazione

Alla luce dell’agenda di Anthropic, alcune direttrici operative emergono come prioritarie per gli enti pubblici italiani: 1) smettere di confinare l’AI al reparto IT e portare il tema nelle stanze decisionali; 2) costruire capacità di monitoraggio prospettico che integrino fonti come l’Anthropic Economic Index e report internazionali; 3) investire nella qualità del pensiero critico dei dipendenti oltre che nell’uso degli strumenti; 4) promuovere aggregazioni territoriali per realizzare osservatori condivisi e servizi di intelligence tecnologica a scala regionale.

Un’idea di governance: le manopole settoriali

Una proposta originale di TAI è l’uso di manopole settoriali per regolare la velocità di diffusione dell’AI, analoghe al ruolo di un termostato o al controllo delle banche centrali sui tassi. In contesti nazionali questo solleva interrogativi istituzionali: chi ha il mandato di modulare l’adozione dell’AI nella PA? AgID, il Dipartimento per la Trasformazione Digitale e altre autorità hanno ruoli tecnici, ma manca spesso uno strumento esplicito per gestire il ritmo del cambiamento in funzione della resilienza istituzionale.

In conclusione, il documento di Anthropic non è soltanto un esercizio teorico: contiene segnali concreti che richiedono risposte pratiche da parte della pubblica amministrazione italiana. Il rischio del miglioramento ricorsivo, la trasformazione dei ruoli professionali e la necessità di preservare il pensiero critico impongono di ripensare formazione, strutture e governance. Agire ora significa dotarsi degli strumenti per monitorare, valutare e regolare l’impatto dell’AI prima che l’inerzia del mercato decida il ritmo al posto delle istituzioni.

Autore

Francesca Spadaro

Francesca Spadaro ha ricostruito una catena di investimenti veronese partendo dai bilanci depositati alla Camera di Commercio; è analista finanziaria che coordina dossier su PMI e mercati. Laureata in economia, collabora con camerali locali e cura newsletter economiche territoriali.