Pentagono e aziende tech: l’intelligenza artificiale entra nelle reti classificate

Il Dipartimento della Difesa ha stipulato intese con big tech per inserire AI nelle reti classificate, mentre l’esclusione di Anthropic apre questioni tecniche, regolatorie e politiche

Il Dipartimento della Difesa degli Stati Uniti ha annunciato il 1° maggio una serie di intese con grandi fornitori tecnologici per implementare funzionalità di intelligenza artificiale direttamente nelle reti classificate. L’accordo coinvolge nomi come SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft, Amazon Web Services e Oracle, con l’obiettivo di abilitare capacità su Impact Level 6 e Impact Level 7. Questo passaggio segna la transizione dell’AI da supporto sperimentale a componente infrastrutturale per decisioni e operazioni militari.

Obiettivi operativi e trasformazione dottrinale

La strategia dichiarata punta a potenziare la consapevolezza situazionale, accelerare la sintesi dei dati e migliorare i processi decisionali dei comandi in scenari complessi. Il Dipartimento parla apertamente di un modello in cui l’AI diventa leva centrale della superiorità decisionale, ricollocandola come elemento fondante della dottrina operativa. In questo contesto il termine AI-first è usato per indicare l’integrazione sistematica di modelli e servizi cloud nei flussi di lavoro militari, non più relegati a progetti pilota.

Dalla sperimentazione all’operatività

La decisione di portare modelli di frontiera nelle reti classificate implica procedure di onboarding più rapide e una reingegnerizzazione delle pratiche di sicurezza. Il Dipartimento afferma che processi che prima richiedevano mesi saranno compressi per rispondere alla necessità di velocità operativa. L’adozione su larga scala richiede però un bilanciamento continuo tra performance, sicurezza dei dati e controllo sull’uso finale delle tecnologie.

Strategia industriale: evitare il lock‑in e rinforzare la resilienza

Accanto agli aspetti operativi, l’iniziativa risponde a una precisa scelta industriale: ridurre il vendor lock per costruire uno stack tecnologico americano resiliente. Con vendor lock si intende la dipendenza da un unico fornitore che limita la flessibilità e aumenta il rischio di interruzioni. La pluralità di partner serve a creare opzioni alternative, mitigare rischi di supply chain e mantenere il controllo sull’evoluzione e l’uso dell’AI in ambito difesa.

Resilienza e sicurezza nazionale

Per il Dipartimento la capacità di mantenere un ecosistema domestico di sviluppatori avanzati è una componente della sicurezza nazionale. L’AI viene descritta non solo come un elemento di efficienza operativa, ma come un asset geopolitico: controllare la tecnologia significa anche preservare la capacità di risposta strategica e la competitività dello Stato in scenari multipolari.

GenAI.mil: numeri che mostrano la scala

Tra gli elementi a supporto della narrativa c’è la piattaforma interna GenAI.mil, che il Dipartimento ha citato come prova di scala. In appena cinque mesi dal lancio la piattaforma è stata utilizzata da oltre 1,3 milioni di utenti tra militari, civili e contractor, ha processato decine di milioni di prompt e distribuito centinaia di migliaia di agenti AI. Questi numeri indicano una penetrazione rapida delle tecnologie generative all’interno dei flussi di lavoro del Dipartimento.

Banco di prova e limiti

GenAI.mil funge da laboratorio operativo per valutare rischi, benefici e modalità di integrazione su larga scala. Tuttavia, l’estensione di queste soluzioni verso gli ambienti più sensibili richiederà controlli di governance più stringenti e chiarimenti sui diritti d’uso e sulla responsabilità in caso di errori o abusi.

La questione Anthropic: esclusione e implicazioni

Un elemento che ha attirato molta attenzione è l’assenza di Anthropic dall’elenco dei fornitori ammessi. Secondo quanto emerso, la disputa non è principalmente tecnologica, ma regolatoria: Anthropic avrebbe rifiutato di accettare alcune condizioni richieste dal Pentagono riguardo ai diritti di accesso e controllo dei modelli. In conseguenza di ciò l’azienda è stata indicata come rischio per la supply chain e esclusa dall’uso diretto nei programmi più sensibili.

Tensione tra industria e Stato

La vicenda illustra come il rapporto tra governo e industria tech sia complesso e sfaccettato: da un lato la Difesa reclama pieno controllo per ragioni di sicurezza, dall’altro le aziende avanzano istanze legate a limiti etici e commerciali sul riutilizzo dei modelli. Il caso dimostra che la governance dell’AI resta un terreno in cui innovazione, responsabilità e politica si intrecciano e dove le scelte su chi entra e chi resta fuori ridefiniscono dinamiche di potere tecnologico.

In sintesi, l’apertura delle reti classificate all’AI rappresenta una svolta significativa nella modernizzazione del Dipartimento della Difesa: apre opportunità operative e industriali ma apre anche questioni complesse su governance, controllo e relazioni con i fornitori. La partita tra velocità dell’innovazione e requisiti di sicurezza rimane aperta e sarà decisiva per definire il ruolo dell’AI nelle future strategie militari.

Scritto da Stefano Galli

AGCOM chiede a Bruxelles di verificare l’impatto di Google AI Overviews sui giornali