IA militare e operazioni: cosa cambia dopo l’offensiva del 28 febbraio

La campagna iniziata il 28 febbraio 2026 ha trasformato l'IA in componente operativa: dall'analisi delle immagini alla logistica predittiva, ma restano limiti tecnici, legali e industriali

La campagna iniziata il 28 febbraio è diventata nei fatti il primo banco di prova del 2026 per l’uso su larga scala dell’IA militare. In poche settimane sono emersi strumenti integrati nei processi operativi: analisi automatizzata delle immagini, supporto al targeting, pianificazione operativa, cyber defense e logistica predittiva. Questo passaggio è avvenuto mentre il DoD e partner industriali ridefinivano la filiera software attorno a modelli tradizionali e generativi, mettendo in luce sfide tecniche e scelte di procurement.

È utile chiarire cosa sta già funzionando e dove invece l’IA resta solo un supporto. Non siamo davanti a macchine che decidono autonomamente chi colpire: la realtà pratica è più prosaica e si concentra su funzioni come classificazione, fusione di sensori, prioritizzazione delle attività e ottimizzazione delle risorse. Questi impieghi cambiano però la scala e la velocità decisionale a disposizione dei comandi, talvolta comprimendo processi che prima richiedevano giorni in pochi minuti.

Integrazione operativa: dalla detection alla compressione della kill chain

Il settore più maturo è l’analisi di immagini e geoint, dove sistemi come il progetto Maven vengono impiegati per rilevare, identificare e caratterizzare elementi in flussi video e satellitari. L’obiettivo non è sostituire l’analista umano, ma ridurre il tempo necessario a trovare oggetti rilevanti e a segnalare anomalie quasi in tempo reale. La conseguenza pratica è la compressione della kill chain: più rapide individuazione, correlazione, proposta di opzioni e valutazione post strike, con un impatto diretto sul numero di decisioni processabili dallo staff militare.

Targeting, point of interest e responsabilità umana

L’IA viene utilizzata in tre funzioni chiave nel targeting: riconoscimento di point of interest, correlazione con altre fonti e suggerimento delle priorità. Tuttavia esiste una frontiera giuridica netta: individuare un punto d’interesse non equivale a designare un lawful target. Il DoD, nella direttiva 3000.09 aggiornata nel 2026, insiste su appropriate levels of human judgment e richiede processi di verifica, test e conformità al diritto internazionale per mantenere un controllo umano significativo nel momento decisivo.

Impatto industriale: dati, supply chain e piattaforme

La guerra con l’IA si configura come un problema industriale: non si acquista una singola «super-AI», ma un ecosistema fatto di modelli, middleware, cloud classificati, sensori e workflow certificati. Le aziende di difesa tradizionali convivono ora con fornitori di piattaforme dati, LLM, sistemi di geoint e soluzioni di cyber-protezione. Questo ha creato nuove barriere all’ingresso e un forte rischio di lock-in quando una piattaforma diventa la dorsale di più applicazioni mission-critical.

Palantir, foundation model e rischi di dipendenza

Un caso emblematico è quello di Palantir, che si è trasformata in infrastruttura oltre che fornitore, ottenendo contratti importanti legati a Maven e al targeting. La sua capacità di integrare fonti diverse e utenti distribuiti in ambienti classificati ha creato un moat infrastrutturale. Allo stesso tempo la dipendenza da foundation model esterni rappresenta una vulnerabilità strategica: il procurement militare oggi valuta la robustezza della supply chain e la possibilità di sostituire o controllare i modelli di base.

Logistica, spettro e cyber: dove l’IA paga subito

Se si cerca il ritorno operativo più evidente, la logistica predittiva è in cima alla lista. Algoritmi che prevedono domanda di munizioni, carburante e ricambi, monitorano la salute dei mezzi e ottimizzano lo stoccaggio e le rotte possono evitare che una forza rimanga senza risorse decisive. Nel teatro indo-pacifico l’IA è vista come strumento per preposizionare rifornimenti, coordinare convogli over-the-shore e usare veicoli autonomi in aree negate.

Guerra elettronica e cyber defense

Nello spettro elettromagnetico l’IA serve ad analizzare rapidamente ambienti caotici e ad adattare contromisure; DARPA e programmi come BLADE lavorano in questa direzione. Nel dominio cyber il valore operativo si concentra su triage, detection e risposta rapida, con automazione che riduce i falsi positivi e priorizza gli allarmi, ma senza delegare campagne offensive complesse a agenti autonomi.

Limiti, rischi etici e governance

Esistono limiti tecnici, ambientali e cognitivi: sistemi poco robusti, dati degradati da fumo o spoofing, e la tendenza dei modelli generativi a produrre allucinazioni. In contesti bellici questi problemi possono tradursi in errori letali o in escalation non intenzionali. Sul piano normativo manca un trattato globale vincolante: i negoziati alla Convention on Certain Conventional Weapons procedono lentamente, mentre report come quello di SIPRI sottolineano l’importanza del procurement responsabile, con requisiti di auditabilità e testabilità al momento dell’acquisto.

Conclusione: supporto sì, delega no

L’IA è già integrata nelle operazioni quando aiuta a cercare obiettivi, fondere dati, pianificare e mantenere catene logistiche. Ma resta chiaro che il futuro operativo accettabile passa per il supporto decisionale, non per la delega completa dell’uso della forza. Le scelte industriali, le regole di procurement e le garanzie di governance determineranno se questa tecnologia amplificherà la capacità decisionale in modo controllato o introdurrà rischi sistemici difficili da gestire.

Scritto da Marco Santini

Bozza del 28° regime: armonizzare le regole per startup e scaleup in Europa