Argomenti trattati
Negli ultimi anni il dibattito pubblico e specialistico ha spostato l’attenzione dall’idea dell’Intelligenza artificiale come semplice ottimizzatore di processi alla sua dimensione geopolitica. Non è più sufficiente chiedersi quanto sia potente un modello: conta chi lo possiede, chi lo aggiorna e in quali reti lo si inserisce. Questo passaggio di prospettiva trasforma la tecnologia in infrastruttura strategica capace di amplificare vantaggi competitivi ma anche di generare nuove fragilità, specie quando interseca i sistemi di difesa e le reti critiche.
La conversazione pubblica ha evidenziato casi emblematici: da un lato strumenti come Mythos, evocati per la loro capacità di individuare vulnerabilità, dall’altro richieste militari di maggiore interoperabilità tra piattaforme. Queste osservazioni sollevano questioni non solo tecniche ma politiche: come gestire la dipendenza da competenze private e quale equilibrio trovare tra apertura dei sistemi e tutela del segreto operativo?
L’AI come infrastruttura di potere
Vedere l’AI come parte della dotazione nazionale significa riconoscere che essa attraversa e modifica gli strumenti tradizionali di potenza: basi, radar, satelliti e catene logistiche restano cruciali, ma la capacità di analizzare dati, prevedere mosse e orchestrare sistemi in tempo reale diventa un moltiplicatore. L’integrazione tecnologica può rendere più efficaci le operazioni, oppure esporle a nuovi vettori di attacco. Quando un modello identifica falle o coordina risposte, la sua azione si estende ben oltre il codice: incide sui tempi decisionali e sui confini della competizione tra Stati e attori privati.
Il triangolo Stato, contractor e Big Tech
La relazione tra Stato e industria della difesa si è complicata con l’ingresso delle Big Tech e dei fornitori di piattaforme cloud. Tradizionalmente lo Stato ordinava e i contractor costruivano sistemi fisici; oggi esiste un terzo polo che fornisce non solo risorse computazionali ma anche l’ecosistema software dove quegli stessi sistemi devono operare. Questo cambiamento implica che il valore non è più solo nell’hardware ma nel linguaggio comune che rende possibili gli scambi di dati e la cooperazione tra apparati differenti.
Interoperabilità e rischi
La richiesta di aprire interfacce software per favorire l’integrazione aumenta l’efficienza operativa ma comporta la condivisione di informazioni sensibili. Rendere un radar o una batteria antimissile leggibile da sistemi esterni significa svelare protocolli, priorità e dipendenze. Un file o una API non è solo documento: può diventare un set di parametri che alimentano modelli e deducono comportamenti. Qui la distinzione tra fornitore e partner strategico si assottiglia: chi definisce gli standard di comunicazione spesso finisce per condizionare anche le scelte operative.
Disclosure, dual use e governance della conoscenza
Il tema della disclosure è centrale perché l’apertura necessaria all’interoperabilità si scontra con l’esigenza di mantenere il segreto militare. In un mondo dove dati e configurazioni possono essere assimilati nell’addestramento di modelli, il rischio non è più il furto di un documento ma la trasformazione del segreto in competenza diffusa. La questione prende la forma di una domanda difficile: quanta conoscenza tecnica si è disposti a condividere per ottenere sistemi più efficaci senza perdere il controllo sul suo uso futuro?
Il problema del dual use
L’effetto dual use rende la risposta meno banale: strumenti concepiti per scoprire vulnerabilità possono essere usati sia per riparare che per attaccare. L’asimmetria di tempo e azione premia spesso chi attacca: trovare una falla è molto più rapido che implementare una correzione capillare. Di fronte a questa dinamica, non ha senso vietare la ricerca; serve invece governarne l’accesso, regolare la distribuzione e definire responsabilità e limiti per evitare che capacità difensive si trasformino in vantaggi offensivi per soggetti terzi.
Il nodo ultimo è la sovranità: quando il potere operativo si sposta verso strati software controllati da attori privati, lo Stato perde parte della sua autonomia decisionale. Non si tratta solo di imporre regole, ma di sviluppare competenze pubbliche in grado di valutare, contestare e intervenire sulle piattaforme. Senza questa capacità la regolazione rischia di restare formale. In pratica, la battaglia per la sovranità nel tempo dell’intelligenza artificiale si giocherà nello spazio fra aggiornamenti invisibili e relazioni contrattuali, dove chi scrive il codice detterà spesso i tempi e i limiti dell’azione.

