Argomenti trattati
La diffusione della intelligenza artificiale nelle amministrazioni pubbliche sta accelerando, ma il percorso verso un’adozione responsabile resta frammentato. Negli ultimi anni si sono moltiplicate le iniziative regionali e nazionali per definire regole e strumenti: dall’ASEAN AI Guide pubblicata nel febbraio 2026 fino a documenti supplementari dedicati al generative AI. Allo stesso tempo, emergono opportunità concrete: per esempio, un’iniziativa da $30 milioni annunciata il 16/03/2026 sostiene progetti volti a migliorare i servizi governativi attraverso l’AI. Questo clima mette a fuoco due questioni chiave: la presenza di basi normative essenziali e la capacità delle autorità di tradurre le linee guida in applicazioni pratiche.
Quadro delle politiche nazionali e lacune infrastrutturali
Prima dell’ASEAN AI Guide, sei dei dieci Paesi membri avevano già elaborato qualche strategia per l’AI, ma altri restavano indietro. Brunei ha pubblicato la Artificial Intelligence (AI) Governance and Ethics Guide for Brunei Darussalam nel 2026 e ha promulgato il Personal Data Protection Order 2026, citando il documento ASEAN come riferimento. Al contrario, Paesi come Cambogia, Lao PDR e Myanmar stanno ancora integrando obiettivi legati all’AI all’interno delle strategie più ampie per l’economia digitale, spesso senza dettagli operativi. Anche Timor-Leste, che ha il piano Timor Digital 2032, non menziona esplicitamente l’AI e soffre di un basso livello di connettività: secondo stime UNCTAD del 2026 solo il 34% della popolazione aveva accesso a internet, un elemento che rallenta qualunque piano di innovazione pubblica.
Regole di base: dati e cybersecurity
La presenza di normative di base come le leggi sulla protezione dei dati e norme di cybersecurity è cruciale per consentire un’adozione sicura dell’AI. Alcuni Paesi dell’area non hanno ancora leggi organiche sulla protezione dei dati: l’assenza di tali regole espone le amministrazioni a rischi maggiori e rende più difficile attrarre investimenti e collaborazioni internazionali. Senza un quadro normativo solido, la corsa tecnologica può esporre cittadini e servizi a problematiche di privacy e sicurezza.
Il ruolo delle autorità per la protezione dei dati (DPAs) e i modelli di enforcement
Le DPAs si stanno affermando come nodi centrali nella governance dell’AI perché combinano competenze tecniche, esperienza regolatoria e legittimità pubblica. In Europa si è discusso di designare le autorità per la protezione dei dati come market surveillance authority, e alcuni esempi in Asia mostrano già questo orientamento: in Corea del Sud la Personal Information Protection Commission ha pubblicato linee guida sul generative AI nell’agosto 2026, mentre Singapore ha aggiornato il suo Model AI Governance Framework e sviluppato l’AI Verify testkit congiuntamente a IMDA e PDPC. Tuttavia, le capacità delle DPAs variano molto nella regione: dove sono meno solide, occorreranno investimenti in capitale umano e strumenti per sorvegliare l’intera catena di fornitura dell’AI e non solo la governance dei dati in ingresso.
Coordinazione tra autorità
Un altro nodo operativo è la cooperazione tra le DPAs e le agenzie che si occupano di concorrenza, consumatori e sicurezza settoriale. Nei Paesi con ecosistemi più maturi come Singapore, Malaysia e Thailandia la rete regolatoria è più avanzata e pronta a sperimentare modelli integrati di supervisione. Al contrario, dove la capacità istituzionale è limitata, l’affidamento esclusivo alle DPAs potrebbe rivelarsi insufficiente senza meccanismi di coordinamento strutturati.
Approcci regolatori, adattamenti internazionali e pressioni geopolitiche
Le nazioni sudest asiatiche stanno testando combinazioni di soft law e norme vincolanti: molti documenti sono volontari, ma alcuni Stati avanzano verso leggi specifiche. Vietnam ha approvato una legge sull’AI in dicembre 2026 che entrerà in vigore per fasi a partire da marzo 2026, mentre Thailandia e Indonesia adottano modelli che privilegiano approcci settoriali o soft law. L’adozione del modello risk-based dell’EU AI Act è spesso presa come riferimento, ma viene adattata alle priorità nazionali, bilanciando tutela e innovazione. Questo processo di ‘selezione’ internazionale aiuta a ridurre il rischio di frammentazione digitale e facilita le collaborazioni transfrontaliere.
Influenze tecnologiche e geopolitica
La competizione geopolitica influisce sulle scelte tecnologiche: documenti come l’America’s AI Action Plan (luglio 2026) evidenziano intenti di contrastare l’influenza cinese nelle sedi internazionali, mentre la Cina promuove il proprio modello regolatorio e offre soluzioni tecniche competitive. Dal punto di vista del mercato, i modelli linguistici cinesi sono diventati più accessibili e rappresentavano circa il 30% dell’utilizzo globale a fine 2026, rispetto al 13% di inizio 2026, influenzando le scelte dei sistemi deployer nella regione.
In conclusione, il percorso verso una governance efficace dell’AI nelle amministrazioni pubbliche del Sud-est asiatico richiede tre azioni sinergiche: consolidare le basi normative come la protezione dei dati e la cybersecurity, potenziare le DPAs e gli strumenti di sorveglianza, e scegliere modelli regolatori che armonizzino tutela, crescita e fattibilità operativa. Progetti di finanziamento mirati, come il fondo di $30 milioni annunciato il 16/03/2026, possono accelerare traduzioni pratiche di queste politiche in servizi pubblici più efficienti e responsabili.

