Argomenti trattati
Nell’ecosistema dell’intelligenza artificiale i ruoli professionali sono stati a lungo confusi: titoli variabili, competenze difficili da misurare e organigrammi costruiti più per comodo che per responsabilità. Con la pubblicazione della UNI 11621-8:2026 il panorama cambia: per la prima volta in Europa si offre un quadro sistematico e potenzialmente certificabile delle dodici figure coinvolte nello sviluppo e nella gestione dei sistemi AI.
La norma, pubblicata il 30 aprile 2026, si inserisce in un contesto legislativo che comprende il Regolamento (UE) 2026/1689 (AI Act) e la L. 23 settembre 2026, n. 132, e diventa uno strumento operativo per tradurre obblighi normativi in adempimenti misurabili. È importante ricordare che la norma è volontaria, ma nello scenario attuale la sua adozione può trasformarsi in una scelta strategica per chi tratta sistemi AI ad alto rischio.
Cosa significa per aziende e pubblica amministrazione
Dal punto di vista operativo, la UNI 11621-8:2026 fornisce un linguaggio tecnico condiviso che facilita la definizione di job description, capitolati e contratti. Aziende e PA possono ora descrivere ruoli come Chief AI Officer o AI Security Specialist con parametri comuni di missione, competenze e indicatori di performance. Questo permette di ridurre ambiguità durante le gare, nella due diligence dei fornitori e nelle verifiche di conformità all’AI Act.
Certificazione e formazione
La norma abilita inoltre la certificazione delle competenze attraverso organismi accreditati secondo la UNI CEI EN ISO/IEC 17024:2012. Ciò significa che professionisti certificati sulla base dei profili UNI avranno credenziali spendibili in gare pubbliche e processi di valutazione. Parallelamente, università ed enti di formazione possono allineare i corsi ai descrittori della norma, coerenti con il QNQ e l’EQF, offrendo percorsi formativi orientati al mercato.
Vantaggi concreti e rischi da evitare
I vantaggi pratici sono molteplici: miglior ancoraggio del lavoro normativo europeo a partire dall’Italia, maggiore solidità nelle prove di conformità, e un orientamento del mercato del lavoro verso competenze verificabili. Tuttavia esiste il rischio che la norma venga usata solo come formalità, con titoli rinominati senza reale adeguamento di responsabilità e competenze. La norma rimane uno strumento: il valore reale dipende dall’applicazione concreta.
I dodici profili e la loro collocazione funzionale
La UNI 11621-8:2026 mappa dodici profili, organizzati in funzioni di indirizzo, progettazione, dati e sicurezza/ricerca. Tra le funzioni di governance spiccano il Chief AI Officer, responsabile di strategia, governance e compliance, e l’AI Product Manager, che traduce obiettivi di business in requisiti di prodotto. Nell’area tecnica troviamo il AI Algorithm Engineer, il AI Deep Learning Engineer e il AI Machine Learning Engineer, ciascuno con compiti ben delineati su progettazione, industrializzazione e gestione operativa dei modelli.
Ruoli emergenti e specifici
La norma include profili oggi strategici, come l’AI Natural Language Processing Engineer e l’AI Prompt Engineer, quest’ultimo riconosciuto come ruolo autonomo per la gestione dei sistemi generativi. Sul fronte dati sono delineati l’AI Data Engineer e l’AI Data Scientist, mentre per la sicurezza e la ricerca la mappa prevede l’AI Security Specialist e l’AI Research Scientist. La norma specifica inoltre i livelli e-CF, le abilità (S001–S122) e le conoscenze (K001–K132) associate a ciascun ruolo.
Esempio applicativo: un sistema di supporto alle decisioni in sanità
Per rendere concreto il valore della norma, consideriamo lo sviluppo di un sistema di clinical decision support (CDS) qualificato come dispositivo medico ai sensi del Reg. (UE) 2017/745 (MDR) e ad alto rischio secondo l’AI Act. In fase di ideazione il Chief AI Officer struttura governance e valutazione del rischio, affiancato dall’AI Consultant e dall’AI Product Manager. Nella progettazione intervengono l’AI Data Engineer e l’AI Data Scientist per pipeline e qualità dati, mentre la progettazione algoritmica spetta all’AI Algorithm Engineer.
Durante sviluppo e validazione entrano in campo l’AI Deep Learning Engineer o l’AI Machine Learning Engineer per addestramento e MLOps, e l’AI Security Specialist per test adversarial e compliance a ISO/IEC 27001 e NIS2. In fase di produzione la sorveglianza post-market richiede monitoraggio continuo, versioning e piani di retraining coordinati dalle figure descritte dalla norma.
Nel complesso, la UNI 11621-8:2026 offre una griglia operativa per costruire organigrammi consapevoli delle responsabilità tecniche e giuridiche. Per imprese, PA e professionisti il suggerimento pratico è iniziare a mappare le competenze interne, riallineare le job description e valutare percorsi di certificazione per i ruoli apicali: un investimento che paga nella solidità delle procedure di compliance e nella spendibilità delle competenze sul mercato.

