SAHI e BODH per la sanità indiana: un approccio realistico e basato sul contesto

Il lancio di SAHI e BODH prova a rispondere ai limiti delle soluzioni AI universali introducendo regole, test e responsabilità per proteggere pazienti e sistemi sanitari

Negli ultimi anni l’adozione dell’Intelligenza artificiale in sanità ha sollevato attese enormi ma anche preoccupazioni reali: soluzioni promettenti non sempre resistono al confronto con le complessità locali. Con il lancio di SAHI (Strategy for Artificial Intelligence in Healthcare for India) e della piattaforma BODH al India AI Impact Summit 2026, il ministero della salute indiano ha cercato di passare dalle dichiarazioni d’intento a strumenti concreti per governare l’innovazione.

Perché servono linee guida specifiche per la sanità

L’idea alla base di SAHI è semplice ma potente: la sanità non è un settore generico, e l’uso dell’AI qui può incidere direttamente su diagnosi, terapie e vite umane. Il documento riconosce che esistono applicazioni a basso rischio (come l’automazione amministrativa) e altre ad alto impatto (come il supporto decisionale clinico) e propone una visione che punta a implementazioni sicure, etiche e basate su evidenze. In pratica SAHI vuole collegare l’innovazione alle priorità di salute pubblica dell’India, evitando il rischio di soluzioni importate che non tengono conto delle differenze demografiche, dei farmaci disponibili o delle pratiche cliniche locali.

Il problema dei dati e del pregiudizio

Uno dei punti cardine del documento è la qualità dei dati: SAHI richiede che i dataset usati per addestrare modelli riflettano le popolazioni e i contesti in cui gli strumenti saranno impiegati. Questo perché, come mostrato da casi internazionali, modelli addestrati su popolazioni diverse possono suggerire terapie non accessibili o poco appropriate. La strategia sottolinea quindi l’importanza di standard per la raccolta, l’anonimizzazione e la condivisione dei dati, insieme a regole chiare su consenso e responsabilità.

BODH: un banco di prova per performance e bias

Complementare a SAHI è BODH, la Benchmarking Open Data Platform for Health AI sviluppata con il coinvolgimento dell’IIT Kanpur e della National Health Authority. BODH è pensata come una piattaforma strutturata per testare modelli prima della loro adozione reale: verifica accuratezza, robustezza e presenza di bias. In questo modo le autorità possono valutare strumenti di aziende e startup in scenari controllati, riducendo il rischio di errori clinici dopo il lancio e creando un archivio di valutazioni comparabili.

Valutazione continua e governance

Un aspetto cruciale introdotto dalla piattaforma è la sorveglianza post-deployment: non basta testare un algoritmo una volta, bisogna monitorarne il comportamento mentre opera nel mondo reale. SAHI raccomanda quindi meccanismi di monitoraggio per rilevare degradazione delle performance, effetti imprevisti e disparità. Inoltre, propone regole di responsabilità che chiariscano quando e come attribuire colpe tra sviluppatore, erogatore del servizio e utilizzatore finale.

Implicazioni pratiche per ospedali, startup e regolatori

Per ospedali e cliniche la nuova strategia suggerisce approcci graduali: usare l’AI in ambito sperimentale, integrare validazioni cliniche oltre alle prove tecniche e definire chiaramente i ruoli umani nel processo decisionale. Startup e aziende devono conformarsi a requisiti di trasparenza e a standard di interoperabilità dei dati per facilitare valutazioni indipendenti e condivisione sicura delle informazioni. I regolatori, infine, sono chiamati a sviluppare competenze specifiche per valutare algoritmi e a coordinarsi con enti sanitari, etici e legali per creare un quadro omogeneo.

La strategia rimane prudente su un punto: non definisce in modo granulare tutte le soglie di rischio né sostituisce le normative già in vigore come il Digital Personal Data Protection Act; piuttosto, intende lavorare con le normative esistenti e con linee guida del settore per creare un ecosistema coerente. In un contesto in cui soluzioni globali possono fallire per la mancanza di dati locali, l’approccio di SAHI e BODH punta a costruire una intelligenza artificiale sovrana e contestualizzata che protegga l’utente finale.

Perché, come ricordano gli operatori sanitari, l’obiettivo ultimo non è l’innovazione fine a sé stessa ma un miglioramento reale e sicuro dell’assistenza ai pazienti.

Scritto da Francesca Neri

Come SAHI e BODH puntano a rendere affidabile l’intelligenza artificiale in sanità in India