Argomenti trattati
Il mobile money è diventato un pilastro dell’inclusione finanziaria globale: nel 2026 sono stati registrati 2,1 miliardi di account che hanno elaborato 108 miliardi di transazioni per un valore di $1,68 trilioni, con oltre un miliardo di conti nell’Africa subsahariana. Questo successo dimostra che la tecnologia digitale può raggiungere centinaia di milioni di persone, ma la nuova ondata di Intelligenza artificiale applicata all’infrastruttura solleva questioni critiche che non sono ancora state valutate in modo indipendente.
Oggi l’AI viene integrata su tre fronti principali: rilevamento delle frodi, scoring del credito e assistenza clienti. La narrativa ufficiale è ottimista: l’AI scopre frodi più rapidamente, decide sui prestiti in modo più equo e supporta gli utenti 24 ore su 24. Tuttavia manca un controllo pratico e indipendente sugli impatti reali di questi sistemi nei contesti africani in cui operano, e questa assenza è un problema di governance tanto quanto tecnico.
Rilevamento delle frodi: il pericolo dei falsi positivi
La minaccia delle frodi è concreta: l’INTERPOL nella sua Africa Cyberthreat Assessment del 2026 stima perdite annue di circa $3 miliardi. Di fronte a 108 miliardi di transazioni l’anno, i sistemi tradizionali basati su regole faticano a reggere il carico, e operatori come Safaricom adottano biometrici e monitoraggio SIM-swap, mentre MTN e Airtel integrano API come la GSMA Open Gateway e le fintech usano anomaly detection basate su machine learning. Il punto centrale è: qual è il tasso di falsi positivi e chi ne paga le conseguenze?
Perché gli utenti vulnerabili rischiano di essere penalizzati
I modelli di AI sono addestrati su dati storici provenienti dai transattori ad alta attività, tipicamente urbani e maschi; così segnali sottili dei gruppi a minore attività vengono sottovalutati. CGAP ha evidenziato che modelli formati su dati sbilanciati possono svalutare i comportamenti di utenti rurali e a basso reddito, soprattutto donne con impronte digitali finanziarie più rade. Il Smile ID 2026 Digital Identity Fraud Report aggiunge che il 90% dei blocchi nel 2026 è stato scatenato da segnali SDK, mentre gli utenti USSD-only non generano tali segnali, restando invisibili alla layer di segnale. In assenza di audit pubblici disaggregati per genere, geografia e frequenza, non sappiamo se falsi positivi stiano già escludendo intere categorie di utenti.
Scoring del credito: il rischio di riprodurre l’esclusione
A metà 2026 il 44% dei provider mobile money offriva servizi di credito: attori come JUMO, Tala, Branch e M-Shwari utilizzano modelli ML che analizzano storie transazionali per erogare microprestiti. C’è uno studio su MIS Quarterly del 2026 che mostra riduzioni di bias tra persone self-employed e rurali del 27-52% rispetto ai modelli a regole, ma proviene da un grande istituto cinese con infrastrutture di credito consolidate. CGAP ha sottolineato che tali risultati non sono automaticamente trasferibili ai contesti africani con dati più scarsi e regolazione incerta.
Feedback loop e vuoto regolatorio
Le donne nei paesi a basso e medio reddito erano nel 2026 il 36% meno propense degli uomini a possedere un account mobile money, un divario cresciuto rispetto al 30% del 2026. Un modello di scoring addestrato su questi dati eredita il gap: storico transazionale più sottile porta a punteggi più bassi, rifiuti di prestiti e quindi a dati ancora più scarsi in futuro. Inoltre, mentre la CFPB ha multato Apple e Goldman Sachs nell’ottobre 2026 per fallimenti legati all’AI e l’EU AI Act classifica lo scoring creditizio come ad alto rischio, paesi con grandi mercati mobile money come Kenya, Uganda, Ghana e Tanzania non hanno ancora linee guida centrali sull’uso dell’AI nel lending. In certi casi i provider combinano transazioni con call record, dati di localizzazione e grafi social sotto consenso nascosto nei termini SIM, trasformando il modello in uno strumento di sorveglianza senza meccanismi di controllo chiari.
Prodotti ottimizzati per il profitto e gestione delle controversie
Quando l’AI progetta prodotti finanziari, chi è al centro della progettazione? Nell’agosto 2026 Safaricom e Huawei hanno lanciato Idea-to-Cash, una piattaforma che genera concept di prodotti dai comportamenti utente con l’obiettivo dichiarato di “ottimizzare la monetizzazione” dell’offerta core. Un pilota documentato ha aumentato l’ARPU del 24% concentrandosi su utenti che generavano solo dati gratuiti. Se l’obiettivo di un sistema è la monetizzazione, servono vincoli espliciti per evitare che il guadagno del provider prevalga sul benessere dell’utente.
La questione della risoluzione delle controversie è cruciale: chatbot come Zuri, il bot MoMo di MTN e Airtel Assist gestiscono richieste ordinarie ma non sempre casi controversi complessi. Se l’AI è il primo livello e gli operatori umani si occupano solo delle escalation, l’attrito per raggiungere un essere umano diventa una barriera de facto alla tutela degli utenti più esposti.
Richieste pratiche per la comunità ICT4D
Trasparenza dei dati e audit indipendenti
Serve che i dati di transazione mobile vengano resi disponibili in forma anonimizzata e basata sul consenso per la ricerca accademica; Azamuke et al. nel 2026 hanno dovuto simulare dataset perché gli operatori rifiutavano la condivisione. Chiediamo alla GSMA Mobile Money di rendere la condivisione con università una condizione per la partecipazione ai suoi programmi e di promuovere audit indipendenti sui tassi di falsi positivi disaggregati per genere e geografia.
Regole, metriche di equità e responsabilità
Occorrono report annuali, verificati da terzi, su approvazioni di prestiti, tassi di default e importi erogati scomposti per genere, area geografica e frequenza transazionale; la leva più efficace è che donatori e programmi di mercato colleghino l’accesso al mercato a queste divulgazioni. Le banche centrali devono emettere linee guida vincolanti sull’uso dell’AI nel credito, ispirandosi a framework esistenti come la CFPB e l’EU AI Act. Infine, ogni sistema che genera prodotti finanziari dovrebbe dichiarare il suo objective function: ottimizzazione per revenue, benessere utente o compromesso, con i vincoli che governano il trade-off resi pubblici.
Il mobile money resta una conquista fondamentale. Per tutelare gli utenti e mantenere la fiducia di milioni, la comunità deve premere per trasparenza, audit indipendenti e regole chiare sull’uso dell’AI. Senza questi passi, rischiamo che strumenti nati per includere finiscano per replicare o amplificare le esclusioni che vogliono risolvere.

