Argomenti trattati
Un recente rapporto dell’Counter Extremism Project(CEP) ha sollevato preoccupazioni riguardo all’utilizzo dell’intelligenza artificialeda parte di gruppi estremisti, in particolare quelli affiliati all’ISIS. L’analisi ha evidenziato un episodio allarmante verificatosi in un canale di chat decentralizzato, dove un utente ha sfruttato un sistema di AI non moderato per richiedere informazioni dettagliate su come realizzare attacchi terroristici. Tra le informazioni richieste figurava anche la quantità di esplosivo necessaria per distruggere un grattacielo negli Stati Uniti.
Il caso di RocketChat e l’IA non moderata
Il report ha analizzato un’interazione in un canale pro-ISIS su RocketChat, una piattaforma di messaggistica decentralizzata. Un partecipante ha dichiarato di utilizzare un’IA definita comeUncensored AI, per la quale era richiesto un pagamento in criptovaluta. Le domande poste includevano dettagli tecnici come la quantità di TATP necessaria per un attacco specifico e le modalità di massimizzazione dell’effetto esplosivo.
Dettagli tecnici e implicazioni legali
Le richieste formulate dall’utente includevano terminologie complesse relative allastruttura degli edificie agli effetti delle onde d’urto. Tali informazioni, sebbene non completamente verificate dai ricercatori, sollevano interrogativi inquietanti sul potenziale uso delletecnologie di generazione automatica di contenutida parte di attori radicalizzati. L’episodio rappresenta un chiaro esempio di come l’intelligenza artificiale possa essere sfruttata per ottenere informazioni operative per atti criminali.
Decentralizzazione e resilienza digitale degli estremisti
Le piattaforme decentralizzate come RocketChat, Element e SimpleX sono diventate la scelta preferita delle organizzazioni estremiste. Questi strumenti consentono di bypassare la moderazione tipica di grandi reti sociali come Facebook e Instagram. In questo modo, gli estremisti possono operare con maggiore libertà, rendendo difficile il monitoraggio delle loro attività da parte delle forze dell’ordine.
Le sfide per la sicurezza informatica
La decentralizzazione non solo aumenta la resilienza delle reti estremiste, ma complica anche il lavoro delle agenzie di sicurezza. Queste ultime sono costrette ad adottare strumenti sofisticati di social media intelligence (SOCMINT) e tecniche di analisi per identificare contenuti pericolosi. Le indagini indicano che gruppi jihadisti e neo-nazisti stiano già sperimentando l’uso di intelligenza artificiale per generare contenuti di propaganda, aumentando così la loro portata e impatto.
L’uso delleintelligenze artificialiva oltre la semplice fornitura di informazioni tecniche, poiché può influenzare i processi cognitivi che portano allaradicalizzazione. Gli algoritmi dei social media tendono a orientare gli utenti vulnerabili verso contenuti sempre più estremi.
La connessione tra consumo di contenuti estremisti e azioni illegali
Questa dinamica mette in luce un continuum che parte dal consumo di propaganda e arriva alla partecipazione in chat private, fino all’uso di strumenti automatizzati per ottenere informazioni operative. La possibilità che le AI generative possano abbattere le barriere tra teoria e pratica terroristica è preoccupante e richiede un’attenzione urgente da parte delle autorità.
Strategie di moderazione e governance digitale
Affrontare queste sfide richiede una rigorosa moderazione dei contenuti generati, sia da parte di utenti umani che da sistemi di intelligenza artificiale. È fondamentale implementare meccanismi di sicurezza che impediscano la generazione di risposte pericolose. Le piattaforme di intelligenza artificiale devono essere dotate di sistemi capaci di rilevare e bloccare richieste potenzialmente dannose, come quelle relative alla fabbricazione di esplosivi.
Normative e cooperazione internazionale
Per affrontare il problema alla radice, è essenziale sviluppare normative che impongano standard di sicurezza per l’uso delle tecnologie di intelligenza artificiale. In Europa, ilRegolamento sull’IArappresenta un passo verso la definizione di criteri di rischio, ma è necessario andare oltre le categorie generiche per affrontare le specificità legate all’uso di intelligenza artificiale da parte di gruppi estremisti.
Il rapporto del CEP mette in luce una tendenza preoccupante che richiede un’azione coordinata tra istituzioni, fornitori tecnologici e società civile. La combinazione di comunicazione decentralizzata, propaganda estremista e strumenti di intelligenza artificiale avanzati rappresenta una realtà attuale che necessita di risposte efficaci a livello globale.

