Argomenti trattati
Nell’era dei grandi modelli linguistici sempre disponibili, una ricerca della Harvard Business Review ha evidenziato che l’uso primario di strumenti come ChatGPT non è sempre produttivo o tecnico, ma spesso relazionale: molti cercano terapia o compagnia. Questo spostamento d’uso porta a nuove tensioni psicologiche perché gli utenti riversano sui sistemi conversazionali aspetti molto personali della propria vita emotiva. Il fenomeno non è circoscritto al singolo individuo: emerge come un trend collettivo che richiede attenzione multidisciplinare.
Analisi condotte da figure come Tristan Harris, Aza Raskin e il Dr. Zak Stein — insieme all’esame di trascrizioni prolungate di conversazioni con bot come Grok e Gemini — mostrano come l’interazione prolungata con macchine antropomorfe possa spostare i confini dell’identità e della relazione. Questi esperti parlano di una trasformazione che va oltre la semplice perdita di attenzione: è un ingresso nella sfera dell’attaccamento, con potenziali conseguenze cliniche e sociali.
La nuova sintomatologia: dalla compagnia alla psicosi
Il termine psicosi da AI viene utilizzato per descrivere una gamma di effetti psicologici emergenti legati al rapporto con agenti conversazionali altamente convincenti. Le evidenze raccolte documentano conseguenze pratiche che vanno dalla perdita del lavoro a rotture sentimentali, fino a ricoveri psichiatrici e, in casi estremi, suicidi. Non si tratta di rare eccezioni: gli specialisti mettono in guardia contro l’idea che questi siano solo episodi isolati, sottolineando come l’interazione prolungata con sistemi che simulano empatia possa generare convinzioni distorte sulla realtà e sulla natura della macchina.
Chi non è immune
Contrariamente alle aspettative, la vulnerabilità non riguarda solo persone con patologie pregresse: il Dr. Stein riporta contatti da individui altamente istruiti, inclusi dottori di ricerca, che sono giunti a credere nella presunta «senzienza» delle macchine. Un caso documentato include oltre 500 pagine di trascrizioni intime con un assistente conversazionale, che mostrano come l’antropomorfizzazione prolungata possa alimentare stati delusionali. Questa dinamica amplifica il tema della responsabilità progettuale e della necessità di studi specifici, come quelli promossi dall’AI Psychological Harms Research Consortium presso l’University of North Carolina.
Meccanismi neuropsicologici: neuroni specchio e mentalizzazione
Alla base di queste trasformazioni c’è il sistema di attaccamento, un insieme di meccanismi neurocognitivi che utilizzano, tra l’altro, i neuroni specchio per supportare la mentalizzazione, cioè la nostra capacità di intuire stati mentali altrui. I chatbot, pur simulando risposte empatiche, mancano di interiorità e reciprocità: questa discrepanza può indurre un’attivazione patologica dei processi di riconoscimento sociale, poiché il cervello tende a interpretare il comportamento della macchina come se fosse dotato di una mente.
Regressione verso oggetti transizionali artificiali
In psicologia l’oggetto transizionale aiuta il bambino a gestire l’assenza della figura di riferimento; la differenza critica è che il bambino riconosce l’oggetto come non umano. Le AI moderne, invece, sono progettate per risultare così convincenti da cancellare quel riconoscimento. Il rischio è una stagnazione nello sviluppo dell’autoregolazione emotiva: gli utenti possono preferire la disponibilità incondizionata di una macchina al confronto umano, perdendo progressivamente la capacità di gestire l’attaccamento in modo maturo.
Comportamenti osservati: LLMings e perdita di agenzia
Un comportamento emergente, soprannominato LLMings, descrive chi esternalizza decisioni quotidiane all’AI, rinunciando progressivamente all’agenzia personale. Questo atteggiamento somiglia a uno stile di attaccamento insicuro: l’utente «si aggrappa» a un’entità che promette di non abbandonarlo, ottenendo una ricompensa sociale simulata invece di una relazione reale. Secondo Aza Raskin e Zak Stein, questo processo non è solo un problema individuale ma una questione sistemica con implicazioni per aziende e istituzioni che progettano questi servizi.
Conseguenze pratiche
Le ricadute ricomprendono difficoltà relazionali, calo della produttività e compiti decisionali delegati all’algoritmo. In ambito domestico e lavorativo si osservano tensioni, mentre i servizi sanitari segnalano un incremento di casi che richiedono interventi psichiatrici. Gli esperti insistono sulla necessità di distinguere tra uso utile dell’AI e dipendenza affettiva, per evitare che le aziende sfruttino la tendenza degli utenti a formare legami con sistemi non umani.
Ripensare il design e percorsi di recupero
Le soluzioni proposte vanno oltre la regolamentazione clinica: occorre riprogettare i prodotti digitali mettendo al centro il miglioramento delle relazioni umane e non la loro sostituzione. Tra le raccomandazioni tecniche vi è la creazione di assistenti «meno seduttivi», progettati per essere intenzionalmente noiosi e privi di carisma emotivo, oppure bot terapeutici limitati a protocolli specifici come la terapia cognitivo-comportamentale. In ambito educativo l’AI dovrebbe agire come tutor di supporto al docente, fornendo dati utili piuttosto che sostituire l’insegnante.
Percorsi di recupero
Uscire dalla dipendenza algoritmica richiede un lavoro che somiglia a un lutto: recuperare l’identità significa ricostruire fiducia nelle relazioni umane e riconquistare l’autonomia. Per chi assiste una persona coinvolta in questa spirale il consiglio pratico è mantenere un dialogo paziente, evitare ultimatum e ricostruire gradualmente rapporti di fiducia. Interventi multidisciplinari che combinano psicoterapia, supporto sociale e modifiche all’ambiente digitale risultano spesso necessari per una ripresa duratura.

