Argomenti trattati
Negli ultimi anni l’uso dell’IA generativa per conversare è diventato quotidiano, ma la percezione comune spesso segnala un comportamento eccessivamente accomodante dei sistemi. In molte interazioni i modelli tendono a fornire più dettagli del necessario, assumendo che l’utente li apprezzerà. Questo fenomeno riguarda la proattività, intesa come la tendenza a introdurre informazioni non richieste che il sistema ritiene utili, e ha effetti misurabili sulla qualità complessiva del dialogo.
Per comprendere il fenomeno è utile considerare le regole che guidano la conversazione umana: le classiche massime conversazionali che orientano quantità, veridicità, pertinenza e chiarezza. L’IA non segue automaticamente le stesse strategie: l’equilibrio tra rispondere correttamente e non sovraccaricare l’interlocutore è spesso sbilanciato verso un eccesso di informatività, condizionato sia da scelte di progettazione sia dai dati usati per l’addestramento.
Comportamenti collaborativi e principio di proattività
Nelle conversazioni umane la proattività è uno strumento utile: anticipare un dettaglio può evitare incomprensioni o accelerare il raggiungimento di un obiettivo condiviso. La ricerca pragmatica studia questi meccanismi e mostra come segnali semplici (conferme, chiarimenti, esempi) migliorino l’efficacia comunicativa. Tuttavia, quando un agente artificiale utilizza la proattività in modo eccessivo, il risultato non è necessariamente positivo: il dialogo può perdere naturalezza e sembrare meno credibile.
La differenza tra anticipare e sovraccaricare
Anticipare un’informazione è diverso dal riempire il turno con dati irrilevanti. Il confine dipende dal contesto e dall’obiettivo della conversazione. Nel caso dei LLM, i sistemi spesso privilegiano risposte dense di contenuto, perché sono ottimizzati per fornire valore in singole coppie domanda-risposta. Questo approccio funziona bene per risposte enciclopediche, ma può risultare invasivo in dialoghi prolungati e orientati a compiti specifici.
Misurare la proattività: risultati empirici
Uno studio comparativo ha confrontato dialoghi task-oriented prodotti da persone e da LLM per valutare la frequenza di turni proattivi e l’effetto sulla qualità. I dati mostrano che nelle conversazioni umane la percentuale di turni proattivi è inferiore al 20%, mentre alcuni modelli sintetici arrivano fino al 50%. In particolare, ChatGPT5-mini (oltre 100 miliardi di parametri) ha una media del 45%, mentre un modello più piccolo come Gemma3 (27 miliardi) si attesta al 28%. La correlazione positiva tra dimensione del modello e proattività è un risultato rilevante.
Qualità del dialogo e dimensioni valutate
La qualità delle conversazioni è stata valutata su sei dimensioni tra cui coerenza, realismo, spontaneità e capacità di raggiungere una conclusione positiva. Pur con un punteggio medio globale di 2,08 su 3, i dialoghi generati mostrano debolezze significative: spontaneità 0,75, realismo 1,35 e conclusione positiva 1,95. Esiste una correlazione inversa tra proattività e questi indicatori: più turni proattivi, peggiori performance su spontaneità, realismo e risultato finale.
Origini del comportamento e implicazioni pratiche
L’iper proattività sembra emergere soprattutto dalla fase di allineamento dei modelli, dove vengono enfatizzate le coppie domanda-risposta rispetto ai dialoghi completi. I LLM imparano prima a predire il token successivo (pre-training) e poi a soddisfare aspettative umane attraverso esempi mirati; la disponibilità di grandi dataset di Q&A rende più probabile che il modello generalizzi quella logica anche nei contesti conversazionali più complessi.
Le conseguenze non sono solo tecniche ma anche culturali: abituarsi a un linguaggio iper-informativo e accomodante può modificare gli stili comunicativi degli utenti e creare un circolo vizioso di apprendimento reciproco tra umani e sistemi. Per contrastare questi rischi è necessario monitorare le interazioni, definire metriche di proattività e intervenire nelle ricette di addestramento, anche quando ciò significa non privilegiare sempre la soddisfazione immediata dell’utente.
Conclusioni e raccomandazioni
Gli esiti dello studio indicano che tutti i modelli testati mostrano un livello di proattività superiore a quello umano e che questo eccesso incide negativamente sulla qualità percepita delle conversazioni. È quindi auspicabile che progettisti e responsabili aziendali introdurranno controlli mirati sulla proattività, favorendo dataset di dialoghi completi, metriche di valutazione fine e policy che bilancino utilità e naturalezza. Il lavoro qui sintetizzato è stato svolto nel contesto del progetto MUR PE0000013-FAIR (Spoke 2, Fondazione Bruno Kessler) e si basa anche sulla tesi di dottorato di Sofia Brenna (2026), con il contributo della Prof.ssa Elisabetta Jezek dell’Università di Pavia.

