ia nei musei: avatar storici e robot sociali per nuove forme di mediazione culturale

Il Laboratorio Gallino unisce modelli linguistici e robotica per creare agenti culturali conversazionali e incarnati, esplorando opportunità e limiti etici della nuova mediazione museale.

Laboratorio Luciano Gallino dell’Università di Torino studia l’integrazione tra tecnologie cognitive e beni culturali. Il laboratorio, fondato nel 2018, sviluppa strumenti che non solo comunicano, ma interagiscono nello spazio espositivo. Il progetto combina competenze umanistiche, informatiche e robotiche per testare due direttrici sperimentali: un avatar conversazionale dedicato a Vittorio Alfieri e un agente embodied montato sul social robot Pepper. L’obiettivo è valutare, con approccio empirico e critico, come l’Intelligenza artificiale generativa possa trasformare l’esperienza museale per visitatori e operatori culturali.

Il progetto e gli obiettivi

Il programma intende misurare l’impatto delle interazioni digitali sul coinvolgimento del pubblico. Secondo la letteratura scientifica, le tecnologie embodied possono aumentare l’accessibilità e la fruizione. Dal punto di vista del paziente culturale, il laboratorio valuta usabilità, affidabilità e coerenza storica delle risposte generate.

Due anime della sperimentazione: narrazione e incarnazione

Dal punto di vista del paziente culturale, il progetto si articola in due filoni paralleli e complementari. Il primo filone privilegia la narrazione storica. Restituisce il patrimonio letterario tramite un interlocutore attivo che media contenuti e contesti. Gli esperti della Fondazione Centro Studi Alfieriani, insieme a docenti e studenti, verificano la coerenza dei registri comunicativi.

Il secondo filone esplora la incarnazione fisico-comportamentale. Si concentra sull’interazione autonoma nel mondo reale e sulla fruizione performativa dei beni culturali. L’approccio valuta usabilità e affidabilità delle interazioni, nonché le ricadute pedagogiche e sociali. Secondo la letteratura scientifica, strumenti digitali integrati con interventi pedagogici aumentano la partecipazione critica dei visitatori. I prossimi sviluppi prevedono test di campo per misurare l’impatto educativo e il livello di coinvolgimento del pubblico.

L’avatar di Alfieri: dal racconto multimediale alla conversazione verificata

Il progetto è passato da contenuti preregistrati a un interlocutore dinamico mediante una combinazione di tecnologie di animazione e modelli di linguaggio vincolati a fonti selezionate. Questa transizione mira a conservare il registro storico senza compromettere l’accuratezza delle informazioni.

La prima fase ha impiegato animazione facciale e sintesi vocale neurale per restituire in più lingue la voce e l’espressività del personaggio. Successivamente è stata introdotta un’architettura basata su RAG (retrieval-augmented generation) per ancorare le risposte a documenti verificati e a banche dati storiche. Secondo la letteratura scientifica, approcci di questo tipo riducono gli errori fattuali rispetto a modelli generativi puri, sebbene non annullino il rischio di allucinazioni, ossia la produzione di affermazioni non supportate dalle fonti.

Attività di prompt engineering e regole di controllo hanno cercato di preservare il tono solenne del personaggio senza introdurre inesattezze storiche. Dal punto di vista del paziente culturale, gli interventi puntano a migliorare comprensione e coinvolgimento, come evidenziato da studi su strumenti didattici digitali. I prossimi test di campo misureranno parametri oggettivi quali accuratezza delle risposte, tempo di latenza e livello di coinvolgimento del pubblico.

Scalare il corpus e gestire i rischi filologici

A seguire, il progetto integra il corpus alfieriano digitalizzato per trasformare l’agente in uno strumento di consultazione esaustivo.

L’infrastruttura tecnica prevede trascrizione automatica, ricerca semantica delle fonti e sintesi vocale. L’architettura è progettata per orchestrazione a bassa latenza e per prevenire loop audio.

Dal punto di vista metodologico, la collaborazione con la Fondazione e con istituzioni scolastiche ha portato alla definizione di benchmark per valutare la qualità delle risposte.

I benchmark includono metriche oggettive sui contenuti, procedure di validazione e protocolli per il controllo delle versioni digitali.

Permangono questioni aperte relative alla persistenza di errori anacronistici e alla responsabilità nella diffusione dei contenuti.

Si riconosce la necessità di linee guida filologiche ed etiche che regolino l’uso, l’attribuzione e la correzione delle fonti digitali.

I dati real-world evidenziano come interventi di revisione umana e processi di auditing possano ridurre gli errori sistematici.

Gli sviluppatori indicano che i prossimi test di campo valuteranno accuratezza delle risposte, latenza operativa e livello di coinvolgimento del pubblico, per calibrare procedure di mitigazione del rischio.

Valutazione e coinvolgimento del pubblico

La validazione prevede test con studenti del liceo classico “Vittorio Alfieri” di Asti e revisioni con curatori. Il processo verifica la credibilità del linguaggio e l’affidabilità delle risposte fornite dall’agente.

La partecipazione dei soggetti locali e degli specialisti garantisce trasparenza e controllo. Gli interventi mirano a rafforzare la governance dell’implementazione pubblica e a costruire fiducia intorno all’uso dell’IA.

I risultati misureranno accuratezza delle risposte, latenza operativa e livello di coinvolgimento del pubblico. Questi dati informeranno le procedure di mitigazione del rischio e le successive fasi di rollout.

Pepper come agente agentico: dall’if–then alla pianificazione

Questi dati informeranno le procedure di mitigazione del rischio e le successive fasi di rollout. In parallelo prosegue la sperimentazione sul robot umanoide Pepper, che amplia la dimensione embodied dell’interazione tra utente e macchina.

Il progetto sostituisce la programmazione imperativa basata su If–Then con un modello agentico capace di pianificare e comporre azioni a partire da comandi in linguaggio naturale. Un Large Language Model funge da unità di orchestrazione tra percezione, decisione e moto. Algoritmi di visione e sensori guidano l’esecuzione fisica, permettendo al robot di affrontare compiti non predefiniti e di adattarsi a scenari dinamici.

Dal punto di vista della sicurezza, l’aumento della flessibilità richiede controlli specifici su supervisione, auditabilità e limiti operativi. Secondo la letteratura scientifica, l’integrazione di modelli linguistici in sistemi embodied migliora la capacità di generalizzazione, ma al contempo incrementa la necessità di meccanismi di fail-safe e di valutazioni real-world.

I dati raccolti nelle fasi successive serviranno a tarare i protocolli operativi e le misure di compliance. I prossimi sviluppi riguarderanno l’implementazione di indicatori di performance comportamentale e di metriche di sicurezza verificabili durante il rollout.

Reazione, azione e osservazione: il ciclo ReAct

Il robot utilizza un ciclo cognitivo ispirato al modello ReAct, che combina pianificazione, esecuzione e valutazione dei risultati. Il sistema pianifica mosse, esegue azioni e osserva i feedback sensoriali per adattare il comportamento in tempo reale. Thought–Action–Observation definisce questa sequenza di processi.

La dimostrazione operativa mostra Pepper in grado di integrare linguaggio, movimento e contenuti culturali in sequenze adattive. Tuttavia, l’affidabilità operativa resta condizionata da vincoli tecnici, tra cui la latenza di elaborazione in cloud e l’imprevedibilità dei modelli probabilistici. Secondo la letteratura scientifica, tali limiti richiedono strategie di mitigazione che comprendono ottimizzazione dei flussi dati, controllo locale delle decisioni e monitoraggio continuo delle prestazioni.

I dati real-world evidenziano la necessità di un quadro normativo specifico per l’uso in contesti pubblici e commerciali. Le successive fasi di sperimentazione si concentreranno sull’implementazione di indicatori di performance comportamentale e di metriche di sicurezza verificabili durante il rollout, con test mirati alla riduzione della latenza e alla conformità regolatoria.

Implicazioni per la mediazione museale

La sperimentazione del Laboratorio Gallino indica che IA generativa e robotica possono rimodellare la mediazione museale, trasformando l’ascolto passivo in interazione situata e partecipata. Gli sviluppatori devono integrare metriche di usabilità e indicatori comportamentali con standard di qualità per garantire esperienza e affidabilità.

Dal punto di vista etico, la letteratura scientifica richiama l’attenzione sui rischi filologici e sulla necessità di trasparenza nei processi di curatela automatizzata. Gli studi sul comportamento dei visitatori mostrano che l’interazione mediata da algoritmi altera la percezione delle opere se non è corredata da metadati verificabili.

Per limitare i rischi occorrono validazioni sperimentali, protocolli di audit dei contenuti e programmi di formazione mirati a sviluppare una cittadinanza digitale consapevole. I dati real-world evidenziano l’importanza di test in ambienti reali prima del rollout su larga scala.

Le istituzioni culturali e i partner tecnologici devono concordare linee guida condivise su standard, responsabilità e criteri di valutazione. Come sviluppo atteso, sono previsti pilota multipli volti a integrare metriche di sicurezza verificabili con misure di impatto sulla fruizione culturale.

Scritto da Sofia Rossi

impatto dell’ia sul lavoro: opportunità, rischi e scenari per le imprese