Genie e creatività: come i world model riproducono il già visto

Google Genie mostra la potenza dei world model: mondi coerenti in pochi secondi, ma con limiti strutturali che comprimono la varietà delle idee e ridefiniscono chi controlla il futuro immaginato

Il confronto tra intelligenza artificiale e creatività è diventato centrale nelle discussioni pubbliche e accademiche, e Google Genie è oggi il caso più visibile di questa tensione. Progettato da DeepMind come un world model capace di generare ambienti tridimensionali a partire da testo o immagine, Genie mostra in modo spettacolare come una parola basti per ottenere un mondo. Tuttavia, dietro la magia istantanea si nascondono vincoli che riguardano non tanto l’ingegneria quanto la natura stessa di ciò che un sistema statistico può concepire.

Provate a digitare: “una città sommersa con torri di corallo e pesci che nuotano tra le finestre” e in pochi secondi avrete una scena immersiva, coerente e percorribile. La qualità visiva è spesso sorprendente, ma la sensazione di inedito è in parte illusoria: il risultato è una ricombinazione raffinata di immagini e sequenze che il modello ha già incontrato. La meraviglia immediata rischia così di sostituire l’attesa e la fatica che normalmente precedono l’atto creativo, trasformando l’immaginazione in una consumazione istantanea.

Un limite strutturale dei modelli generativi

Genie funziona auto-regressivamente, costruendo scena dopo scena sulla base di ciò che ha già prodotto e delle azioni dell’utente. La sua comprensione della fisica o della causalità non è concettuale ma statistica: il sistema impara dalle correlazioni presenti in grandi corpora di video e immagini. Questo comporta un vincolo centrale: un modello ottimizzato per la verosimiglianza riproduce ciò che ha precedenti osservabili. Può offrire varianti brillanti e inattese dell’esistente, ma resta strutturalmente incapace di generare il radicalmente nuovo che non abbia tracce nel dataset di addestramento.

Ricerca empirica: guadagni individuali, perdita collettiva

Le evidenze scientifiche delineano una contraddizione netta. Uno studio di Doshi e Hauser pubblicato su Science Advances nel luglio 2026 mostra che l’accesso a idee generate da grandi modelli linguistici migliora la creatività percepita e la qualità delle storie, soprattutto per chi parte da una base creativa debole; lo strumento agisce come innesco. Parallelamente, lo stesso lavoro segnala che i testi prodotti con assistenza AI risultano più simili tra loro, riducendo la diversità complessiva. Altre ricerche, come quelle di Kumar e colleghi (2026), indicano che l’omologazione può persistere anche dopo l’uso dello strumento, suggerendo un rimodellamento cognitivo duraturo.

Il cortocircuito tra desiderio e disponibilità

Il problema non è solo tecnico ma psicologico: strumenti come Genie eliminano l’attrito creativo che tradizionalmente stimola la scoperta. Quando la prima proposta generata cattura l’attenzione, si manifesta la cosiddetta fixation bias: gli utenti tendono ad ancorarsi alla prima versione, riducendo l’esplorazione dello spazio delle possibilità. I muscoli cognitivi necessari a formulare idee originali rischiano di atrofizzarsi, poiché la tecnologia propone risposte pronte prima ancora che si completi la domanda. In questo scenario la produzione di immagini plausibili diventa un fattore di saturazione del desiderio creativo.

Il non-ancora e la speranza coltivata

La riflessione filosofica di Ernst Bloch su non-ancora e speranza docta aiuta a mettere a fuoco la posta in gioco: esiste una differenza sostanziale tra ciò che è statisticamente probabile e ciò che ancora non ha forma perché appartiene a una soglia del possibile. Le trasformazioni storiche emergono sempre da questo spazio di frontiera. Un sistema che ricombina esclusivamente il già visto esercita, secondo Bloch, una forma di chiusura verso il futuro, perché soddisfa rapidamente il desiderio senza spingere verso discontinuità reali.

Sovranità dell’immaginario e scelte infrastrutturali

Un’ulteriore dimensione riguarda l’origine e la composizione dei dati d’addestramento: il materiale digitale che un modello ricombina non è neutro, ma riflette geografie di potere, lingue dominanti e pratiche estetiche prevalenti. La capacità di immaginare futuri diversi dipende dunque anche da chi ha voce nella produzione digitale. Se la piattaforma che genera scenari diventa il substrato cognitivo di sistemi futuri, si impone la domanda su chi detiene la sovranità digitale dell’immaginario e su come proteggere comunità e culture dalla marginalizzazione simbolica.

Strade pratiche per preservare il non-ancora

Per mitigare questi rischi servono interventi multipli: misure di valutazione dell’impatto creativo, dataset più rappresentativi e aperti, spazi di sperimentazione che richiedano attrito creativo e promuovano l’errore come risorsa, e politiche che sostengano la capacità collettiva di generare immagini e narrazioni autonomamente. Solo combinando tecnologie e pratiche culturali possiamo preservare la tensione verso l’improbabile e mantenere aperta la possibilità di futuri che ancora non esistono.

Scritto da Dr. Luca Ferretti

Come le nuove regole cinesi e la physical AI stanno cambiando automotive e manifattura