Argomenti trattati
Le recenti ricerche sull’intelligenza artificiale (AI) offrono spunti di riflessione fondamentali riguardo alle sue capacità e alle sue prospettive future. Mentre i ricercatori di Apple mettono in discussione il reale potere di ragionamento dei modelli AI, un gruppo della Cornell University suggerisce che esista una rappresentazione universale dei concetti, evocando le teorie di Platone.
Le domande fondamentali sull’AI
Ad aprile, il CEO di Anthropic, Amodei, ha sottolineato l’urgenza di comprendere come i modelli AI prendano decisioni. Attualmente, la nostra conoscenza sul funzionamento di questi sistemi è limitata. Questa mancanza di comprensione solleva interrogativi cruciali: l’intelligenza artificiale generale (AGI) è a portata di mano, o è una meta irraggiungibile?
Il dibattito è ricco e merita attenzione, poiché le sue implicazioni si estendono sia allo sviluppo dei modelli AI sia alla sicurezza informatica dei database emergenti. L’analisi dei risultati recenti rivela un percorso verso una maggiore comprensione del funzionamento interno dei modelli.
Il ruolo degli embedding nei modelli AI
Gli embedding sono alla base degli LLM (modelli linguistici di grandi dimensioni). Questi rappresentano il primo strato della rete neurale, associando a testi e token vettori che ne esprimono il significato. Parole e frasi simili generano vettori vicini, permettendo di misurare la distanza tra significati.
- **Rete di embeddings**: addestrata con il modello LLM, consente di riconoscere la similarità.
- **Indipendenza**: una volta addestrato, il modello può funzionare autonomamente, diventando cruciale nei database vettoriali.
- **Apprendimento automatico**: i ricercatori della Cornell hanno dimostrato che è possibile tradurre i vettori di vari modelli in uno spazio vettoriale universale.
Implicazioni pratiche
Questo risultato suggerisce l’esistenza di una struttura comune nei modelli, facilitando la rappresentazione dei concetti. Le evidenze indicano che i vettori di embedding sono simili anche in lingue diverse, il che solleva questioni sulla sicurezza informatica. I vettori, ora meno criptici, potrebbero essere sfruttati per attacchi informatici.
Ragionamento e limiti dei modelli AI
La capacità apparente di ragionare da parte dei modelli AI ha alimentato l’idea che l’AGI sia imminente. Tuttavia, uno studio di Apple ha messo in luce i limiti di questa capacità, rivelando che i modelli spesso si arrendono di fronte a problemi complessi.
Il ragionamento, descritto come una meccanizzazione della Chain of thoughts, implica scomporre i problemi in sottoproblemi. Gli studi hanno dimostrato che gli LLM faticano a generalizzare, specialmente nei casi complicati, evidenziando che i benchmark attuali potrebbero non riflettere le reali capacità dei modelli.
La ricerca continua
Comprendere il comportamento dell’AI è cruciale. Gli approcci sperimentali impiegati dai ricercatori, simili a risonanze magnetiche digitali, mostrano l’importanza di analizzare il modello comportamentale. La ricerca è fondamentale non solo per comprendere il funzionamento, ma anche per esplorarne i limiti e le implicazioni.
Come avrebbe reagito Platone di fronte a questa analisi? La rappresentazione universale dei concetti potrebbe suggerire che, a un livello profondo, le strutture del pensiero umano e delle macchine siano più simili di quanto immaginiamo.