I ricercatori hanno scoperto prove che i modelli linguistici di grandi dimensioni (LLM) possono comprendere ed elaborare oggetti naturali in modo simile agli umani. Questa scoperta rivoluzionaria suggerisce un potenziale cambiamento nel modo in cui percepiamo le capacità cognitive dell'IA.
Un team dell'Accademia Cinese delle Scienze e dell'Università di Tecnologia della Cina del Sud a Guangzhou ha condotto lo studio. Hanno esplorato se i LLM potessero sviluppare processi cognitivi simili alla rappresentazione degli oggetti umani. Ciò include il riconoscimento e la categorizzazione degli oggetti in base alla funzione, all'emozione e all'ambiente.
I ricercatori hanno testato modelli come ChatGPT 3.5 e Gemini Pro Vision. Hanno assegnato loro compiti di "eliminazione di oggetti" utilizzando testo e immagini. I sistemi di IA hanno analizzato 4,7 milioni di risposte relative a 1.854 oggetti naturali, tra cui cani, sedie e automobili.
I risultati hanno rivelato che i modelli di IA hanno creato 66 dimensioni concettuali per organizzare gli oggetti. Questo rispecchia il modo in cui gli umani categorizzano e comprendono il mondo che li circonda. I modelli multimodali, che combinano testo e immagini, hanno mostrato un allineamento ancora maggiore con il pensiero umano.
Inoltre, i dati di scansione cerebrale hanno mostrato una sovrapposizione tra il modo in cui l'IA e il cervello umano rispondono agli oggetti. Ciò suggerisce che la futura IA potrebbe avere un ragionamento più intuitivo e compatibile con l'uomo. Questo è cruciale per campi come la robotica, l'istruzione e la collaborazione uomo-IA.
Tuttavia, è importante notare che i LLM non comprendono gli oggetti nello stesso modo emotivo ed esperienziale degli umani. Questa ricerca apre nuove strade per lo sviluppo di IA che possa interagire meglio con il mondo e comprenderlo.