Modelli di IA imitano la comprensione concettuale umana degli oggetti, mostra uno studio

Modificato da: Vera Mo

Un recente studio condotto da ricercatori cinesi ha dimostrato che i modelli linguistici multimodali (LLM) possono sviluppare spontaneamente rappresentazioni concettuali degli oggetti simili a quelle degli umani.

I ricercatori hanno analizzato quasi 4,7 milioni di risposte generate da IA su 1.854 oggetti diversi come cani, sedie, mele e automobili. I modelli studiati includevano ChatGPT-3.5, che opera esclusivamente su testo, e Gemini Pro Vision, un modello multimodale in grado di elaborare sia immagini che testo.

I risultati hanno rivelato che queste IA organizzavano questi oggetti in 66 dimensioni concettuali, superando di gran lunga le semplici categorie classiche come "cibo" o "mobili". Queste dimensioni includono attributi sottili come la consistenza, la rilevanza emotiva o l'idoneità per i bambini. In altre parole, queste IA sembrano costruire una sofisticata mappa mentale, in cui gli oggetti non sono disposti meccanicamente, ma classificati secondo criteri complessi che assomigliano al modo in cui il nostro cervello ordina il mondo che ci circonda.

Lo studio ha anche confrontato come i modelli di IA e il cervello umano reagiscono agli stessi oggetti. I risultati hanno mostrato che alcune aree dell'attività cerebrale corrispondono a ciò che le IA "pensano" degli oggetti. Questa convergenza è ancora più marcata nei modelli multimodali, che combinano l'elaborazione visiva e semantica, imitando così il modo in cui gli umani combinano i sensi per comprendere il loro ambiente.

Tuttavia, è importante notare che queste IA non hanno esperienze sensoriali o emotive. La loro "comprensione" deriva dall'elaborazione statistica dei dati, in cui identificano e riproducono schemi complessi, senza sentire ciò che descrivono. Questa è l'intera sfumatura tra il riconoscimento sofisticato e la vera cognizione cosciente.

Tuttavia, questo studio ci invita a ripensare i limiti di ciò che le IA attuali possono fare. Se questi modelli riescono a generare spontaneamente rappresentazioni concettuali complesse, ciò potrebbe indicare che il confine tra l'imitazione dell'intelligenza e il possesso di una forma di intelligenza funzionale è meno chiaro di quanto pensassimo.

Al di là dei dibattiti filosofici, questo progresso ha implicazioni concrete per la robotica, l'istruzione e la collaborazione uomo-macchina. Un'IA in grado di integrare oggetti e concetti come facciamo noi potrebbe interagire in modo più naturale, anticipare le nostre esigenze e adattarsi meglio a situazioni senza precedenti.

In sintesi, i modelli linguistici di grandi dimensioni come ChatGPT sono molto più che semplici imitatori del linguaggio. Potrebbero possedere una forma di rappresentazione del mondo vicina alla cognizione umana, costruita da vasti dati e in grado di integrare informazioni complesse. Tuttavia, queste macchine rimangono oggi specchi sofisticati, che riflettono il nostro modo di organizzare la conoscenza senza sperimentarla direttamente. Non sentono, non vivono, non pensano come noi, ma potrebbero un giorno portarci lì, aprendo la strada a IA sempre più intelligenti e intuitive.

Fonti

  • Sciencepost

  • Multimodal LLMs Can Develop Human-like Object Concept Representations: Study

  • Chinese scientists confirm AI capable of spontaneously forming human-level cognition

  • Multimodal LLMs and the human brain create object representations in similar ways, study finds

Hai trovato un errore o un'inaccuratezza?

Esamineremo il tuo commento il prima possibile.