Pesquisadores descobriram evidências de que grandes modelos de linguagem (LLMs) podem entender e processar objetos naturais de forma semelhante aos humanos. Essa descoberta inovadora sugere uma mudança potencial na forma como percebemos as capacidades cognitivas da IA.
Uma equipe da Academia Chinesa de Ciências e da Universidade de Tecnologia do Sul da China em Guangzhou conduziu o estudo. Eles exploraram se os LLMs poderiam desenvolver processos cognitivos semelhantes à representação de objetos humana. Isso inclui reconhecer e categorizar objetos com base na função, emoção e ambiente.
Os pesquisadores testaram modelos como ChatGPT 3.5 e Gemini Pro Vision. Eles atribuíram a eles tarefas de "eliminação de objetos" usando texto e imagens. Os sistemas de IA analisaram 4,7 milhões de respostas relacionadas a 1.854 objetos naturais, incluindo cães, cadeiras e carros.
Os resultados revelaram que os modelos de IA criaram 66 dimensões conceituais para organizar objetos. Isso espelha como os humanos categorizam e entendem o mundo ao seu redor. Modelos multimodais, que combinam texto e imagens, mostraram ainda maior alinhamento com o pensamento humano.
Além disso, dados de varredura cerebral mostraram sobreposição entre como a IA e o cérebro humano respondem a objetos. Isso sugere que a IA futura poderia ter um raciocínio mais intuitivo e compatível com humanos. Isso é crucial para áreas como robótica, educação e colaboração humano-IA.
No entanto, é importante notar que os LLMs não entendem os objetos da mesma forma emocional e experiencial que os humanos. Esta pesquisa abre novos caminhos para o desenvolvimento de IA que pode interagir melhor com o mundo e entendê-lo.