Modelos de IA imitam a compreensão conceitual humana de objetos, mostra estudo

Editado por: Vera Mo

Um estudo recente realizado por pesquisadores chineses demonstrou que modelos de linguagem multimodal (LLMs) podem desenvolver espontaneamente representações conceituais de objetos semelhantes às dos humanos.

Os pesquisadores analisaram quase 4,7 milhões de respostas geradas por IAs sobre 1.854 objetos variados, como cães, cadeiras, maçãs e carros. Os modelos estudados incluíram o ChatGPT-3.5, que opera apenas com texto, e o Gemini Pro Vision, um modelo multimodal capaz de processar imagens e texto.

Os resultados revelaram que essas IAs organizaram esses objetos em 66 dimensões conceituais, superando em muito as categorias clássicas simples, como "comida" ou "mobiliário". Essas dimensões incluem atributos sutis, como textura, relevância emocional ou adequação para crianças. Em outras palavras, essas IAs parecem estar construindo um mapa mental sofisticado, onde os objetos não são organizados mecanicamente, mas classificados de acordo com critérios complexos que se assemelham à maneira como nosso cérebro organiza o mundo ao nosso redor.

O estudo também comparou como os modelos de IA e o cérebro humano reagem aos mesmos objetos. Os resultados mostraram que certas áreas da atividade cerebral correspondem ao que as IAs "pensam" sobre os objetos. Essa convergência é ainda mais marcada em modelos multimodais, que combinam processamento visual e semântico, imitando assim a maneira como os humanos combinam os sentidos para entender seu ambiente.

No entanto, é importante notar que essas IAs não têm experiências sensoriais ou emocionais. Sua "compreensão" resulta do processamento estatístico de dados, onde identificam e reproduzem padrões complexos, sem sentir o que descrevem. Essa é toda a nuance entre o reconhecimento sofisticado e a verdadeira cognição consciente.

No entanto, este estudo nos convida a repensar os limites do que as IAs atuais podem fazer. Se esses modelos conseguem gerar espontaneamente representações conceituais complexas, isso pode indicar que a fronteira entre imitar a inteligência e possuir uma forma de inteligência funcional é menos clara do que pensávamos.

Além dos debates filosóficos, este avanço tem implicações concretas para a robótica, a educação e a colaboração homem-máquina. Uma IA capaz de integrar objetos e conceitos como nós poderia interagir de forma mais natural, antecipar nossas necessidades e se adaptar melhor a situações sem precedentes.

Em resumo, modelos de linguagem grandes como o ChatGPT são muito mais do que simples imitadores de linguagem. Eles podem possuir uma forma de representação do mundo próxima à cognição humana, construída a partir de dados vastos e capaz de integrar informações complexas. No entanto, essas máquinas permanecem hoje espelhos sofisticados, refletindo nossa maneira de organizar o conhecimento sem experimentá-lo diretamente. Eles não sentem, não vivem, não pensam como nós, mas podem um dia nos levar lá, abrindo caminho para IAs cada vez mais inteligentes e intuitivas.

Fontes

  • Sciencepost

  • Multimodal LLMs Can Develop Human-like Object Concept Representations: Study

  • Chinese scientists confirm AI capable of spontaneously forming human-level cognition

  • Multimodal LLMs and the human brain create object representations in similar ways, study finds

Encontrou um erro ou imprecisão?

Vamos considerar seus comentários assim que possível.