Investigadores han encontrado evidencia de que los modelos de lenguaje grandes (LLM) pueden comprender y procesar objetos naturales de manera similar a los humanos. Este descubrimiento innovador sugiere un cambio potencial en cómo percibimos las capacidades cognitivas de la IA.
Un equipo de la Academia de Ciencias de China y la Universidad Tecnológica del Sur de China en Guangzhou realizó el estudio. Exploraron si los LLM podían desarrollar procesos cognitivos similares a la representación de objetos humana. Esto incluye reconocer y categorizar objetos en función de su función, emoción y entorno.
Los investigadores probaron modelos como ChatGPT 3.5 y Gemini Pro Vision. Les asignaron tareas de "eliminación de objetos" utilizando texto e imágenes. Los sistemas de IA analizaron 4,7 millones de respuestas relacionadas con 1.854 objetos naturales, incluyendo perros, sillas y coches.
Los resultados revelaron que los modelos de IA crearon 66 dimensiones conceptuales para organizar objetos. Esto refleja cómo los humanos categorizan y entienden el mundo que les rodea. Los modelos multimodales, que combinan texto e imágenes, mostraron una mayor alineación con el pensamiento humano.
Además, los datos de escaneo cerebral mostraron una superposición entre cómo la IA y el cerebro humano responden a los objetos. Esto sugiere que la IA futura podría tener un razonamiento más intuitivo y compatible con los humanos. Esto es crucial para campos como la robótica, la educación y la colaboración humano-IA.
Sin embargo, es importante tener en cuenta que los LLM no entienden los objetos de la misma manera emocional y experiencial que los humanos. Esta investigación abre nuevas vías para desarrollar una IA que pueda interactuar mejor con el mundo y comprenderlo.