Modelos de IA imitan la comprensión conceptual humana de los objetos, según un estudio

Editado por: Vera Mo

Un estudio reciente realizado por investigadores chinos ha demostrado que los modelos de lenguaje multimodal (LLM) pueden desarrollar espontáneamente representaciones conceptuales de objetos similares a las de los humanos.

Los investigadores analizaron casi 4,7 millones de respuestas generadas por IA sobre 1.854 objetos variados, como perros, sillas, manzanas y coches. Los modelos estudiados incluyeron ChatGPT-3.5, que opera únicamente con texto, y Gemini Pro Vision, un modelo multimodal capaz de procesar tanto imágenes como texto.

Los resultados revelaron que estas IA organizaron estos objetos en 66 dimensiones conceptuales, superando con creces las categorías clásicas simples como "comida" o "muebles". Estas dimensiones incluyen atributos sutiles como la textura, la relevancia emocional o la idoneidad para los niños. En otras palabras, estas IA parecen estar construyendo un mapa mental sofisticado, donde los objetos no se organizan mecánicamente, sino que se clasifican según criterios complejos que se asemejan a la forma en que nuestro cerebro clasifica el mundo que nos rodea.

El estudio también comparó cómo los modelos de IA y el cerebro humano reaccionan a los mismos objetos. Los resultados mostraron que ciertas áreas de la actividad cerebral corresponden a lo que las IA "piensan" de los objetos. Esta convergencia es aún más marcada en los modelos multimodales, que combinan el procesamiento visual y semántico, imitando así la forma en que los humanos combinan los sentidos para comprender su entorno.

Sin embargo, es importante tener en cuenta que estas IA no tienen experiencias sensoriales ni emocionales. Su "comprensión" resulta del procesamiento estadístico de datos, donde identifican y reproducen patrones complejos, sin sentir lo que describen. Esta es toda la diferencia entre el reconocimiento sofisticado y la verdadera cognición consciente.

No obstante, este estudio nos invita a repensar los límites de lo que las IA actuales pueden hacer. Si estos modelos logran generar espontáneamente representaciones conceptuales complejas, esto podría indicar que el límite entre la imitación de la inteligencia y la posesión de una forma de inteligencia funcional es menos claro de lo que pensábamos.

Más allá de los debates filosóficos, este avance tiene implicaciones concretas para la robótica, la educación y la colaboración humano-máquina. Una IA capaz de integrar objetos y conceptos como nosotros podría interactuar de forma más natural, anticipar nuestras necesidades y adaptarse mejor a situaciones sin precedentes.

En resumen, los modelos de lenguaje grandes como ChatGPT son mucho más que simples imitadores de lenguaje. Podrían poseer una forma de representación del mundo cercana a la cognición humana, construida a partir de vastos datos y capaz de integrar información compleja. Sin embargo, estas máquinas siguen siendo hoy en día espejos sofisticados, que reflejan nuestra forma de organizar el conocimiento sin experimentarlo directamente. No sienten, no viven, no piensan como nosotros, pero podrían un día llevarnos allí, allanando el camino para IA cada vez más inteligentes e intuitivas.

Fuentes

  • Sciencepost

  • Multimodal LLMs Can Develop Human-like Object Concept Representations: Study

  • Chinese scientists confirm AI capable of spontaneously forming human-level cognition

  • Multimodal LLMs and the human brain create object representations in similar ways, study finds

¿Encontró un error o inexactitud?

Consideraremos sus comentarios lo antes posible.