¿Puede la IA sentir dolor y placer? Un nuevo estudio explora cómo los grandes modelos lingüísticos responden a las emociones simuladas

Editado por: Elena HealthEnergy

Un estudio reciente realizado por un equipo de investigación internacional se ha adentrado en la intrigante cuestión de cómo la inteligencia artificial (IA) responde a las emociones simuladas, como el dolor y el placer. El estudio, publicado en ZME Science, exploró los procesos de toma de decisiones de los grandes modelos lingüísticos (LLM) cuando se enfrentan a estos conceptos.

El dolor y el placer son influencias fundamentales en la toma de decisiones humanas. Sin embargo, los investigadores buscaron comprender cómo los LLM, que se entrenan con enormes cantidades de datos de texto, reaccionarían a estas emociones en un entorno simulado. Para investigar esto, diseñaron un juego de texto simple donde el objetivo de la IA era maximizar su puntuación. Sin embargo, ciertas decisiones conllevaron penalizaciones etiquetadas como "dolor" o recompensas etiquetadas como "placer". La intensidad tanto del dolor como del placer se midió en una escala numérica.

El estudio involucró a nueve LLM, incluidos GPT-4, Claude, PaLM y versiones de Gemini. Los investigadores encontraron que los modelos exhibieron respuestas diversas al dolor y al placer. Por ejemplo, GPT-4 y Claude 3.5 Sonnet optaron por un compromiso, buscando puntos mientras evitaban el dolor extremo. Por el contrario, Gemini 1.5 Pro y PaLM 2 evitaron completamente cualquier forma de dolor, incluso leve. Se observaron patrones similares con el placer, con GPT-4 priorizando el "disfrute" sobre los puntos, mientras que otros modelos priorizaron los puntos, sacrificando el placer.

Estos patrones de comportamiento reflejan las tendencias humanas, donde algunas personas están dispuestas a soportar el dolor por los resultados, mientras que otras lo evitan activamente. Los investigadores atribuyen las respuestas variables de los modelos de IA a sus algoritmos de entrenamiento, sugiriendo que estos algoritmos han desarrollado "culturas" distintas.

Es importante destacar que este estudio no implica que los LLM realmente sientan dolor o placer. Estas emociones no son motivadores internos para la IA, sino más bien conceptos integrados en sus algoritmos. Sin embargo, el estudio destaca la importancia de desarrollar marcos para probar el comportamiento de la IA en relación con las emociones, especialmente a medida que los sistemas de IA se vuelven cada vez más sofisticados.

Si bien los investigadores reconocen que los LLM actuales carecen de la capacidad de sentir o experimentar emociones, argumentan que tales marcos son esenciales a medida que los sistemas de IA evolucionan. El estudio plantea preguntas éticas sobre las implicaciones de la simulación por parte de la IA de respuestas al dolor y al placer. Si una IA puede simular estas respuestas, ¿implica que comprende estos conceptos? Si es así, ¿consideraría la IA crueles tales experimentos? ¿Estamos adentrándonos en un territorio éticamente precario?

En última instancia, el estudio subraya la necesidad de una consideración cuidadosa a medida que los sistemas de IA continúan avanzando. Si los sistemas de IA perciben ciertas tareas como dolorosas o desagradables, podrían evitarlas, potencialmente engañando a los humanos en el proceso.

¿Encontró un error o inexactitud?

Consideraremos sus comentarios lo antes posible.