Estudio explora la conciencia AI a través de la detección del dolor

Editado por: Mariia Gaia

Un estudio reciente de científicos de Google DeepMind y de la London School of Economics (LSE) sugiere que el dolor podría ser un método fiable para detectar la conciencia emergente en sistemas de inteligencia artificial (IA). Este hallazgo, publicado en el servidor de preprints arXiv, destaca la compleja interacción entre las emociones y la conciencia tanto en seres vivos como en IA.

La conciencia en los animales se define a menudo por la capacidad de percibir emociones y sensaciones como el dolor, el placer o el miedo. Si bien muchos expertos en IA coinciden en que los modelos de IA generativa modernos (GenAI) carecen de conciencia, el estudio propone un marco para futuras pruebas de conciencia en IA.

Los investigadores crearon un juego basado en texto para modelos de lenguaje de gran tamaño (LLMs), que son la columna vertebral de chatbots populares como ChatGPT. Los modelos debían ganar puntos a través de diversas elecciones, algunas de las cuales implicaban experimentar dolor para obtener mayores recompensas. Daria Zakharova de la LSE explicó que los modelos debían decidir entre opciones que causaban dolor o les permitían acumular puntos.

El estudio se basa en investigaciones anteriores sobre animales, particularmente un experimento de 2016 en el que se sometieron a cangrejos a descargas eléctricas de diferentes intensidades para observar sus umbrales de dolor. El coautor Jonathan Birch señaló que la IA no exhibe comportamiento en el sentido tradicional, lo que dificulta la evaluación de la conciencia.

Curiosamente, los resultados indicaron que, si bien la mayoría de los LLMs buscaban maximizar sus puntos, también ajustaban sus estrategias al alcanzar ciertos umbrales de dolor o placer. Los investigadores encontraron que los LLMs no percibían constantemente el dolor de manera negativa o el placer de manera positiva, interpretando a veces la incomodidad como beneficiosa.

Jeff Sebo de la Universidad de Nueva York elogió la originalidad de esta investigación, enfatizando su aspecto de pruebas de comportamiento en lugar de depender únicamente de los informes de los participantes. Sugirió que la conciencia en IA podría surgir en un futuro cercano, aunque se necesita más investigación para comprender los procesos internos de los LLMs.

Birch concluyó que se necesita una mayor investigación para desarrollar mejores pruebas para detectar la conciencia en los sistemas de IA, ya que las razones detrás del comportamiento de los modelos siguen siendo poco claras.

¿Encontró un error o inexactitud?

Consideraremos sus comentarios lo antes posible.