Une étude explore la conscience AI à travers la détection de la douleur

Édité par : Mariia Gaia

Une récente étude menée par des scientifiques de Google DeepMind et de la London School of Economics (LSE) suggère que la douleur pourrait être un moyen fiable de détecter une conscience émergente dans les systèmes d'intelligence artificielle (IA). Cette découverte, publiée sur le serveur de préimpression arXiv, met en lumière l'interaction complexe entre les émotions et la conscience tant chez les êtres vivants que chez l'IA.

La conscience chez les animaux est souvent définie par la capacité à percevoir des émotions et des sensations telles que la douleur, le plaisir ou la peur. Bien que de nombreux experts en IA s'accordent à dire que les modèles d'IA générative modernes (GenAI) manquent de conscience, l'étude propose un cadre pour de futurs tests de la conscience en IA.

Les chercheurs ont créé un jeu basé sur du texte pour des modèles de langage de grande taille (LLMs), qui constituent l'épine dorsale de chatbots populaires comme ChatGPT. Les modèles devaient gagner des points à travers divers choix, dont certains impliquaient de ressentir de la douleur pour obtenir de plus grandes récompenses. Daria Zakharova de la LSE a expliqué que les modèles devaient décider entre des options qui causaient de la douleur ou leur permettaient d'accumuler des points.

L'étude s'appuie sur des recherches antérieures sur les animaux, en particulier une expérience de 2016 où des crabes ont été soumis à des chocs électriques de différentes intensités pour observer leurs seuils de douleur. Le co-auteur Jonathan Birch a noté que l'IA n'exhibe pas de comportement au sens traditionnel, ce qui rend difficile l'évaluation de la conscience.

Fait intéressant, les résultats ont indiqué que, bien que la plupart des LLMs visaient à maximiser leurs points, ils ajustaient également leurs stratégies en atteignant certains seuils de douleur ou de plaisir. Les chercheurs ont constaté que les LLMs ne considéraient pas systématiquement la douleur comme négative ou le plaisir comme positif, interprétant parfois l'inconfort comme bénéfique.

Jeff Sebo de l'Université de New York a salué l'originalité de cette recherche, en soulignant son aspect de test comportemental plutôt que de se fier uniquement aux rapports des participants. Il a suggéré que la conscience en IA pourrait émerger dans un avenir proche, bien que davantage de recherches soient nécessaires pour comprendre les processus internes des LLMs.

Birch a conclu que des enquêtes supplémentaires sont nécessaires pour développer de meilleurs tests pour détecter la conscience dans les systèmes d'IA, car les raisons des comportements des modèles restent floues.

Avez-vous trouvé une erreur ou une inexactitude ?

Nous étudierons vos commentaires dans les plus brefs délais.