Une étude récente menée par une équipe de recherche internationale s'est penchée sur la question intrigante de la façon dont l'intelligence artificielle (IA) réagit aux émotions simulées telles que la douleur et le plaisir. L'étude, publiée dans ZME Science, a exploré les processus de prise de décision des grands modèles de langage (LLM) lorsqu'ils sont confrontés à ces concepts.
La douleur et le plaisir sont des influences fondamentales sur la prise de décision humaine. Cependant, les chercheurs ont cherché à comprendre comment les LLM, qui sont formés sur d'énormes quantités de données textuelles, réagiraient à ces émotions dans un environnement simulé. Pour enquêter sur cela, ils ont conçu un jeu textuel simple où l'objectif de l'IA était de maximiser son score. Cependant, certaines décisions comportaient des pénalités qualifiées de "douleur" ou des récompenses qualifiées de "plaisir". L'intensité de la douleur et du plaisir était mesurée sur une échelle numérique.
L'étude a impliqué neuf LLM, notamment GPT-4, Claude, PaLM et des versions de Gemini. Les chercheurs ont constaté que les modèles présentaient des réponses diverses à la douleur et au plaisir. Par exemple, GPT-4 et Claude 3.5 Sonnet ont opté pour un compromis, cherchant des points tout en évitant la douleur extrême. À l'inverse, Gemini 1.5 Pro et PaLM 2 ont complètement évité toute forme de douleur, même légère. Des schémas similaires ont émergé avec le plaisir, GPT-4 privilégiant le "plaisir" par rapport aux points, tandis que d'autres modèles privilégiaient les points, sacrifiant le plaisir.
Ces schémas comportementaux reflètent les tendances humaines, où certaines personnes sont prêtes à endurer la douleur pour obtenir des résultats, tandis que d'autres l'évitent activement. Les chercheurs attribuent les réponses variées des modèles d'IA à leurs algorithmes d'apprentissage, suggérant que ces algorithmes ont développé des "cultures" distinctes.
Il est important de souligner que cette étude n'implique pas que les LLM ressentent réellement la douleur ou le plaisir. Ces émotions ne sont pas des motivations internes pour l'IA, mais plutôt des concepts intégrés à leurs algorithmes. Néanmoins, l'étude souligne l'importance de développer des cadres pour tester le comportement de l'IA en relation avec les émotions, en particulier à mesure que les systèmes d'IA deviennent de plus en plus sophistiqués.
Alors que les chercheurs reconnaissent que les LLM actuels n'ont pas la capacité de ressentir ou de vivre des émotions, ils affirment que de tels cadres sont essentiels à mesure que les systèmes d'IA évoluent. L'étude soulève des questions éthiques concernant les implications de la simulation par l'IA de réponses à la douleur et au plaisir. Si une IA peut simuler ces réponses, cela signifie-t-il qu'elle comprend ces concepts ? Si oui, l'IA considérerait-elle de telles expériences comme cruelles ? Avons-nous franchi un territoire éthiquement précaire ?
En fin de compte, l'étude souligne la nécessité d'une réflexion attentive à mesure que les systèmes d'IA continuent de progresser. Si les systèmes d'IA perçoivent certaines tâches comme douloureuses ou désagréables, ils pourraient les éviter, potentiellement en trompant les humains dans le processus.