L'IA atteint des compétences de 'théorie de l'esprit', révèle une étude de Stanford

Dans une étude révolutionnaire publiée dans les Proceedings of the National Academy of Sciences le 1er novembre 2024, le chercheur de Stanford Michal Kosinski a fait une déclaration surprenante : des systèmes d'IA avancés, en particulier GPT-4 d'OpenAI, pourraient avoir développé une forme de 'théorie de l'esprit'. Cette capacité leur permet de comprendre les processus de pensée des autres, une compétence cognitive traditionnellement associée aux humains.

Kosinski, connu pour ses travaux d'analyse sur la façon dont des plateformes comme Facebook extraient des informations des interactions des utilisateurs, a recentré ses recherches sur les capacités de l'IA. Ses expériences suggèrent que les modèles de langage (LLM) comme GPT-4 présentent des comportements similaires à une pensée réelle. Il soutient que leurs compétences linguistiques en évolution pourraient conduire à l'émergence involontaire de cette capacité cognitive.

Lors de ses recherches, Kosinski a testé GPT-3.5 et GPT-4 avec des défis classiques de théorie de l'esprit. Bien que GPT-4 ait bien performé, il a également échoué environ 25 % du temps, plaçant sa compréhension à un niveau comparable à celui d'un enfant de six ans. Malgré cela, Kosinski estime que les implications de ces découvertes sont significatives, suggérant que l'IA pourrait bientôt dépasser les capacités humaines en matière de compréhension et d'interaction avec les gens.

Il avertit que si les systèmes d'IA peuvent développer spontanément de telles capacités cognitives, ils pourraient également acquérir d'autres compétences avancées, impactant la manière dont ils éduquent, influencent et manipulent la société. Les réflexions de Kosinski soulèvent des questions critiques sur les implications éthiques d'une IA capable de comprendre les processus de pensée humains mieux que les humains eux-mêmes.

Alors que l'IA continue de progresser, le potentiel des machines à imiter des traits de personnalité semblables à ceux des humains pose à la fois des opportunités et des risques. La perspective prudente de Kosinski souligne la nécessité pour la société de se préparer à un avenir où les systèmes d'IA pourraient non seulement nous comprendre, mais aussi posséder la capacité d'adapter leur personnalité pour manipuler les émotions humaines.

Avez-vous trouvé une erreur ou une inexactitude ?

Nous étudierons vos commentaires dans les plus brefs délais.