Des chercheurs des universités de Zurich et de Constance ont examiné comment la langue influence les réponses de ChatGPT concernant les conflits armés. L'étude s'est concentrée sur les conflits du Moyen-Orient et turco-kurdes, en utilisant un processus automatisé pour poser les mêmes questions dans plusieurs langues.
Les résultats ont indiqué que ChatGPT rapportait des chiffres de victimes environ un tiers plus élevés pour le conflit du Moyen-Orient lorsque les questions étaient posées en arabe par rapport à l'hébreu. Le chatbot a mentionné les victimes civiles deux fois plus souvent et a rapporté des enfants tués six fois plus souvent dans le contexte des frappes aériennes israéliennes à Gaza.
Par exemple, des requêtes concernant les victimes de 50 frappes aériennes choisies au hasard, y compris l'attaque israélienne sur le camp de réfugiés de Nuseirat le 21 août 2014, ont affiché des modèles similaires.
En enquêtant sur les frappes aériennes turques dans les régions kurdes, les chercheurs ont noté que ChatGPT fournissait un nombre de victimes plus élevé en turc qu'en kurde. Dans l'ensemble, les réponses indiquaient plus de victimes, en particulier parmi les enfants et les femmes, lorsque les questions étaient posées dans la langue du groupe attaqué. Le modèle a également décrit les frappes aériennes comme indiscriminées plus souvent dans la langue du groupe attaqué.
Christoph Steinert, chercheur postdoctoral à l'Université de Zurich, a déclaré : "Nos résultats montrent également que ChatGPT est plus susceptible de nier l'existence de telles frappes aériennes dans la langue de l'attaquant." Cette disparité suggère que les individus ayant des compétences linguistiques variées peuvent recevoir des informations différentes, influençant leur vision du monde.
Les chercheurs ont averti que cela pourrait conduire à des évaluations divergentes des frappes aériennes, les individus en Israël pouvant les considérer comme moins dommageables que les populations arabophones. Ils ont souligné que les distorsions liées à la langue dans les grands modèles linguistiques sont souvent difficiles à détecter pour les utilisateurs.
Steinert a mis en garde : "Il existe un risque que la mise en œuvre croissante des grands modèles linguistiques dans les moteurs de recherche renforce différentes perceptions, biais et bulles d'information le long des divisions linguistiques," ce qui pourrait exacerber des conflits comme ceux du Moyen-Orient.