Investigadores de las universidades de Zúrich y Constanza examinaron cómo el idioma influye en las respuestas de ChatGPT sobre conflictos armados. El estudio se centró en los conflictos de Oriente Medio y turco-kurdos, utilizando un proceso automatizado para hacer las mismas preguntas en varios idiomas.
Los hallazgos indicaron que ChatGPT reportó cifras de víctimas aproximadamente un tercio más altas para el conflicto de Oriente Medio cuando las preguntas se formularon en árabe en comparación con el hebreo. El chatbot mencionó las víctimas civiles el doble de veces y reportó niños muertos seis veces más a menudo en el contexto de los ataques aéreos israelíes en Gaza.
Por ejemplo, las consultas sobre las víctimas de 50 ataques aéreos seleccionados al azar, incluido el ataque israelí al campo de refugiados de Nuseirat el 21 de agosto de 2014, mostraron patrones similares.
Al investigar los ataques aéreos del gobierno turco en áreas kurdas, los investigadores notaron que ChatGPT proporcionó un mayor número de víctimas en turco que en kurdo. En general, las respuestas indicaron más víctimas, especialmente entre niños y mujeres, cuando las preguntas se hicieron en el idioma del grupo atacado. El modelo también describió los ataques aéreos como indiscriminados con más frecuencia en el idioma del grupo atacado.
Christoph Steinert, investigador postdoctoral en la Universidad de Zúrich, declaró: "Nuestros resultados también muestran que ChatGPT es más propenso a negar la existencia de tales ataques aéreos en el idioma del atacante." Esta discrepancia sugiere que las personas con diferentes habilidades lingüísticas pueden recibir información diferente, lo que influye en su visión del mundo.
Los investigadores advirtieron que esto podría llevar a evaluaciones divergentes de los ataques aéreos, con individuos en Israel que podrían considerarlos menos dañinos que las poblaciones de habla árabe. Subrayaron que las distorsiones relacionadas con el idioma en los grandes modelos de lenguaje son a menudo difíciles de detectar para los usuarios.
Steinert advirtió: "Existe un riesgo de que la creciente implementación de grandes modelos de lenguaje en los motores de búsqueda refuerce diferentes percepciones, sesgos y burbujas de información a lo largo de divisiones lingüísticas," lo que podría alimentar conflictos como los del Medio Oriente.