El sesgo de la IA en la contratación persiste en 2025: un estudio revela disparidades de género y estrategias de mitigación

Editado por: Veronika Nazarova

Un estudio reciente destaca que los modelos de IA continúan mostrando sesgos de género en las recomendaciones de empleo en 2025. Los modelos de IA de código abierto a menudo favorecen a los hombres para puestos de alta remuneración, reforzando los estereotipos de género en los procesos de contratación. Los investigadores están explorando activamente estrategias de mitigación para abordar estos sesgos y promover la equidad.

El estudio, según informó The Register el 2 de mayo de 2025, examinó varios LLM de código abierto de tamaño mediano, incluidos Llama-3-8B-Instruct y Qwen2.5-7B-Instruct. Los investigadores solicitaron a los modelos descripciones de trabajo de un conjunto de datos de anuncios de trabajo reales, pidiéndoles que eligieran entre candidatos masculinos y femeninos igualmente calificados. Los hallazgos indicaron que la mayoría de los modelos favorecían a los hombres, especialmente para los puestos de mayor salario, y reproducían asociaciones de género estereotípicas.

Para combatir este sesgo, los investigadores están experimentando con varios métodos. Un enfoque implica incitar a la IA a emular figuras históricas, como Vladimir Lenin, lo que ha demostrado ser prometedor para aumentar las tasas de devolución de llamadas a mujeres. Los expertos enfatizan la importancia de las auditorías continuas y el ajuste fino de los modelos para garantizar la equidad en las decisiones de contratación impulsadas por la IA. Abordar el sesgo de la IA es crucial para crear un mercado laboral más equitativo e inclusivo en 2025.

¿Encontró un error o inexactitud?

Consideraremos sus comentarios lo antes posible.