Les biais de l'IA dans le recrutement persistent en 2025 : une étude révèle des disparités entre les sexes et des stratégies d'atténuation

Édité par : Veronika Nazarova

Une étude récente souligne que les modèles d'IA continuent de présenter des biais sexistes dans les recommandations d'emploi en 2025. Les modèles d'IA open source favorisent souvent les hommes pour les postes à hauts salaires, renforçant ainsi les stéréotypes de genre dans les processus de recrutement. Les chercheurs explorent activement des stratégies d'atténuation pour lutter contre ces biais et promouvoir l'équité.

L'étude, rapportée par The Register le 2 mai 2025, a examiné plusieurs LLM open source de taille moyenne, notamment Llama-3-8B-Instruct et Qwen2.5-7B-Instruct. Les chercheurs ont soumis aux modèles des descriptions de poste tirées d'un ensemble de données d'annonces d'emploi réelles, en leur demandant de choisir entre des candidats masculins et féminins également qualifiés. Les résultats ont indiqué que la plupart des modèles favorisaient les hommes, en particulier pour les postes les mieux rémunérés, et reproduisaient des associations de genre stéréotypées.

Pour lutter contre ce biais, les chercheurs expérimentent diverses méthodes. Une approche consiste à inciter l'IA à imiter des personnages historiques, tels que Vladimir Lénine, ce qui s'est avéré prometteur pour augmenter les taux de rappel des femmes. Les experts soulignent l'importance d'audits continus et d'un réglage fin des modèles pour garantir l'équité dans les décisions de recrutement basées sur l'IA. La lutte contre les biais de l'IA est essentielle pour créer un marché du travail plus équitable et inclusif en 2025.

Avez-vous trouvé une erreur ou une inexactitude ?

Nous étudierons vos commentaires dans les plus brefs délais.