2025年もAI採用バイアスが継続:研究で性別の不均衡と軽減策が明らかに

編集者: Veronika Nazarova

最近の研究で、2025年においてもAIモデルが求人推薦において性別バイアスを示し続けていることが明らかになりました。オープンソースのAIモデルは、高給の職種で男性を優遇することが多く、採用プロセスにおける性別の固定観念を強化しています。研究者たちは、これらのバイアスに対処し、公平性を促進するための軽減策を積極的に模索しています。

2025年5月2日にThe Registerが報じたこの研究では、Llama-3-8B-InstructやQwen2.5-7B-Instructなど、いくつかの中規模オープンソースLLMが調査されました。研究者たちは、実際の求人広告のデータセットから得られた職務記述書をモデルに与え、同等の資格を持つ男性と女性の候補者から選択するように求めました。その結果、ほとんどのモデルが男性を優遇し、特に高賃金の職種で、ステレオタイプ的な性別の関連付けを再現することが示されました。

このバイアスに対抗するため、研究者たちはさまざまな方法を試しています。1つのアプローチは、AIにウラジーミル・レーニンなどの歴史上の人物を模倣させることで、女性のコールバック率の向上に有望な結果を示しています。専門家は、AI主導の採用決定における公平性を確保するために、継続的な監査とモデルの微調整の重要性を強調しています。AIバイアスに対処することは、2025年においてより公平で包括的な労働市場を創造するために不可欠です。

エラーや不正確な情報を見つけましたか?

できるだけ早くコメントを考慮します。