一項最新研究表明,2025年人工智慧模型在職位推薦方面仍然存在性別偏見。開源人工智慧模型通常更傾向於男性擔任高薪職位,從而強化了徵才過程中的性別刻板印象。研究人員正在積極探索緩解策略,以解決這些偏見並促進公平。
據The Register於2025年5月2日報導,該研究調查了幾種中型開源LLM,包括Llama-3-8B-Instruct和Qwen2.5-7B-Instruct。研究人員使用真實徵才廣告數據集中的職位描述來提示模型,要求它們在條件相當的男性和女性候選人之間做出選擇。研究結果表明,大多數模型更傾向於男性,尤其是在高薪職位方面,並再現了刻板的性別關聯。
為了消除這種偏見,研究人員正在嘗試各種方法。一種方法是提示人工智慧模仿歷史人物,例如弗拉基米爾·列寧,這已顯示出在提高女性回電率方面的潛力。專家強調,持續審計和微調模型對於確保人工智慧驅動的徵才決策的公平性至關重要。解決人工智慧偏見對於在2025年創造一個更公平和包容的勞動力市場至關重要。