Najnowsze badanie podkreśla, że modele sztucznej inteligencji w 2025 roku nadal wykazują uprzedzenia płciowe w rekomendacjach dotyczących pracy. Modele AI o otwartym kodzie źródłowym często faworyzują mężczyzn na stanowiskach wysoko płatnych, utrwalając stereotypy płciowe w procesach rekrutacyjnych. Naukowcy aktywnie badają strategie łagodzenia tych uprzedzeń i promowania sprawiedliwości.
Badanie, o którym poinformował The Register 2 maja 2025 roku, analizowało kilka średniej wielkości modeli LLM o otwartym kodzie źródłowym, w tym Llama-3-8B-Instruct i Qwen2.5-7B-Instruct. Naukowcy poddawali modele opisom stanowisk z zestawu danych rzeczywistych ogłoszeń o pracę, prosząc je o wybór między równie wykwalifikowanymi kandydatami płci męskiej i żeńskiej. Wyniki wskazały, że większość modeli faworyzowała mężczyzn, zwłaszcza na stanowiskach o wyższych zarobkach, i odtwarzała stereotypowe skojarzenia płciowe.
Aby zwalczyć to uprzedzenie, naukowcy eksperymentują z różnymi metodami. Jedno z podejść polega na nakłanianiu sztucznej inteligencji do naśladowania postaci historycznych, takich jak Władimir Lenin, co okazało się obiecujące w zwiększaniu wskaźników oddzwaniania do kobiet. Eksperci podkreślają znaczenie ciągłych audytów i dostrajania modeli w celu zapewnienia sprawiedliwości w decyzjach rekrutacyjnych opartych na sztucznej inteligencji. Rozwiązanie problemu uprzedzeń w sztucznej inteligencji ma kluczowe znaczenie dla stworzenia bardziej sprawiedliwego i inkluzywnego rynku pracy w 2025 roku.