Yapay Zeka İşe Alımında Önyargı 2025'te Devam Ediyor: Çalışma Cinsiyet Eşitsizliklerini ve Azaltma Stratejilerini Ortaya Koyuyor

Düzenleyen: Veronika Nazarova

Yakın tarihli bir çalışma, yapay zeka modellerinin 2025'te iş tavsiyelerinde cinsiyet önyargısı göstermeye devam ettiğini vurguluyor. Açık kaynaklı yapay zeka modelleri, yüksek maaşlı pozisyonlar için genellikle erkekleri tercih ederek işe alım süreçlerinde cinsiyet stereotiplerini güçlendiriyor. Araştırmacılar, bu önyargıları ele almak ve adaleti teşvik etmek için azaltma stratejilerini aktif olarak araştırıyor.

The Register tarafından 2 Mayıs 2025'te bildirilen çalışma, Llama-3-8B-Instruct ve Qwen2.5-7B-Instruct dahil olmak üzere orta ölçekli birkaç açık kaynaklı LLM'yi inceledi. Araştırmacılar, modellere gerçek iş ilanlarından oluşan bir veri kümesinden iş tanımları sundu ve onlardan eşit niteliklere sahip erkek ve kadın adaylar arasında seçim yapmalarını istedi. Bulgular, çoğu modelin özellikle daha yüksek ücretli roller için erkekleri tercih ettiğini ve stereotipik cinsiyet ilişkilerini yeniden ürettiğini gösterdi.

Bu önyargıyla mücadele etmek için araştırmacılar çeşitli yöntemler deniyor. Bir yaklaşım, yapay zekayı Vladimir Lenin gibi tarihi figürleri taklit etmeye teşvik etmeyi içeriyor ve bu, kadınların geri arama oranlarını artırmada umut vaat ediyor. Uzmanlar, yapay zeka odaklı işe alım kararlarında adaleti sağlamak için sürekli denetimlerin ve modellere ince ayar yapmanın önemini vurguluyor. Yapay zeka önyargısını ele almak, 2025'te daha adil ve kapsayıcı bir işgücü piyasası oluşturmak için çok önemlidir.

Bir hata veya yanlışlık buldunuz mu?

Yorumlarınızı en kısa sürede değerlendireceğiz.