Sebuah studi baru-baru ini menyoroti bahwa model AI terus menunjukkan bias gender dalam rekomendasi pekerjaan pada tahun 2025. Model AI sumber terbuka sering kali lebih memilih pria untuk posisi bergaji tinggi, memperkuat stereotip gender dalam proses perekrutan. Para peneliti secara aktif menjajaki strategi mitigasi untuk mengatasi bias ini dan mempromosikan keadilan.
Studi tersebut, seperti yang dilaporkan oleh The Register pada 2 Mei 2025, memeriksa beberapa LLM sumber terbuka berukuran sedang, termasuk Llama-3-8B-Instruct dan Qwen2.5-7B-Instruct. Para peneliti meminta model dengan deskripsi pekerjaan dari kumpulan data iklan pekerjaan nyata, meminta mereka untuk memilih antara kandidat pria dan wanita yang sama-sama memenuhi syarat. Temuan menunjukkan bahwa sebagian besar model lebih menyukai pria, terutama untuk peran dengan upah lebih tinggi, dan mereproduksi asosiasi gender stereotipikal.
Untuk memerangi bias ini, para peneliti bereksperimen dengan berbagai metode. Salah satu pendekatannya melibatkan meminta AI untuk meniru tokoh-tokoh sejarah, seperti Vladimir Lenin, yang telah menunjukkan hasil yang menjanjikan dalam meningkatkan tingkat panggilan balik wanita. Para ahli menekankan pentingnya audit berkelanjutan dan model penyetelan halus untuk memastikan keadilan dalam keputusan perekrutan yang didorong oleh AI. Mengatasi bias AI sangat penting untuk menciptakan pasar tenaga kerja yang lebih adil dan inklusif pada tahun 2025.