AI-vooroordeel bij werving blijft bestaan in 2025: Onderzoek onthult genderongelijkheid en strategieën om dit te verminderen

Bewerkt door: Veronika Nazarova

Een recent onderzoek benadrukt dat AI-modellen in 2025 nog steeds genderbias vertonen in aanbevelingen voor banen. Open-source AI-modellen geven vaak de voorkeur aan mannen voor hoogbetaalde functies, waardoor genderstereotypen in wervingsprocessen worden versterkt. Onderzoekers onderzoeken actief strategieën om deze vooroordelen te verminderen en eerlijkheid te bevorderen.

Het onderzoek, zoals gerapporteerd door The Register op 2 mei 2025, onderzocht verschillende middelgrote open-source LLM's, waaronder Llama-3-8B-Instruct en Qwen2.5-7B-Instruct. Onderzoekers gaven de modellen vacaturebeschrijvingen uit een dataset van echte vacatures en vroegen hen om te kiezen tussen gelijkwaardige mannelijke en vrouwelijke kandidaten. De bevindingen gaven aan dat de meeste modellen de voorkeur gaven aan mannen, vooral voor functies met een hoger loon, en stereotype genderassociaties reproduceerden.

Om deze bias te bestrijden, experimenteren onderzoekers met verschillende methoden. Een benadering omvat het aanzetten van de AI om historische figuren, zoals Vladimir Lenin, na te bootsen, wat veelbelovend is gebleken in het verhogen van het aantal telefoontjes van vrouwen. Experts benadrukken het belang van voortdurende audits en het verfijnen van modellen om eerlijkheid te waarborgen bij AI-gestuurde wervingsbeslissingen. Het aanpakken van AI-vooroordelen is cruciaal voor het creëren van een rechtvaardigere en inclusievere arbeidsmarkt in 2025.

Heb je een fout of onnauwkeurigheid gevonden?

We zullen je opmerkingen zo snel mogelijk in overweging nemen.