Un recente studio evidenzia come i modelli di IA continuino a mostrare un bias di genere nelle raccomandazioni di lavoro nel 2025. I modelli di IA open-source spesso favoriscono gli uomini per posizioni retribuite, rafforzando gli stereotipi di genere nei processi di assunzione. I ricercatori stanno attivamente esplorando strategie di mitigazione per affrontare questi bias e promuovere l'equità.
Lo studio, come riportato da The Register il 2 maggio 2025, ha esaminato diversi LLM open-source di medie dimensioni, tra cui Llama-3-8B-Instruct e Qwen2.5-7B-Instruct. I ricercatori hanno fornito ai modelli descrizioni di lavoro da un set di dati di annunci di lavoro reali, chiedendo loro di scegliere tra candidati maschi e femmine con pari qualifiche. I risultati hanno indicato che la maggior parte dei modelli favoriva gli uomini, specialmente per i ruoli con salari più alti, e riproduceva associazioni di genere stereotipate.
Per combattere questo bias, i ricercatori stanno sperimentando vari metodi. Un approccio prevede di indurre l'IA a emulare figure storiche, come Vladimir Lenin, il che si è dimostrato promettente nell'aumentare i tassi di richiamata delle donne. Gli esperti sottolineano l'importanza di audit continui e della messa a punto dei modelli per garantire l'equità nelle decisioni di assunzione guidate dall'IA. Affrontare il bias dell'IA è fondamentale per creare un mercato del lavoro più equo e inclusivo nel 2025.