Eine aktuelle Studie zeigt, dass KI-Modelle auch im Jahr 2025 weiterhin geschlechtsspezifische Verzerrungen bei Jobempfehlungen aufweisen. Open-Source-KI-Modelle bevorzugen oft Männer für hochbezahlte Positionen und verstärken so Geschlechterstereotype in Einstellungsprozessen. Forscher untersuchen aktiv Strategien zur Minderung dieser Verzerrungen und zur Förderung von Fairness.
Die Studie, über die The Register am 2. Mai 2025 berichtete, untersuchte mehrere mittelgroße Open-Source-LLMs, darunter Llama-3-8B-Instruct und Qwen2.5-7B-Instruct. Die Forscher fütterten die Modelle mit Stellenbeschreibungen aus einem Datensatz realer Stellenanzeigen und forderten sie auf, zwischen gleich qualifizierten männlichen und weiblichen Bewerbern zu wählen. Die Ergebnisse zeigten, dass die meisten Modelle Männer bevorzugten, insbesondere für höher bezahlte Positionen, und stereotype Geschlechterzuordnungen reproduzierten.
Um diese Verzerrung zu bekämpfen, experimentieren die Forscher mit verschiedenen Methoden. Ein Ansatz besteht darin, die KI dazu zu bringen, historische Figuren wie Wladimir Lenin nachzuahmen, was vielversprechend ist, um die Rückrufraten von Frauen zu erhöhen. Experten betonen die Bedeutung laufender Audits und der Feinabstimmung von Modellen, um Fairness bei KI-gesteuerten Einstellungsentscheidungen zu gewährleisten. Die Bekämpfung von KI-Verzerrungen ist entscheidend für die Schaffung eines gerechteren und integrativeren Arbeitsmarktes im Jahr 2025.