Предвзятость ИИ при найме сохраняется в 2025 году: исследование выявляет гендерные различия и стратегии смягчения

Отредактировано: Veronika Nazarova

Недавнее исследование показывает, что модели ИИ продолжают демонстрировать гендерную предвзятость в рекомендациях по трудоустройству в 2025 году. Модели ИИ с открытым исходным кодом часто отдают предпочтение мужчинам на высокооплачиваемых должностях, усиливая гендерные стереотипы в процессах найма. Исследователи активно изучают стратегии смягчения, чтобы устранить эти предубеждения и содействовать справедливости.

В исследовании, о котором сообщил The Register 2 мая 2025 года, были изучены несколько LLM с открытым исходным кодом среднего размера, включая Llama-3-8B-Instruct и Qwen2.5-7B-Instruct. Исследователи предоставили моделям описания вакансий из набора данных реальных объявлений о работе, попросив их выбрать между одинаково квалифицированными кандидатами мужского и женского пола. Результаты показали, что большинство моделей отдавали предпочтение мужчинам, особенно на более высокооплачиваемых должностях, и воспроизводили стереотипные гендерные ассоциации.

Для борьбы с этой предвзятостью исследователи экспериментируют с различными методами. Один из подходов включает в себя побуждение ИИ имитировать исторические фигуры, такие как Владимир Ленин, что показало многообещающие результаты в увеличении количества ответов женщинам. Эксперты подчеркивают важность постоянных проверок и тонкой настройки моделей для обеспечения справедливости в решениях о найме на основе ИИ. Устранение предвзятости ИИ имеет решающее значение для создания более справедливого и инклюзивного рынка труда в 2025 году.

Вы нашли ошибку или неточность?

Мы учтем ваши комментарии как можно скорее.