Дискриминация рекрутинговыми алгоритмами — реальная проблема

🤖 Системы искусственного интеллекта (ИИ) для подбора кадров уже активно используются работодателями для сортировки резюме и отбора кандидатов. Однако, несмотря на обещания сэкономить время и деньги 💰, такие алгоритмы могут усиливать дискриминацию против уязвимых групп: женщин, людей с инвалидностью ♿, пожилых и тех, для кого английский — не родной язык 🌐.

📊 В 2024 году 62% австралийских компаний применяли ИИ в рекрутинге, согласно Responsible AI Index. Но исследования выявили тревожные примеры:

  • Системы дискриминировали соискательниц в хиджабах 🧕;

  • Алгоритм Amazon автоматически понижал рейтинг резюме со словом «женщина» 👩💻, обучаясь на данных из мужской IT-сферы;

  • Платформа iTutor Group в США отклоняла заявки женщин старше 55 и мужчин после 60 лет 🚫.

🔍 Почему это происходит?

  • Данные для обучения ИИ часто отражают историческую предвзятость. Например, перерывы в стаже могут стать «маркером» гендера, так как женщины чаще берут отпуск по уходу за детьми 👶;

  • Настройки системы (например, лимит времени на тесты) ставят в невыгодное положение мигрантов или людей с ограниченными возможностями;

  • Цифровое неравенство: отсутствие компьютера или навыков работы с техникой лишает маргиналов шансов на трудоустройство 💻❌.

⚖️ Что делать?
1. Реформировать законы о дискриминации, учитывая алгоритмические риски;
2. Повысить прозрачность ИИ: раскрывать данные обучения и принципы работы LLM-моделей 🔎;
3. Обучать работодателей ответственному использованию таких систем 🎓.

Главный вопрос: допустимо ли внедрять эти технологии, пока не устранены риски? Масштабный вред от алгоритмов может навсегда исключить целые группы из рынка труда.

По материалам University of Melbourne 🎓.

Источник

Оставьте комментарий