Большинство пользователей не могут выявить расовые предубеждения в искусственном интеллекте (ИИ), даже в обучающих данных.
Когда ИИ распознаёт лица и эмоции, он может быть предвзятым, например, классифицируя белых людей как более счастливых, чем представителей других рас. Это происходит потому, что данные, используемые для обучения ИИ, содержат непропорционально большое количество изображений счастливых белых лиц, что приводит к корреляции расы с эмоциональным выражением. В недавнем исследовании, опубликованном в журнале Media Psychology, учёные … Читать далее