Могут ли суды обеспечить справедливость в эпоху искусственного интеллекта?

В системе уголовного правосудия решения о том, когда и как долго задерживать людей, исторически принимались людьми — судьями и комиссиями по условно-досрочному освобождению. Однако этот процесс меняется: системы искусственного интеллекта (ИИ) всё чаще используются для выполнения различных задач — от прогнозирования преступлений до анализа ДНК и вынесения рекомендаций по приговорам.

Использование ИИ в уголовном правосудии поднимает важные вопросы:

  • Как эти вычислительные системы используют данные для прогнозирования и рекомендаций?

  • Как обеспечить справедливость в эпоху ИИ?

Многие системы ИИ являются «чёрными ящиками», что означает, что их поведение и процессы принятия решений непрозрачны для анализа. Это создаёт проблему в системе правосудия, где доверие общества и ответственность ключевых игроков, таких как судьи, связаны с пониманием того, как и почему принимаются решения, меняющие жизнь.

Даже если система «чёрного ящика» статистически справедлива и точна, она может не соответствовать стандартам процедурной справедливости, требуемым нашей конституционной системой.

В апреле 2024 года Национальный институт юстиции (NIJ) опубликовал запрос на предоставление информации, который может помочь разработать будущие рекомендации по безопасному и эффективному использованию ИИ в системе уголовного правосудия.

Ассоциация компьютерных исследований (Computing Research Association) — крупная организация, занимающаяся инновационными исследованиями в области вычислений, связанными с актуальными задачами, — созвала группу экспертов из академических учреждений и промышленности, чтобы сформулировать комментарий для представления в NIJ. Профессор СФИ Крис Мур и внешний профессор Стефани Форрест (Университет штата Аризона) были среди авторов представленного документа.

Группа экспертов пришла к ясному выводу: там, где на карту поставлены конституционные права, критически важные решения не должны приниматься с использованием ИИ со скрытыми процессами.

«Идея о том, что непрозрачная система, которую не понимают ни обвиняемые, ни их адвокаты, ни судьи, может играть роль в принятии важных решений о свободе человека, противоречит нашей системе индивидуального правосудия», — отметили авторы. «Непрозрачная система — это обвинитель, с которым обвиняемый не может столкнуться; свидетель, которого он не может перекрестно допросить, представляя доказательства, которые он не может оспорить».

В августе группа опубликовала мнение в журнале «Communications of the ACM». Хотя первоначальный исполнительный указ 14110, который побудил NIJ запросить информацию, был отменён, новый исполнительный указ 13859 призывает к безопасному тестированию ИИ и «укреплению доверия общества к технологиям ИИ и защите гражданских свобод, конфиденциальности и американских ценностей при их применении».

В системе уголовного правосудия технологии ИИ будут соответствовать этому требованию только в том случае, если они улучшат справедливость и прозрачность нынешней системы, считает Мур.

«Мы должны использовать ИИ, если он делает судебную систему более прозрачной и подотчётной», — говорит Мур. «Если нет, мы не должны его использовать».

Он и его соавторы представили свои замечания в NIJ в мае 2024 года. Они выделили ключевые аргументы, которые Министерству юстиции следует учитывать при разработке и внедрении новых руководящих принципов о справедливом и полезном использовании ИИ при вынесении приговоров и в других случаях.

Многие из этих аргументов подчёркивают необходимость прозрачности: каждый, кто использует ИИ или на кого влияет рекомендация, созданная ИИ, должен иметь чёткое представление о данных, которые использовались, и о том, как были получены рекомендации или оценки рисков.

Некоторые исследователи предупреждают, что повышение прозрачности может снизить полезность системы ИИ, но за последние несколько лет исследователи в области «объяснимого ИИ» разработали подходы, которые помогают пролить свет на то, как эти модели обрабатывают информацию и генерируют входные данные.

Объяснимые системы ИИ могут помочь, но Мур отмечает, что существует множество способов определения прозрачности. Прозрачность не обязательно означает, что каждый понимает компьютерный код и математику, лежащие в основе нейронной сети. Это может означать понимание того, какие данные использовались и как.

Он указывает на Закон о справедливом кредитовании (FCRA), который требует от компаний, занимающихся кредитованием, раскрывать информацию о потребителях, используемую для принятия кредитных решений и установления рейтингов. Компании могут скрывать свой процесс, говорит Мур, но потребитель может легко загрузить информацию, использованную в алгоритме.

Кроме того, исследователи посоветовали, что результаты работы систем ИИ должны быть конкретными и количественными — например, сообщать о «7% вероятности повторного ареста за насильственное преступление», а не описывать подозреваемого с помощью ярлыка «высокий риск». Качественные метки, по словам Мура, оставляют слишком много места для неправильной интерпретации.

Авторы предупредили, что системы ИИ никогда не должны полностью заменять людей, принимающих решения, особенно в случаях, когда на карту поставлены задержание и конституционные права человека.

В оптимальном сценарии системы ИИ могут стать своего рода цифровыми консультантами, которые выдают рекомендации, учитываемые судьёй или другим лицом, принимающим решения, наряду с другими факторами, относящимися к делу.

«Но мы всегда должны быть готовы объяснить рекомендацию ИИ и поставить под сомнение то, как она была получена», — говорит Мур.

Источник