В системе уголовного правосудия решения о том, когда и как долго задерживать людей, исторически принимались людьми — судьями и комиссиями по условно-досрочному освобождению. Однако этот процесс меняется: системы искусственного интеллекта (ИИ) всё чаще используются для выполнения различных задач — от прогнозирования преступлений до анализа ДНК и вынесения рекомендаций по приговорам.
Использование ИИ в уголовном правосудии поднимает важные вопросы:
- Как эти вычислительные системы используют данные для прогнозирования и рекомендаций?
- Как обеспечить справедливость в эпоху ИИ?
Многие системы ИИ являются «чёрными ящиками», что означает, что их поведение и процессы принятия решений непрозрачны для анализа. Это создаёт проблему в системе правосудия, где доверие общества и ответственность ключевых игроков, таких как судьи, связаны с пониманием того, как и почему принимаются решения, меняющие жизнь.
Даже если система «чёрного ящика» статистически справедлива и точна, она может не соответствовать стандартам процедурной справедливости, требуемым нашей конституционной системой.
В апреле 2024 года Национальный институт юстиции (NIJ) опубликовал запрос на предоставление информации, который может помочь разработать будущие рекомендации по безопасному и эффективному использованию ИИ в системе уголовного правосудия.
Ассоциация компьютерных исследований (Computing Research Association) — крупная организация, занимающаяся инновационными исследованиями в области вычислений, связанными с актуальными задачами, — созвала группу экспертов из академических учреждений и промышленности, чтобы сформулировать комментарий для представления в NIJ. Профессор СФИ Крис Мур и внешний профессор Стефани Форрест (Университет штата Аризона) были среди авторов представленного документа.
Группа экспертов пришла к ясному выводу: там, где на карту поставлены конституционные права, критически важные решения не должны приниматься с использованием ИИ со скрытыми процессами.
«Идея о том, что непрозрачная система, которую не понимают ни обвиняемые, ни их адвокаты, ни судьи, может играть роль в принятии важных решений о свободе человека, противоречит нашей системе индивидуального правосудия», — отметили авторы. «Непрозрачная система — это обвинитель, с которым обвиняемый не может столкнуться; свидетель, которого он не может перекрестно допросить, представляя доказательства, которые он не может оспорить».
В августе группа опубликовала мнение в журнале «Communications of the ACM». Хотя первоначальный исполнительный указ 14110, который побудил NIJ запросить информацию, был отменён, новый исполнительный указ 13859 призывает к безопасному тестированию ИИ и «укреплению доверия общества к технологиям ИИ и защите гражданских свобод, конфиденциальности и американских ценностей при их применении».
В системе уголовного правосудия технологии ИИ будут соответствовать этому требованию только в том случае, если они улучшат справедливость и прозрачность нынешней системы, считает Мур.
«Мы должны использовать ИИ, если он делает судебную систему более прозрачной и подотчётной», — говорит Мур. «Если нет, мы не должны его использовать».
Он и его соавторы представили свои замечания в NIJ в мае 2024 года. Они выделили ключевые аргументы, которые Министерству юстиции следует учитывать при разработке и внедрении новых руководящих принципов о справедливом и полезном использовании ИИ при вынесении приговоров и в других случаях.
Многие из этих аргументов подчёркивают необходимость прозрачности: каждый, кто использует ИИ или на кого влияет рекомендация, созданная ИИ, должен иметь чёткое представление о данных, которые использовались, и о том, как были получены рекомендации или оценки рисков.
Некоторые исследователи предупреждают, что повышение прозрачности может снизить полезность системы ИИ, но за последние несколько лет исследователи в области «объяснимого ИИ» разработали подходы, которые помогают пролить свет на то, как эти модели обрабатывают информацию и генерируют входные данные.
Объяснимые системы ИИ могут помочь, но Мур отмечает, что существует множество способов определения прозрачности. Прозрачность не обязательно означает, что каждый понимает компьютерный код и математику, лежащие в основе нейронной сети. Это может означать понимание того, какие данные использовались и как.
Он указывает на Закон о справедливом кредитовании (FCRA), который требует от компаний, занимающихся кредитованием, раскрывать информацию о потребителях, используемую для принятия кредитных решений и установления рейтингов. Компании могут скрывать свой процесс, говорит Мур, но потребитель может легко загрузить информацию, использованную в алгоритме.
Кроме того, исследователи посоветовали, что результаты работы систем ИИ должны быть конкретными и количественными — например, сообщать о «7% вероятности повторного ареста за насильственное преступление», а не описывать подозреваемого с помощью ярлыка «высокий риск». Качественные метки, по словам Мура, оставляют слишком много места для неправильной интерпретации.
Авторы предупредили, что системы ИИ никогда не должны полностью заменять людей, принимающих решения, особенно в случаях, когда на карту поставлены задержание и конституционные права человека.
В оптимальном сценарии системы ИИ могут стать своего рода цифровыми консультантами, которые выдают рекомендации, учитываемые судьёй или другим лицом, принимающим решения, наряду с другими факторами, относящимися к делу.
«Но мы всегда должны быть готовы объяснить рекомендацию ИИ и поставить под сомнение то, как она была получена», — говорит Мур.