Эпоха искусственного интеллекта (ИИ) изменила наше взаимодействие, но угрожает человеческому достоинству в мировом масштабе, согласно исследованию, проведённому Университетом Чарльза Дарвина (CDU).
Исследование под названием «Human dignity in the age of Artificial Intelligence: an overview of legal issues and regulatory regimes» опубликовано в Australian Journal of Human Rights.
Автор исследования, доктор Мария Рандаццо из Школы права CDU, обнаружила, что технологии меняют западный правовой и этический ландшафт с беспрецедентной скоростью, но подрывают демократические ценности и усиливают системные предубеждения.
Доктор Рандаццо отметила, что существующее регулирование не уделяет приоритетного внимания основным правам и свободам человека, таким как конфиденциальность, борьба с дискриминацией, автономия пользователя и права на интеллектуальную собственность — в основном из-за неотслеживаемости многих алгоритмических моделей.
Назвав отсутствие прозрачности «проблемой чёрного ящика», доктор Рандаццо сказала, что решения, принимаемые с помощью процессов глубокого или машинного обучения, невозможно отследить человеку. Это затрудняет для пользователей определение того, нарушила ли модель ИИ их права и достоинство, и поиск справедливости в случае необходимости.
«Это очень серьёзная проблема, которая будет только усугубляться без адекватного регулирования», — сказала доктор Рандаццо.
«ИИ вовсе не разумен в каком-либо человеческом смысле. Это триумф инженерии, а не когнитивного поведения. Он не понимает, что делает и почему — нет мыслительного процесса в том смысле, в каком его понимает человек, только распознавание образов, лишённое воплощения, памяти, эмпатии или мудрости».
Три ведущие цифровые державы мира — Соединённые Штаты, Китай и Европейский Союз — используют заметно разные подходы к ИИ, опираясь на рыночные, государственные и человекоцентричные модели соответственно.
Доктор Рандаццо считает, что человекоцентричный подход ЕС является предпочтительным путём для защиты человеческого достоинства, но без глобальной приверженности этой цели даже такой подход оказывается недостаточным.
«В глобальном масштабе, если мы не привяжем развитие ИИ к тому, что делает нас людьми — нашей способности выбирать, чувствовать, рассуждать заботливо, с эмпатией и состраданием, — мы рискуем создать системы, которые обесценивают и превращают человечество в точки данных, а не улучшают условия жизни людей», — сказала она.
«Человечество не должно рассматриваться как средство для достижения цели».
Статья является первой в трилогии, которую доктор Рандаццо планирует опубликовать по этой теме.
Предоставлено Университетом Чарльза Дарвина.