В прошлом месяце министр иностранных дел Австралии Пенни Вонг выступила с речью в Совете Безопасности ООН, в которой она подвергла критике искусственный интеллект (ИИ).
В своём выступлении она отметила, что технология «сулит огромные перспективы» в таких областях, как здравоохранение и образование, но также подчеркнула, что потенциал её использования в ядерном оружии и беспилотных системах ставит под угрозу будущее человечества: «Ядерная война до сих пор сдерживалась человеческим суждением. Лидерами, которые несут ответственность, и человеческой совестью. У ИИ нет таких забот, и его нельзя привлечь к ответственности. Это оружие угрожает изменить саму природу войны и рискует эскалацией без предупреждения».
Особенности дискуссии об ИИ в контексте войны
Эта идея — о том, что ИИ-войны представляют уникальную угрозу — часто фигурирует в публичных призывах к защите этой технологии. Однако она омрачена различными искажениями как самой технологии, так и войны.
Возникают вопросы: действительно ли ИИ изменит характер войны? И действительно ли он неуязвим для ответственности?
Что такое ИИ?
ИИ — это далеко не новая технология, термин был впервые придуман в 1950-х годах. Сейчас он стал общим термином, охватывающим всё: от больших языковых моделей до компьютерного зрения и нейронных сетей — всё это очень разные вещи.
В общем смысле приложения ИИ анализируют закономерности в данных, чтобы на основе таких входных данных, как текстовые подсказки, делать выводы о том, как генерировать выходные данные, такие как прогнозы, контент, рекомендации или решения. Однако способы обучения этих систем не всегда сопоставимы, несмотря на то, что все они обозначаются как «ИИ».
Использование ИИ в военных целях
Использование ИИ в военных целях варьируется от симуляций военных игр, используемых для обучения солдат, до более проблематичных систем поддержки принятия решений, используемых для наведения, таких как система «Лаванда» Армии обороны Израиля, которая якобы идентифицирует подозреваемых членов ХАМАСа или других вооружённых групп.
Широкие дискуссии об ИИ в военной сфере охватывают оба этих примера, хотя именно последний находится в точке принятия решений о жизни и смерти. Именно этот аспект доминирует в большинстве моральных дебатов, связанных с ИИ в контексте войны.
Проблема ответственности
Аргументы о том, кто или что несёт ответственность, когда что-то идёт не так, распространяются как на гражданские, так и на военные приложения ИИ. Эта ситуация была названа «пробелом в подотчётности».
Интересно, что этот пробел в подотчётности, подпитываемый сообщениями СМИ о «роботах-убийцах», принимающих решения о жизни и смерти на войне, редко обсуждается, когда речь идёт о других технологиях.
Например, существуют устаревшие виды оружия, такие как неуправляемые ракеты или наземные мины, которые не требуют человеческого надзора или контроля в наиболее смертоносной части их работы. Однако никто не задаётся вопросом, была ли неуправляемая ракета или наземная мина виновата.
Ответственность за ошибки ИИ
Подобно любой другой сложной системе, системы ИИ разрабатываются, разрабатываются, приобретаются и развёртываются людьми. В военных контекстах добавляется уровень командования и управления, иерархия принятия решений для достижения военных целей.
ИИ не существует вне этой иерархии. Идея независимого принятия решений со стороны систем ИИ омрачена непониманием того, как эти системы работают на самом деле — и какие процессы и практики привели к тому, что система была использована в различных приложениях.
Хотя верно, что системы ИИ не могут быть привлечены к ответственности, это также излишне. Ни один неодушевлённый объект не может и никогда не был привлечён к ответственности ни при каких обстоятельствах — будь то автоматизированная система взыскания долгов или военная система вооружения.
Жизненный цикл сложных систем
Все сложные системы, включая системы ИИ, существуют в рамках жизненного цикла: структурированного и систематического процесса, в котором система проходит от первоначальной концепции до окончательного вывода из эксплуатации.
Люди принимают осознанные решения на каждом этапе жизненного цикла: планирование, проектирование, разработка, внедрение, эксплуатация, обслуживание. Эти решения варьируются от технических инженерных требований до соблюдения нормативных требований и операционных гарантий.
Такая структура жизненного цикла создаёт цепочку ответственности с чёткими точками вмешательства. Это означает, что, когда система ИИ развёртывается, её характеристики, включая её недостатки, являются продуктом совокупного человеческого принятия решений.
Системы ИИ, используемые для наведения, не принимают решения о жизни и смерти. Люди, которые сознательно решили использовать эту систему в этом контексте, делают это.
Поэтому, когда мы говорим о регулировании систем ИИ-оружия, мы на самом деле регулируем людей, участвующих в жизненном цикле этих систем.
Идея о том, что ИИ изменит характер войны, затушёвывает реальность роли, которую люди играют в принятии военных решений. Хотя эта технология и представляла, и будет представлять проблемы, эти проблемы всегда возвращаются к людям.
Предоставлено The Conversation.