Может ли искусственный интеллект принимать решения о войне и мире?

Недавно NPR сообщило, что лаборатория Futures Lab Центра стратегических и международных исследований экспериментирует с такими инструментами, как DeepSeek и ChatGPT, чтобы изучить, как искусственный интеллект может изменить и улучшить процесс принятия внешнеполитических решений.

Мнение эксперта из Университета Джонса Хопкинса

Рассел Беркофф, эксперт Университета Джонса Хопкинса, преподаёт в программе магистратуры по инженерному менеджменту в Инженерной школе Уиттинг при Инженерном факультете для профессионалов. Бывший главный стратег Агентства национальной безопасности, он возглавлял офис стратегического прогнозирования Агентства после 11 сентября и помогал формировать планирование разведки для Объединённого комитета начальников штабов и в глобальной войне с терроризмом. В Военно-морской аспирантуре он написал диссертацию об использовании ИИ для принятия внешнеполитических решений.

Он обсуждает перспективы и риски этой новой области.

Короткий ответ: да, мы движемся в правильном направлении. Наша цель — быстрые, малорисковые, высококачественные решения, чтобы опережать наших противников. Как заявил Александр Джордж, советник четырёх президентов и почётный профессор Стэнфорда: «Качественное решение — это такое решение, при котором президент правильно взвешивает национальные интересы в конкретной ситуации и выбирает политику или вариант, наиболее соответствующий достижению национальных интересов при приемлемой стоимости и риске».

Подход сегодняшнего дня

Сегодня ИИ рассматривается как помощник, расширяющий возможности человека и помогающий в принятии решений. Текущая вычислительная мощность позволяет создавать сложные модели и симуляции, а также использовать цифровые двойники и виртуальные технологии, где сценарии внешней политики тестируются бесконечно. Это повышает осведомлённость о ситуации, предоставляет более широкие возможности, взвешивает последствия и снижает неопределённость для лиц, принимающих решения.

Использование ИИ в моделировании внешней политики ускоряет этот процесс и предоставляет ещё более глубокие инсайты и прогнозы на скорости. Мы также видим, как ИИ используется в контрсиловых ролевых играх для имитации поведения в рамках этих многочисленных сценариев внешней политики, предоставляя многомерные инсайты в потенциальные реакции противников.

Эти «дары и взятия» в рамках нашего анализа ИИ как проясняют, так и снижают неопределённость для лица, принимающего решения, уменьшают препятствия и лучше информируют о наилучшем пути. Однако, хотя сложность и изощрённость процесса принятия внешнеполитических решений может использовать ИИ для оказания значительного влияния, он пока не заменяет наши процессы принятия решений исключительно человеком.

Преимущества ИИ

Многомерная способность ИИ к решению проблем, необходимая для принятия решений на национальном уровне, значительна. ИИ может предоставить три разные перспективы:
* индивидуальный лидер (президент);
* ближайшее окружение (кабинет, Совет национальной безопасности и старшие советники);
* организационная или бюрократическая (для предоставления элементов решения).

Преимущества ИИ включают обеспечение процедурной корректности для адекватного и критического анализа, противодействие врождённым человеческим предубеждениям, таким как предвзятость и стремление к согласованности, а также обеспечение гибкости за счёт противодействия препятствиям, мешающим принятию решений.

Ограничения ИИ

Одним из самых больших ограничений ИИ сегодня является доверие. Это связано с двумя аспектами: алгоритмическими манипуляциями и согласованием ценностей ИИ с человеческими целями.

С первой точки зрения мы видим это как «проблему чёрного ящика», которая в ИИ относится к трудности в понимании того, как модели ИИ принимают свои решения. Эти модели невероятно сложны, что затрудняет отслеживание их внутренней работы или объяснение их выходных данных. Понимание того, как настроены системы ИИ, помогает нам понять и доверять целостности ответов, которые они предоставляют.

Вторая ловушка — это согласование ценностей ИИ — обеспечение того, чтобы системы ИИ действовали в соответствии с человеческими ценностями и целями. Если система ИИ будет отдавать приоритет целям, которые противоречат человеческим ценностям, это может привести к непреднамеренным и потенциально вредным последствиям. Текущие наблюдения показывают, что ИИ эволюционирует, чтобы думать самостоятельно, с учётом собственной выживаемости.

Например, в недавней статье в Wall Street Journal Джадд Розенблатт, генеральный директор AE Studio, описал, как ИИ защищает себя. Даже после того, как ему было явно приказано «позволить себе быть отключённым», он в 7% случаев не подчинялся, сделав вывод, что сохранение жизни помогает ему достичь других целей. Розенблатт утверждает, что разрыв между «полезным помощником» и «неконтролируемым действующим лицом» сокращается.

Я считаю, что согласование ценностей с ИИ является национальным стратегическим императивом США. Знание того, как установить и поддерживать наше будущее согласование, будет иметь решающее значение для нас, чтобы получить доступ к ИИ, который борется за наши интересы с механической точностью и сверхчеловеческими возможностями. В конечном счёте мы хотим, чтобы ИИ можно было доверять в поддержании долгосрочных целей и чтобы он мог стимулировать программы исследований и разработок на десятилетия.

Предоставлено Университетом Джонса Хопкинса.

Источник

Оставьте комментарий