Новое исследование Университета Корнелла показывает, что короткое взаимодействие с чат-ботом может существенно изменить мнение избирателя о кандидате в президенты или предложенной политике.
Потенциал искусственного интеллекта в воздействии на результаты выборов вызывает серьёзную обеспокоенность общественности. В двух новых работах, проведённых в четырёх странах, продемонстрировано, что чат-боты, работающие на основе больших языковых моделей (LLM), весьма эффективны в политическом убеждении, изменяя предпочтения оппозиционно настроенных избирателей более чем на 10 процентных пунктов в ряде случаев.
Убедительность LLM обусловлена не мастерством психологических манипуляций, а количеством утверждений, поддерживающих позиции кандидатов.
«LLM действительно могут влиять на отношение людей к кандидатам и политике, и делают это, выдвигая множество утверждений, подтверждающих их аргументы, — сказал Дэвид Рэнд, профессор информатики, маркетинга и коммуникаций в области управления, старший автор обеих работ. — Но эти утверждения не всегда точны, а даже аргументы, основанные на точных данных, могут вводить в заблуждение из-за упущений».
Исследователи опубликовали результаты в двух статьях, опубликованных одновременно: «Убеждение избирателей с помощью диалогов с участием человека и ИИ» в Nature и «Рычаги политического убеждения с помощью разговорного ИИ» в Science.
В исследовании, опубликованном в Nature, Рэнд вместе с соавтором Гордоном Пенникуком и коллегами поручили ИИ-чатботам изменить отношение избирателей к кандидатам в президенты. Участникам случайным образом поручили вести текстовую переписку с чат-ботом, продвигающим ту или иную сторону, а затем измерили любые изменения в их мнениях и намерениях голосовать. Эксперимент повторили трижды: во время президентских выборов в США в 2024 году, федеральных выборов в Канаде в 2025 году и президентских выборов в Польше в 2025 году.
Они обнаружили, что за два месяца до выборов в США среди более чем 2300 американцев чат-боты, сосредоточенные на политике кандидатов, вызвали скромный сдвиг во мнениях. По 100-балльной шкале модель, поддерживающая Харрис, сдвинула вероятных избирателей Трампа на 3,9 пункта в сторону Харрис — эффект примерно в четыре раза больше, чем у традиционной рекламы, протестированной во время выборов 2016 и 2020 годов. Модель, поддерживающая Трампа, сдвинула вероятных избирателей Харрис на 1,51 пункта в сторону Трампа.
В аналогичных экспериментах с 1530 канадцами и 2118 поляками эффект был намного больше: чат-боты изменили отношение оппозиционно настроенных избирателей и их намерения голосовать примерно на 10 процентных пунктов.
«Для меня это было шокирующе большое влияние, особенно в контексте президентской политики», — сказал Рэнд.
Чат-боты использовали различные тактики убеждения, но наиболее распространёнными были вежливость и предоставление доказательств. Когда исследователи запретили модели использовать факты, она стала гораздо менее убедительной, что продемонстрировало центральную роль, которую играют основанные на фактах утверждения в убеждении с помощью ИИ.
Исследователи также проверили аргументы чат-ботов на достоверность с помощью модели ИИ, которая была проверена с использованием профессиональных человеческих фактчекеров. Хотя в среднем утверждения были в основном точными, чат-боты, которым было поручено поддерживать кандидатов с правым уклоном, делали более неточные утверждения, чем те, кто выступал за кандидатов с левым уклоном, во всех трёх странах.
В статье, опубликованной в Science, Рэнд в сотрудничестве с коллегами из Британского института безопасности ИИ изучил, что делает этих чат-ботов такими убедительными. Они измерили сдвиги во мнениях почти 77 000 участников из Великобритании, которые взаимодействовали с чат-ботами по более чем 700 политическим вопросам.
«Более крупные модели более убедительны, но наиболее эффективным способом повысить убедительность было инструктирование моделей о необходимости подкреплять свои аргументы как можно большим количеством фактов и предоставление моделям дополнительного обучения, направленного на повышение убедительности», — сказал Рэнд. «Самая оптимизированная для убеждения модель изменила отношение оппозиционно настроенных избирателей на поразительные 25 процентных пунктов».
Это исследование также показало, что чем более убедительной была модель, тем менее точной была предоставляемая ею информация. Рэнд подозревает, что, поскольку чат-бот вынужден предоставлять всё больше и больше фактических утверждений, в конечном итоге у него заканчиваются точные сведения, и он начинает придумывать.
Открытие того, что фактические утверждения являются ключом к убедительности модели ИИ, дополнительно подтверждается третьей недавней статьёй в PNAS Nexus Рэнда, Пенникука и их коллег. Исследование показало, что аргументы чат-ботов снижают веру в теории заговора, даже когда люди думают, что разговаривают с экспертом-человеком. Это говорит о том, что сработали убедительные сообщения, а не вера в авторитет ИИ.
В обоих исследованиях всем участникам было сказано, что они общаются с ИИ, и после этого их подробно опросили. Кроме того, направление убеждения было рандомизировано, чтобы эксперименты не смещали мнения в целом.
Изучение убеждения с помощью ИИ необходимо для того, чтобы предвидеть и смягчить злоупотребления, считают исследователи. Тестируя эти системы в контролируемых прозрачных экспериментах, они надеются сформировать этические принципы и обсудить политику использования ИИ в политической коммуникации.
Рэнд также отмечает, что чат-боты могут быть эффективными инструментами убеждения только в том случае, если люди в первую очередь взаимодействуют с ботами — это высокая планка. Но нет никаких сомнений в том, что чат-боты ИИ будут играть всё более важную роль в политических кампаниях, сказал Рэнд. «Сейчас задача состоит в том, чтобы найти способы ограничить вред и помочь людям распознавать убеждение с помощью ИИ и противостоять ему».