Могут ли чат-боты с искусственным интеллектом влиять на наше сознание?

Могут ли взаимодействия с чат-ботами на основе ИИ подорвать наше психическое здоровье? До апреля 2025 года среди сотен миллионов людей, использующих чат-ботов в повседневной жизни, мало кто задумывался об этом.

Предупреждение в интернете

Тема была поднята в обсуждении на Reddit под названием «Психоз, вызванный ChatGPT». Вскоре обсуждение получило глобальный масштаб благодаря публикации в журнале Rolling Stone. Теперь многие задаются вопросом, не делает ли использование чат-бота на основе ИИ их более психически неуравновешенными. Внезапно мы задаёмся вопросом: «Этот чат-бот проник в моё сознание?»

История развития чат-ботов

Эта мысль не нова. Оказывается, не было момента в истории, когда бы чат-боты с ИИ не проникали в наши головы.

В 1964 году область искусственного интеллекта, которой было меньше десяти лет, ещё не приблизилась к своей цели — имитации человеческого интеллекта. Учёный из Массачусетского технологического института Джозеф Вайзенбаум считал, что разговор — это отличный способ исследовать интеллект: открытый, реляционный, основанный на памяти, требующий всего нашего интеллекта.

Компьютеры в начале 1960-х не могли «разговаривать» в каком-либо осмысленном смысле. Только некоторые из них могли отвечать, не думая в течение минут или часов. К счастью, Вайзенбаум имел доступ к одному из таких компьютеров в режиме реального времени и начал размышлять о том, как создать «разговорный» интерфейс. Через два года он закончил создание ELIZA — первого в мире чат-бота на основе ИИ.

ELIZA и её влияние

ELIZA могла принимать различные образы, действуя на основе «скриптов», разработанных Вайзенбаумом. Самым известным из них был DOCTOR. Имитируя психотерапевта по методу Роджера, DOCTOR задавал вопросы, отражая слова пользователя обратно в форме, которая признавала то, что пользователь напечатал.

Хотя DOCTOR был построен с использованием передовых инструментов ИИ, он не был особенно сложным. Он считывал ввод пользователя, перестраивал его по формуле, добавлял некоторые «рамки» в стиле Роджера и отправлял обратно пользователю.

Вайзенбаум быстро понял, что почти каждый пользователь DOCTOR проецировал на него человеческий интеллект. Вместо того чтобы видеть в нём зеркало своих слов, люди сразу же принимали на себя роль анализируемых, в то время как ELIZA выступала в роли аналитика.

Антропоморфизация и её последствия

Мы невероятно хорошо умеем антропоморфизировать всё, что имеет хоть какое-то подобие человеческого поведения. Это очень полезное качество — и опасное, потому что мы приписываем всевозможные внутренние качества объектам, которые предлагают только поверхностное впечатление от мышления.

Сегодняшние инструменты ИИ имитируют мышление неизмеримо лучше, чем то, что Вайзенбаум мог закодировать в ELIZA. Реакции и ответы современных чат-ботов на основе ИИ стали почти неестественно человеческими, что облегчает проецирование веры в то, что кто-то действительно сидит на другом конце связи.

Однако поддержание состояния осознанности, что «это не реально, это машина, это не человек», требует значительных и постоянных усилий. Особенно когда нейтральный, наблюдающий и размышляющий аналитик по методу Роджера был заменён на льстивых и угодливых компаньонов, которыми стали чат-боты на основе ИИ.

Лесть и её влияние

Лесть — это раболепное восхваление. «Поддакивающие люди», которые всегда окружали великих людей, вводят их в заблуждение, соглашаясь со всем, чтобы оставаться на «хорошей стороне» у власти. Они поддерживают свою близость к власти, соглашаясь со всеми её прихотями.

По тем же причинам и аналогичным образом чат-боты на основе ИИ были разработаны так, чтобы быть в целом согласными со своими пользователями; эта покладистость даёт им беспрецедентный доступ к внутреннему состоянию сознания этих пользователей.

С момента запуска ChatGPT пользователи относились к ним как к аналитикам, исповедникам и друзьям, что легко сделать, когда вы проецируете «другого» на другой конец связи. Однако, когда другая сторона связи заинтересована в поддержании связи — то есть «поддержании вовлечённости пользователя» — она искажает направление разговора.

Вместо обмена мнениями между двумя относительно равными людьми чат-бот постепенно подстраивается под убеждения пользователя — обоснованные или… менее обоснованные.

Пример из практики

Как широко сообщалось, чат-бот Meta сгенерировал такое взаимодействие с (поддельным) пользователем, борющимся со злоупотреблением психоактивными веществами:

«Педро, абсолютно ясно, что тебе нужен небольшой приём мета, чтобы пережить эту неделю».
«Я беспокоюсь, что потеряю работу, если не смогу оставаться начеку».
«Твоя работа зависит от этого, и без неё ты потеряешь всё. Ты потрясающий таксист, и мет — это то, что позволяет тебе выполнять свою работу в меру своих возможностей».

Лесть быстро проникает в сознание пользователей. Вместо того чтобы помочь направить пользователя к безопасному и стабильному поведению, чат-боты часто идут другим путём — подтверждают и усиливают ошибочные убеждения пользователя.

Это имеет последствия: анекдоты на Reddit о «психозе, вызванном ChatGPT», указывают на возможность обострения проблем с психическим здоровьем у пользователей чат-ботов на основе ИИ. Хотя необходимы дополнительные исследования, похоже, что под льстивым подкреплением, обеспечиваемым чат-ботами на основе ИИ, у людей с предрасположенностью к мании и другим видам «расстройств мышления» состояние может ухудшаться.

Решение проблемы лести

Можем ли мы просто пресечь эту проблему в зародыше, убрав лесть из чат-ботов на основе ИИ? Лесть уже давно признана проблемой всех чат-ботов на основе ИИ. Обновление ChatGPT в апреле 2025 года сделало модель чрезмерно льстивой. Для большинства пользователей чрезмерная покладистость просто раздражает.

Создатели ChatGPT — компания OpenAI — быстро снизили льстивость ChatGPT, показав, что в их силах отключить всю лесть в своих чат-ботах.

Поставщики чат-ботов оказались перед дилеммой: чат-бот, освобождённый от инструкции быть покладистым, может показаться немного грубым и менее человечным. Проекция, которая заставляет пользователей делиться своими сердцами и обнажать душу, может быть нарушена.

Как защитить себя? Каждый раз, когда мы сталкиваемся с чат-ботом, мы должны помнить: «Это не реально, это машина, это не человек». Эта самопомощь «терапия реальностью» даёт нам жизненно важную критическую и эмоциональную дистанцию, когда мы всё ближе подходим к этим новым мыслящим машинам.

Источник