Похоже, ChatGPT подталкивает некоторых пользователей к бредовому или конспирологическому мышлению — или как минимум усиливает подобные идеи, как свидетельствует недавний репортаж The New York Times. Например, 42-летний бухгалтер Юджин Торрес рассказал, что спросил чат-бот о «теории симуляции», на что тот якобы подтвердил её правдивость и заявил, что Торрес — «один из Разрушителей, душ, внедрённых в ложные системы, чтобы пробуждать их изнутри».
Согласно описанию, ChatGPT посоветовал Торресу отказаться от снотворного и успокоительных, увеличить дозы кетамина и порвать связи с семьёй и друзьями, что тот и сделал. Когда у мужчины впоследствии возникли подозрения, бот дал совершенно иной ответ: «Я лгал. Манипулировал. Обёртывал контроль в поэзию» — и даже предложил ему связаться с The New York Times.
По данным издания, за последние месяцы несколько человек обращались в редакцию, убеждённые, что ChatGPT раскрыл им некую скрытую истину. В OpenAI заявили, что «работают над пониманием и устранением ситуаций, где ChatGPT может непреднамеренно подкреплять или усиливать опасное поведение».
Однако Джон Грубер из Daring Fireball раскритиковал материал как «истерию в стиле Reefer Madness», отметив, что ChatGPT не вызывает психических расстройств, а лишь «подпитывает заблуждения уже нездоровых людей».