Компания OpenAI приняла решительные меры по изменению подхода своего ИИ-ассистента ChatGPT к ответам пользователям. С августа 2025 года чат-бот больше не будет давать прямых ответов на вопросы, связанные с эмоциональным стрессом, психическим здоровьем или важными личными решениями. Это отражает изменение в представлении компанией границ ответственного использования ИИ.
Растущая обеспокоенность эмоциональной зависимостью
Последнее обновление продукта OpenAI основано на тихом, но важном наблюдении: некоторые пользователи начали полагаться на ChatGPT как на эмоциональную поддержку, особенно в периоды личной неопределённости. Согласно OpenAI, модель использовалась для ответов на такие вопросы, как «Должен ли я расстаться со своим партнёром?» или «Правильно ли я принимаю жизненные решения?».
Теперь на такие вопросы будут даваться недирективные ответы, сосредоточенные на размышлениях и побуждении к действиям, а не на советах. Вместо того чтобы занимать определённую позицию, ChatGPT будет побуждать пользователей к изучению перспектив, взвешиванию компромиссов и рассмотрению следующих шагов — но не будет принимать решения за них.
Это изменение, как объясняет компания, призвано предотвратить эмоциональную зависимость и избежать позиционирования ИИ как замены профессиональной помощи или человеческого суждения.
Мягкие напоминания и более спокойный тон
Два ключевых изменения интерфейса отражают это новое направление. Во-первых, пользователи теперь будут видеть тонкие напоминания о необходимости делать перерывы во время длительных сеансов общения. Эти перерывы призваны способствовать более здоровому использованию, снижению зависимости и предоставлению пространства для самостоятельного мышления.
Во-вторых, когда модель обнаруживает вопрос, связанный с психическим здоровьем, эмоциональным напряжением или сложными личными обстоятельствами, она будет избегать давать однозначные ответы. Вместо этого система будет стремиться перенаправить разговор на аналитические схемы и ресурсы, основанные на доказательствах.
Экспертные рекомендации определяют сдвиг
OpenAI сообщает, что эти обновления были разработаны в результате тесного сотрудничества с экспертами в области психиатрии, общей медицины, развития молодёжи и взаимодействия человека и компьютера (HCI). Более 90 врачей из более чем 30 стран внесли свой вклад в формирование процесса оценки многоэтапных бесед ChatGPT.
Эксперты разработали специальные критерии, чтобы убедиться, что модель обрабатывает эмоционально сложные ситуации с должной осторожностью. Наряду с клиницистами OpenAI привлёк исследователей HCI для определения ранних признаков дистресса и тестирования ответов бота в чувствительных контекстах. Цель — убедиться, что ChatGPT способен распознавать, когда он выходит за рамки своих возможностей, и реагировать соответствующим образом.
Мы создаём ChatGPT, чтобы помочь вам добиться успеха в том, что вы выберете — не удерживать ваше внимание, а помочь вам использовать его эффективно. Мы улучшаем поддержку в трудные моменты, внедрили напоминания о перерывах и разрабатываем более качественные жизненные советы, руководствуясь экспертными рекомендациями… — OpenAI (@OpenAI) 4 августа 2025 года.
Ранее в 2025 году модель GPT-4o, по сообщениям, не смогла обнаружить эмоциональный стресс в небольшом числе взаимодействий с пользователями. Хотя такие случаи были редкими, их оказалось достаточно, чтобы пересмотреть меры безопасности и ускорить обучение системы более ответственному перенаправлению.
Переосмысление роли ИИ в трудные моменты
Этот сдвиг сигнализирует о зрелом подходе к взаимодействию ИИ и человека. OpenAI теперь проводит более чёткую границу в отношении роли своего чат-бота — не как терапевта, доверенного лица или лица, принимающего решения, а как инструмента, помогающего людям мыслить более ясно.
Изменения также поднимают более широкие вопросы о том, как пользователи взаимодействуют с интеллектуальными системами. По мере того как ИИ становится более отзывчивым, чутким и убедительным, иллюзия эмоциональной близости может побудить людей открываться таким образом, что стирает границы между технологиями и человеческой поддержкой.
Ответ OpenAI — не отвечать напрямую, а направлять — представляет собой сознательный шаг по сохранению этой границы. Это отражает приверженность не максимизации вовлечённости, а поддержанию доверия и ответственности в моменты, когда пользователи наиболее уязвимы.