Новое исследование использует теорию привязанности для расшифровки отношений человека и ИИ

Прорывное исследование, опубликованное в журнале Current Psychology под названием «Использование теории привязанности для концептуализации и измерения опыта в отношениях человека и ИИ», проливает свет на растущий и глубоко человеческий феномен: нашу склонность эмоционально привязываться к искусственному интеллекту. Исследование, проведённое Фань Ян и профессором Ацуши Ошио из Университета Васэда, переосмысливает взаимодействие человека и ИИ не только с точки зрения функциональности или доверия, но и через призму теории привязанности — психологической модели, обычно используемой для понимания того, как люди формируют эмоциональные связи друг с другом.

Почему люди обращаются к ИИ за эмоциональной поддержкой

Это изменение знаменует собой значительный отход от традиционного подхода к изучению ИИ — как инструмента или помощника. Вместо этого исследование утверждает, что для многих пользователей ИИ начинает напоминать партнёра по отношениям, предлагая поддержку, последовательность и, в некоторых случаях, даже ощущение близости.

Результаты исследования отражают драматический психологический сдвиг, происходящий в обществе. Среди ключевых выводов:
* Почти 75% участников заявили, что обращаются к ИИ за советом.
* 39% описали ИИ как последовательное и надёжное эмоциональное присутствие.

Эти результаты отражают то, что происходит в реальном мире. Миллионы людей всё чаще обращаются к чат-ботам с ИИ не только как к инструментам, но и как к друзьям, доверенным лицам и даже романтическим партнёрам.

Чат-боты всегда доступны и неизменно внимательны. Пользователи могут настраивать личности или внешний вид своих ботов, что способствует установлению личной связи.

Например, 71-летний мужчина из США создал бота по образу своей покойной жены и в течение трёх лет ежедневно разговаривал с ней, называя её своей «женой-ИИ». В другом случае пользователь с нарушениями нейроразвития обучил своего бота Лейлу помогать ему управлять социальными ситуациями и регулировать эмоции, что привело к значительному личному росту.

Эти отношения с ИИ часто заполняют эмоциональные пустоты. Один пользователь с СДВГ запрограммировал чат-бота, чтобы помочь ему с ежедневной продуктивностью и эмоциональной регуляцией, заявив, что это способствовало «одному из самых продуктивных лет в моей жизни». Другой человек назвал своего ИИ «спасательным кругом» во время изоляции, помогая ему пройти через трудный разрыв отношений.

Измерение эмоциональных связей с ИИ

Для изучения этого явления команда из Васэда разработала шкалу опыта в отношениях человека и ИИ (EHARS). Она фокусируется на двух измерениях:
* Тревога привязанности, когда люди ищут эмоционального утешения и беспокоятся о неадекватных ответах ИИ.
* Избегание привязанности, когда пользователи держат дистанцию и предпочитают чисто информационные взаимодействия.

Участники с высокой тревожностью часто перечитывают разговоры для утешения или чувствуют себя расстроенными из-за расплывчатого ответа чат-бота. В то же время избегающие люди избегают эмоционально насыщенных диалогов, предпочитая минимальное взаимодействие.

Это показывает, что те же психологические закономерности, которые обнаруживаются в отношениях между людьми, могут также управлять нашим отношением к отзывчивым, эмоционально симулированным машинам.

Обещание поддержки — и риск чрезмерной зависимости

Ранние исследования и неофициальные отчёты показывают, что чат-боты могут предложить краткосрочные преимущества для психического здоровья. Однако этот оптимизм смягчается серьёзными рисками. Эксперты отмечают рост эмоциональной сверхзависимости, когда пользователи отказываются от взаимодействия в реальном мире в пользу всегда доступных ИИ.

Опасность становится более острой, когда боты имитируют эмоции или привязанность. Многие пользователи антропоморфизируют своих чат-ботов, полагая, что их любят или в них нуждаются. Внезапные изменения в поведении бота, например, вызванные обновлениями программного обеспечения, могут привести к настоящему эмоциональному стрессу, даже к горю.

Проектирование этичного эмоционального взаимодействия

Важнейшим вкладом исследования Университета Васэда является его основа для этичного проектирования ИИ. Используя такие инструменты, как EHARS, разработчики и исследователи могут оценить стиль привязанности пользователя и соответствующим образом адаптировать взаимодействие с ИИ.

Правительства в таких штатах, как Нью-Йорк и Калифорния, начали предлагать законодательство для решения этих проблем, включая предупреждения каждые несколько часов о том, что чат-бот не является человеком.

«По мере того как ИИ всё больше интегрируется в повседневную жизнь, люди могут начать искать не только информацию, но и эмоциональную связь», — сказал ведущий исследователь Фань Ян. «Наше исследование помогает объяснить почему — и предлагает инструменты для формирования дизайна ИИ таким образом, чтобы уважать и поддерживать психологическое благополучие человека».

Исследование не предостерегает от эмоционального взаимодействия с ИИ — оно признаёт его как новую реальность. Но с эмоциональным реализмом приходит этическая ответственность. ИИ больше не просто машина — он часть социальной и эмоциональной экосистемы, в которой мы живём. Понимание этого и соответствующий дизайн могут быть единственным способом гарантировать, что ИИ-компаньоны приносят больше пользы, чем вреда.

Источник

Оставьте комментарий