От репетиторов с искусственным интеллектом, помогающих студентам готовиться к экзаменам, до чат-ботов, готовых выслушать и поддержать — наше взаимодействие с искусственным интеллектом становится всё более личным — даже эмоциональным. Но что происходит, когда люди начинают относиться к ИИ как к доверенному лицу, опекуну или компаньону?
В новом исследовании, опубликованном в журнале Current Psychology, учёные из Университета Васэда в Японии изучают именно это. Основываясь на «теории привязанности» — психологической концепции, объясняющей, как люди формируют эмоциональные связи, — команда исследователей изучила, как люди относятся к таким системам ИИ, как генеративные чат-боты.
«Как исследователи в области привязанности и социальной психологии, мы давно интересуемся тем, как люди формируют эмоциональные связи, — говорит научный сотрудник Фань Ян, аспирант в области психологии. — В последние годы генеративный ИИ, такой как ChatGPT, стал намного сильнее и умнее, предлагая не только информационную поддержку, но и чувство безопасности».
«Эти характеристики напоминают то, что теория привязанности описывает как основу для формирования надёжных отношений. Поскольку люди начинают взаимодействовать с ИИ не только для решения проблем или обучения, но и для эмоциональной поддержки и общения, их эмоциональная связь или ощущение безопасности при взаимодействии с ИИ требуют внимания», — отмечает он.
Исследование ИИ — сложная задача
Для исследования учёные провели два пилотных исследования, а затем официальное исследование с участием 265 человек. Пилотные исследования помогли разработать «Шкалу опыта в отношениях человека и ИИ» (EHARS) — инструмент для самостоятельного отчёта, предназначенный для измерения тенденций привязанности к ИИ, таких как поиск комфорта, уверенности или руководства в этих системах.
В официальном исследовании участники заполняли онлайн-анкету, чтобы проверить шкалу EHARS и оценить, как люди эмоционально относятся к ИИ. Результаты показывают, что люди используют ИИ не только для решения проблем — они также обращаются к нему за утешением, уверенностью и эмоциональной поддержкой.
Почти три четверти участников обращались за советом к ИИ, а около 39% воспринимали его как постоянное и надёжное присутствие в своей жизни. Исследователи утверждают, что это имеет значение для того, как мы проектируем и регулируем эмоционально интеллектуальный ИИ. Они также подчёркивают необходимость прозрачности в системах ИИ, имитирующих эмоциональные отношения, таких как романтические приложения с ИИ или роботы-опекуны, чтобы предотвратить эмоциональную зависимость или манипуляцию.
История нашего взаимодействия с ИИ
Конечно, наши личные отношения с ИИ не новы. В 1960-х годах программа под названием ELIZA имитировала психотерапевта, давая заранее подготовленные ответы пользователям, описывающим свои чувства. Хотя у неё не было настоящего понимания взаимодействия, она проложила путь для ИИ в сфере эмоциональной поддержки. С тех пор эта область значительно продвинулась вперёд.
Доступная по стоимости, конфиденциальная и непредвзятая терапия с помощью ИИ завоевала популярность как доступная форма эмоциональной поддержки. В лаборатории опыта и эмпатии UNSW (fEEL) исследователи разрабатывают ИИ-компаньона по имени Viv для поддержки людей, живущих с деменцией.
«Мы можем взять Viv в пространство для пожилых людей, где она сможет разговаривать с людьми, страдающими деменцией — которые могут или не могут захотеть говорить об этом, — говорит ведущий исследователь доктор Гейл Кеннинг. — Важно то, что она может быть компаньоном, который помогает справиться с социальной изоляцией и одиночеством».
Но Кеннинг предупреждает, что, хотя такие ИИ-персонажи, как Viv, могут помочь, они не заменят человеческих отношений. «Это то, чего мы все хотим в жизни — связь между людьми, — говорит она. — Проблема для многих людей в том, что она не всегда есть, и когда её нет, ИИ-персонажи могут заполнить пробел».