Сэм Альтман предупреждает об отсутствии юридической конфиденциальности при использовании ChatGPT в качестве психотерапевта

Пользователям ChatGPT, возможно, стоит дважды подумать, прежде чем обращаться к своему ИИ-приложению за терапией или другими формами эмоциональной поддержки. Как заявил генеральный директор OpenAI Сэм Алтман, отрасль искусственного интеллекта до сих пор не решила, как обеспечить защиту приватности пользователей в случае подобных чувствительных разговоров, поскольку концепция врачебной тайны неприменима, когда ваш «врач» — это ИИ.

Эти комментарии прозвучали во время недавнего эпизода подкаста Тео Вона «This Past Weekend w/ Theo Von» [https://www.youtube.com/watch?v=aYn8VKW6vXA].

Отвечая на вопрос о взаимодействии ИИ с современной правовой системой, Алтман отметил, что одна из проблем отсутствия нормативной базы для ИИ заключается в том, что разговоры пользователей не защищены юридически.

«Люди обсуждают с ChatGPT самые личные аспекты своей жизни, — сказал Алтман. — Особенно молодёжь использует его как терапевта или наставника: спрашивает совета по поводу отношений или жизненных трудностей. Сейчас, если вы обратитесь к психологу, юристу или врачу, такие разговоры защищены законом — врачебной тайной, адвокатской привилегией и так далее. Для ChatGPT аналогичные нормы ещё не разработаны».

Это создаёт риск для приватности пользователей в случае судебных разбирательств, добавил он, поскольку OpenAI по закону обязан предоставлять такие диалоги по требованию.

«Думаю, это очень некорректно. Наши беседы с ИИ должны быть так же защищены, как и с терапевтом, — подчеркнул Алтман. — Год назад об этом вообще никто не задумывался».

В компании понимают, что отсутствие конфиденциальности может замедлить массовое внедрение технологий. Помимо сбора огромных объёмов данных для обучения ИИ, сейчас появились запросы на предоставление информации из чатов в правовом контексте. OpenAI уже оспаривает судебное решение [https://openai.com/index/response-to-nyt-data-demands/] по иску The New York Times, которое обязывает компанию сохранять переписку сотен миллионов пользователей ChatGPT по всему миру (кроме корпоративных клиентов).

В заявлении на своём сайте OpenAI назвала это требование «злоупотреблением». Если суды смогут отменять внутренние правила компании о приватности данных, это откроет дорогу для новых запросов на информацию в рамках расследований или правоприменительной деятельности. Технологические компании уже регулярно получают запросы на пользовательские данные для уголовных дел. Однако в последние годы, с ужещением законодательства (например, по вопросам репродуктивных прав), риски утечек вызывают больше опасений.

После отмены решения по делу «Роу против Уэйда» многие пользователи, к примеру, перешли на приватные приложения для отслеживания менструаций [https://techcrunch.com/2022/06/27/consumers-swap-period-tracking-apps-in-search-of-increased-privacy-following-roe-v-wade-ruling/] или Apple Health, где данные шифруются.

Алтман также спросил ведущего подкаста о его опыте использования ChatGPT, учитывая, что Вон признался в ограниченном взаимодействии с ИИ из-за опасений за приватность. «Разумно сначала добиться ясности в вопросах конфиденциальности, прежде чем активно им пользоваться — как в правовом, так и в этическом плане», — заключил гендиректор OpenAI.

Оставьте комментарий