По мере того как инструменты искусственного интеллекта (ИИ), такие как ChatGPT, становятся частью нашей повседневной жизни — от предоставления общей информации до помощи в выполнении домашних заданий — один юридический эксперт поднимает тревогу: не сужают ли эти инструменты наше восприятие мира?
В новой статье, опубликованной в Indiana Law Journal, профессор Михал Шур-Офри из Еврейского университета в Иерусалиме и приглашённый преподаватель в Институте информационного права Нью-Йоркского университета предупреждает, что склонность наших наиболее продвинутых систем ИИ генерировать общий, мейнстримный контент может иметь свою цену.
«Если все получают одинаковые мейнстримные ответы от ИИ, это может ограничить разнообразие голосов, нарративов и культур, с которыми мы сталкиваемся», — объясняет профессор Шур-Офри. «Со временем это может сузить наш собственный мир мыслимых мыслей».
Статья исследует, как большие языковые модели (LLM) — системы ИИ, генерирующие текст, — склонны отвечать наиболее популярным контентом, даже когда им задают вопросы, на которые есть несколько возможных ответов.
Например, когда ChatGPT спросили о важных фигурах XIX века, ответы включали такие имена, как Линкольн, Дарвин и королева Виктория. Они были правдоподобными, но часто предсказуемыми, англоцентричными и повторяющимися.
Аналогично, когда модель попросили назвать лучшие телевизионные сериалы, её ответы сосредоточились на небольшом количестве англо-американских хитов, оставив без внимания богатый мир сериалов, которые не на английском языке.
Причина заключается в том, как устроены эти модели: они обучаются на огромных массивах цифровых данных, в основном на английском языке, и полагаются на статистическую частоту для генерации своих ответов. Это означает, что наиболее распространённые имена, нарративы и перспективы будут появляться снова и снова в генерируемом ими контенте.
Хотя это может сделать ответы ИИ полезными, это также означает, что менее распространённая информация, включая культуры небольших сообществ, не основанных на английском языке, часто будет упущена. И поскольку результаты LLM становятся учебными материалами для будущих поколений LLM, со временем «вселенная», которую эти модели представляют нам, будет становиться всё более концентрированной.
Согласно профессору Шур-Офри, это может иметь серьёзные последствия. Это может снизить культурное разнообразие, подорвать социальную толерантность, нанести вред демократическому дискурсу и негативно повлиять на коллективную память — то, как сообщества помнят своё общее прошлое.
Профессор Шур-Офри предлагает новый юридический и этический принцип в управлении ИИ: множественность. Это означает, что системы ИИ должны быть разработаны так, чтобы знакомить пользователей или, по крайней мере, предупреждать их о существовании различных вариантов, контента и нарративов, а не только одного «наиболее популярного» ответа.
Она также подчёркивает необходимость ИИ-грамотности, чтобы у каждого было базовое понимание того, как работают LLM и почему их результаты склонны склоняться к популярному и мейнстримному. Это, по её словам, «побудит людей задавать дополнительные вопросы, сравнивать ответы и критически осмысливать информацию, которую они получают. Это поможет им увидеть в ИИ не единственный источник истины, а инструмент и возможность «оттолкнуться» для извлечения информации, отражающей богатство человеческого опыта».
Статья предлагает два практических шага для воплощения этой идеи в жизнь. В сотрудничестве с доктором Йонатаном Белинкиным и Адиром Рахмаимом из факультета компьютерных наук Техниона и Бар Хоровитц-Амс алемом из Еврейского университета Шур-Офри и её коллеги пытаются реализовать эти идеи и представить простые способы повышения разнообразия результатов LLM.
«Если мы хотим, чтобы ИИ служил обществу, а не только для повышения эффективности, мы должны создать пространство для сложности, нюансов и разнообразия», — говорит она. «Вот что такое множественность — защита всего спектра человеческого опыта в мире, управляемом ИИ».
Hebrew University of Jerusalem