В прошлом месяце Google анонсировала SynthID Detector — новый инструмент для обнаружения контента, созданного с помощью ИИ. Google утверждает, что он может идентифицировать такой контент в тексте, изображениях, видео или аудио.
Однако есть некоторые оговорки. Одна из них заключается в том, что инструмент в настоящее время доступен только «ранним тестировщикам» по списку ожидания.
Основная проблема заключается в том, что SynthID в основном работает с контентом, который был создан с помощью сервисов Google AI — таких как Gemini для текста, Veo для видео, Imagen для изображений или Lyria для аудио.
Если вы попытаетесь использовать инструмент Google для обнаружения ИИ, чтобы проверить, будет ли помечен ваш контент, созданный с помощью ChatGPT, это не сработает.
Дело в том, что, строго говоря, инструмент не может обнаружить присутствие контента, созданного с помощью ИИ, или отличить его от другого контента. Вместо этого он обнаруживает наличие «водяного знака», который продукты Google AI (и некоторые другие) встраивают в свои выходные данные с помощью SynthID.
Что такое «водяные знаки»?
«Водяной знак» — это специальный машиночитаемый элемент, встроенный в изображение, видео, звук или текст. Цифровые водяные знаки использовались для обеспечения передачи информации о происхождении или авторстве контента вместе с ним. Они применялись для подтверждения авторства в творческих работах и решения проблем дезинформации в СМИ.
SynthID встраивает водяные знаки в выходные данные моделей ИИ. Водяные знаки не видны читателям или аудитории, но могут быть использованы другими инструментами для идентификации контента, который был создан или отредактирован с помощью модели ИИ с SynthID.
Насколько эффективны такие инструменты?
Нет единой системы обнаружения ИИ
Несколько компаний, занимающихся ИИ, включая Meta, разработали свои собственные инструменты для создания «водяных знаков» и детекторы, аналогичные SynthID. Но это «специфичные для модели» решения, а не универсальные.
Это означает, что пользователям приходится использовать несколько инструментов для проверки контента. Несмотря на призывы исследователей к созданию единой системы, а крупных игроков, таких как Google, стремящихся к тому, чтобы их инструмент был принят другими, ситуация остаётся фрагментированной.
Параллельные усилия сосредоточены на метаданных — закодированной информации о происхождении, авторстве и истории редактирования медиа. Однако метаданные можно легко удалить при загрузке контента в социальные сети или преобразовании его в другой формат файла. Это особенно проблематично, если кто-то намеренно пытался скрыть происхождение и авторство контента.
Существуют детекторы, которые полагаются на криминалистические признаки, такие как визуальные несоответствия или аномалии освещения. Хотя некоторые из этих инструментов автоматизированы, многие зависят от человеческого суждения и методов здравого смысла, например, подсчёта количества пальцев на изображениях, созданных ИИ. Эти методы могут стать ненужными по мере улучшения производительности моделей ИИ.
Насколько эффективны инструменты обнаружения ИИ?
В целом, инструменты обнаружения ИИ могут сильно различаться по своей эффективности. Некоторые работают лучше, когда контент полностью создан с помощью ИИ, например, когда эссе было сгенерировано с нуля чат-ботом.
Ситуация усложняется, когда ИИ используется для редактирования или преобразования контента, созданного человеком. В таких случаях детекторы ИИ могут ошибаться. Они могут не обнаружить ИИ или пометить контент, созданный человеком, как созданный ИИ.
Инструменты обнаружения ИИ не всегда объясняют, как они пришли к своему решению, что добавляет путаницы. При использовании для обнаружения плагиата в университетской оценке они считаются «этическим минным полем» и, как известно, дискриминируют людей, не являющихся носителями английского языка.
Где инструменты обнаружения ИИ могут помочь
Существует множество вариантов использования инструментов обнаружения ИИ. Например, в страховании знание того, соответствует ли изображение, которым клиент делится, тому, что оно утверждает, может помочь страховщикам понять, как реагировать.
Журналисты и фактчекеры могут использовать детекторы ИИ в дополнение к другим своим подходам, когда пытаются решить, следует ли делиться потенциально заслуживающей освещения в новостях информацией.
Работодатели и соискатели всё чаще должны оценивать, является ли человек на другом конце процесса найма реальным или подделкой, созданной ИИ.
Пользователи приложений для знакомств должны знать, представляет ли профиль человека, с которым они встретились в Интернете, реальную романтическую перспективу или аватар ИИ, возможно, стоящий за мошеннической схемой.
Если вы сотрудник службы экстренного реагирования, решающий, отправлять ли помощь на вызов, уверенное знание того, является ли звонящий человеком или ИИ, может спасти ресурсы и жизни.
Что дальше?
Как показывают эти примеры, проблемы подлинности возникают в режиме реального времени, и статических инструментов, таких как водяные знаки, вероятно, будет недостаточно. Настоятельно необходимо разрабатывать детекторы ИИ, работающие с аудио и видео в режиме реального времени.
В любом случае маловероятно, что суждения об аутентичности когда-либо могут быть полностью делегированы одному инструменту. Понимание того, как работают такие инструменты, включая их ограничения, является важным первым шагом. Сопоставление их с другой информацией и вашими собственными знаниями контекста останется важным.
Т. Дж. Томсон, старший преподаватель по визуальным коммуникациям и цифровым медиа, университет RMIT; Элиф Бусе Дойуран, научный сотрудник, Университет Квинсленда, и Джин Берджесс, заслуженный профессор цифровых медиа, Университет Квинсленда.
Эта статья переиздана из The Conversation под лицензией Creative Commons. Читайте оригинальную статью.