Юридическая ответственность за использование дипфейков, созданных с помощью ИИ, в дезинформации на выборах

Как создаются дипфейки

Генеративные модели искусственного интеллекта позволяют создавать очень реалистичные поддельные медиафайлы. Большинство дипфейков сегодня создаются путём обучения глубоких нейронных сетей на реальных изображениях, видео или аудиозаписях конкретного человека.

Основные архитектуры ИИ:
* генеративно-состязательные сети (GANs);
* автоэнкодеры.

GAN состоит из сети-генератора, которая создаёт синтетические изображения, и сети-дискриминатора, которая пытается отличить подделки от реальных данных. В процессе итеративного обучения генератор учится создавать выходные данные, которые всё больше обманывают дискриминатор.

Инструменты на основе автоэнкодеров аналогично учатся кодировать целевое лицо, а затем декодировать его на исходное видео. На практике создатели дипфейков используют доступное программное обеспечение: инструменты с открытым исходным кодом, такие как DeepFaceLab и FaceSwap, доминируют в области замены лиц на видео (по некоторым оценкам, DeepFaceLab использовался для создания более 95% известных видео с дипфейками).

Инструменты клонирования голоса (часто основанные на аналогичных принципах ИИ) могут имитировать речь человека по нескольким минутам аудиозаписи. Коммерческие платформы, такие как Synthesia, позволяют создавать текстовых аватаров для видео (превращая набранные скрипты в реалистичных «представителей»), которые уже использовались в кампаниях по дезинформации.

Даже мобильные приложения (например, FaceApp, Zao) позволяют пользователям делать базовые замены лиц за считанные минуты.

Таким образом, достижения в области GAN и связанных моделей делают создание дипфейков дешевле и проще, чем когда-либо.

Дипфейки на недавних выборах: примеры

Дипфейки и изображения, созданные с помощью ИИ, уже попадали в заголовки новостей в ходе избирательных кампаний по всему миру. В ходе первичных выборов в США в 2024 году аудиоробовызов, изменённый с помощью цифровых технологий, имитировал голос президента Байдена, призывая демократов не голосовать на праймериз в Нью-Гэмпшире. Звонившую («Сьюзан Андерсон») позже оштрафовали на 6 миллионов долларов по решению FCC и предъявили обвинение в соответствии с действующими законами о телемаркетинге.

В 2024 году бывший президент Трамп опубликовал в социальных сетях коллаж, намекающий на то, что поп-певица Тейлор Свифт поддержала его кампанию, используя созданные с помощью ИИ изображения Свифт в футболках «Swifties for Trump». Посты вызвали возмущение в СМИ, хотя аналитики отметили, что того же эффекта можно было добиться и без ИИ (например, путём добавления текста на реальные изображения).

За пределами США контент, похожий на дипфейк, появлялся по всему миру. На президентских выборах в Индонезии в 2024 году в социальных сетях появилось видео, на котором убедительно сгенерированное изображение покойного президента Сухарто, казалось бы, поддерживает кандидата от партии Голкар. Через несколько дней поддержанный кандидат (зять Сухарто) выиграл президентство.

В Бангладеш вирусное видео с дипфейком наложило лицо лидера оппозиции Румен Фарханы на тело в бикини — подстрекательская фальсификация, призванная дискредитировать её в консервативном обществе с мусульманским большинством.

Президент Молдовы Майя Санду неоднократно становилась мишенью дезинформации, созданной с помощью ИИ. Одно видео с дипфейком ложно показало, что она уходит в отставку и поддерживает дружественную России партию, очевидно, с целью посеять недоверие к избирательному процессу.

Даже на Тайване (на фоне напряжённости с Китаем) в TikTok распространился клип, в котором политик США делал внешнеполитические заявления — это вызвало путаницу накануне выборов на Тайване.

В ходе недавней кампании в Словакии аудиозапись, имитирующая голос лидера либеральной партии, предложила, что он замышляет фальсификацию выборов и повышение цен на пиво — мгновенно распространилась в социальных сетях за несколько дней до выборов.

Эти примеры показывают, что дипфейки затронули различные политические системы (от Бангладеш и Индонезии до Молдовы, Словакии, Индии и других стран), часто с целью подорвать кандидатов или запутать избирателей.

Примечательно, что многие из наиболее вирусных «дипфейков» в 2024 году на самом деле распространялись как очевидные мемы или утверждения, а не как тонкие обманы. Эксперты отметили, что абсолютно неуловимые дипфейки, созданные с помощью ИИ, были относительно редки.

Правовая база и ответственность в США

В США создатели дипфейков и распространители дезинформации на выборах сталкиваются с набором инструментов, но не имеют единого всеобъемлющего федерального «закона о дипфейках». Существующие законы, имеющие отношение к дезинформации, включают статуты о выдаче себя за государственных чиновников, ведении предвыборной агитации (например, Закон о реформе финансирования избирательных кампаний, который требует размещения дисклеймеров на политической рекламе) и специальные статуты, такие как уголовная ответственность за предвыборную агитацию.

В некоторых случаях обычные законы были расширены: NH-робовызов использовал Закон о защите потребителей телефонной связи и положения о мошенничестве с почтой/телемаркетингом, в результате чего был наложен штраф в размере 6 миллионов долларов и предъявлено уголовное обвинение.

Однако эти законы были приняты до появления ИИ, и юристы предупредили, что они часто не подходят. Например, обманчивые заявления, сделанные с помощью дипфейков и не связанные с конкретной жертвой, нелегко вписаться в клевету или деликт о нарушении неприкосновенности частной жизни.

Законодательство и предложения в США

Федеральные законодатели предложили новые статуты. Закон об ответственности за DEEPFAKES (H.R.5586 в 118-м Конгрессе) среди прочего наложил бы требование о раскрытии информации: политическая реклама с использованием манипулируемого медиаобраза должна иметь чёткие дисклеймеры, идентифицирующие контент как синтетический.

Также предлагается ужесточить наказание за создание ложных видеороликов или аудиозаписей, предназначенных для влияния на голосование. Хотя закон ещё не принят, сторонники утверждают, что он обеспечит единые правила для всех федеральных и государственных кампаний.

Центр Бреннана поддерживает требования о прозрачности, а не о прямых запретах, предлагая, чтобы законы были направлены на борьбу с обманчивыми дипфейками в платной рекламе или определённых категориях (например, ложные заявления о времени/месте/способе голосования), при этом выделяя пародию и новостные репортажи.

На уровне штатов более 20 штатов приняли законы о дипфейках специально для выборов. Например, Флорида и Калифорния запрещают распространение фальсифицированных аудио/визуальных материалов о кандидатах с намерением обмануть избирателей (хотя закон Флориды допускает пародию).

Рекомендации по политике: баланс между честностью и свободой слова

Учитывая быстро развивающиеся технологии, эксперты рекомендуют многосторонний подход. Большинство подчёркивают прозрачность и раскрытие информации как основные принципы. Например, Центр Бреннана призывает требовать, чтобы любые политические коммуникации, использующие синтезированные ИИ изображения или голос, имели чёткую маркировку. Это может быть цифровая водяная метка или видимый дисклеймер.

Прозрачность имеет два преимущества: она заставляет кампании и платформы «владеть» использованием ИИ и предупреждает аудиторию о необходимости скептически относиться к контенту.

Прямые запреты на все дипфейки, скорее всего, нарушат свободу слова, но целевые запреты на конкретные нарушения (например, автоматизированные телефонные звонки, выдающие себя за избирателей, или видео с ложной информацией о голосовании) могут быть оправданы.

Другой рекомендацией является ограниченная ответственность: установление штрафов за доказанное намерение ввести в заблуждение, а не за сам факт создания контента.

Источник

Оставьте комментарий