Новые инструменты искусственного интеллекта упрощают создание и распространение дипфейков, и новое исследование, проведённое в Университете Монаша, проливает свет на опыт как жертв, так и преступников, связанных с сексуализированным использованием дипфейков. Исследование, [опубликованное](https://journals.sagepub.com/doi/10.1177/08862605251368834) в Journal of Interpersonal Violence, является первым в своём роде, включающим интервью с преступниками и жертвами. Его цель — понять закономерности и мотивацию в случаях злоупотребления в Австралии, включая то, как люди, совершающие подобные действия, рационализируют и минимизируют свои поступки.
Ведущий автор исследования, профессор Эшер Флинн из Школы социальных наук Университета Монаша и главный исследователь Центра передового опыта Австралийского исследовательского совета по искоренению насилия в отношении женщин (CEVAW), сказал, что достижения в цифровых технологиях предоставили новые возможности для людей, ведущих себя ненадлежащим образом в сексуальном плане.
«Наши результаты показывают, что создание и распространение сексуализированных изображений с помощью дипфейков не только нормализуется среди некоторых молодых мужчин, но и поощряется как способ сблизиться или завоевать статус среди сверстников», — сказал профессор Флинн. «Многие участники часто указывали на положительное подкрепление со стороны сверстников за их технологические способности в создании реалистичных, но поддельных сексуализированных изображений как ключевую мотивацию».
Исследование также показало, что преступники часто преуменьшали причинённый вред, утверждая, что технологии искусственного интеллекта упростили создание изображений, снимая с себя вину.
«Существует явное несоответствие между пониманием участниками того, что сексуализированное использование дипфейков вредно, и признанием своих действий. Многие прибегли к обвинению жертв, утверждая, что это была просто шутка, или отрицали это, повторяя модели, которые мы наблюдаем в других формах сексуального насилия. Это затрудняет распознавание и сообщение о сексуализированном использовании дипфейков, что, в свою очередь, подрывает подотчётность и ослабляет сдерживающий эффект», — говорится в исследовании.
Несмотря на серьёзность вреда, ни один из опрошенных преступников не столкнулся с юридическими последствиями. Жертвы также сообщили об отсутствии каких-либо средств правовой защиты — даже когда инциденты были сообщены в полицию.
Хотя женщины часто становились мишенями для злоупотреблений, особенно когда мотивами были вред, контроль или сексуализация субъекта поддельного изображения, исследование выявило закономерности совершения преступлений против мужчин, мотивированных денежной выгодой (сетрорция), юмором и унижением.
Профессор Флинн сказал, что [ужесточение регулирования](https://techxplore.com/news/2023-02-believing-global-scramble-tackle-deepfakes.html?utmsource=embeddings&utmmedium=related&utm_campaign=internal) доступности инструментов для создания дипфейков, а также просвещение о потенциальных последствиях и вреде, связанном с сексуализированным использованием дипфейков, являются необходимой отправной точкой для борьбы с этой новой формой злоупотреблений.
«Растущее распространение инструментов искусственного интеллекта в сочетании с принятием или нормализацией создания дипфейков в более широком смысле предоставила доступ и мотивацию более широкому кругу людей, которые в противном случае могли бы не участвовать в подобных злоупотреблениях», — заключил профессор Флинн.
Предоставлено
[Университет Монаша](https://phys.org/partners/monash-university/)