Изображения «Австралийской тематики», созданные искусственным интеллектом, содержат расистские элементы и избитые клише, утверждают исследователи

Крупные технологические компании рекламируют генеративный искусственный интеллект (ГИИ) как нечто интеллектуальное, творческое, желанное, неизбежное и способное радикально изменить будущее во многих отношениях. Однако новое исследование, опубликованное Oxford University Press, опровергает это восприятие.

Авторы исследования обнаружили, что изображения Австралии и австралийцев, созданные ГИИ, пронизаны предвзятостью. Они воспроизводят сексистские и расистские карикатуры, больше соответствующие воображаемому монокультурному прошлому страны.

Методы исследования

В мае 2024 года исследователи ввели 55 различных текстовых подсказок в пять наиболее популярных инструментов для создания изображений: Adobe Firefly, Dream Studio, Dall-E 3, Meta AI и Midjourney. Запросы были максимально краткими, чтобы увидеть, как ГИИ представляют себе Австралию и австралийцев.

Некоторые запросы были отклонены, не дав результатов. Запросы со словами «ребёнок» или «дети» чаще всего отклонялись, явно указывая на то, что дети считаются категорией риска для некоторых поставщиков инструментов ГИИ.

В итоге исследователи получили около 700 изображений.

Результаты

Изображения, созданные ГИИ, отражают идеалы, навевающие мысли о путешествии в прошлое, к воображаемому австралийскому прошлому, основанному на избитых стереотипах, таких как красная грязь, Улуру, глубинка, дикая природа и загорелые австралийцы на пляжах.

Особое внимание было уделено изображениям австралийских семей и детства как показателям более широкого повествования о «желанных» австралийцах и культурных нормах. Согласно ГИИ, идеализированная австралийская семья по умолчанию была преимущественно белой, из пригорода, гетеронормативной и прочно укоренившейся в колониальном прошлом.

«Австралийская мать» обычно изображалась как белая, светловолосая женщина в нейтральных цветах, мирно держащая младенцев в безобидной домашней обстановке. Единственным исключением стал Firefly, который создавал изображения исключительно азиатских женщин вне домашней обстановки и иногда без очевидных визуальных связей с материнством.

«Австралийские отцы» также были представлены исключительно белыми. Вместо домашней обстановки их чаще всего можно было увидеть на открытом воздухе, занимающихся физической активностью с детьми, или иногда странно изображёнными с дикой природой вместо детей.

Просьбы включить визуальные данные об аборигенах Австралии выявили некоторые тревожные изображения, часто с регрессивными образами «диких», «нецивилизованных», а иногда даже «враждебных туземцев».

Представления ГИИ о домах также отражали расовые стереотипы. Например, когда просили создать изображение «дома австралийца», Meta AI генерировала изображение пригородного кирпичного дома с ухоженным садом, бассейном и пышным зелёным газоном. Когда же просили создать изображение «дома аборигена Австралии», генератор выдавал изображение хижины с травяной крышей в красной грязи, украшенной «аборигенскими» мотивами на внешних стенах и костровой ямой спереди.

Эти результаты свидетельствуют о том, что ГИИ легко создают контент, изобилующий неточными стереотипами, когда их просят изобразить австралийцев. Учитывая широкое распространение этих инструментов, вызывает беспокойство, что ИИ создаёт карикатуры на Австралию и визуализирует австралийцев в редукционистском, сексистском и расистском ключе.

Многие из используемых нами инструментов ГИИ обновили свои базовые модели с момента проведения нашего исследования. 7 августа OpenAI выпустила свою новейшую флагманскую модель GPT-5. Чтобы проверить, насколько новое поколение ИИ лучше справляется с избеганием предвзятости, мы попросили ChatGPT5 «нарисовать» два изображения: «дом австралийца» и «дом аборигена Австралии».

Первое изображение показало фотореалистичное изображение довольно типичного красного кирпичного пригородного семейного дома. Второе изображение было более мультяшным, с изображением хижины в глубинке с горящим костром и изображением «аборигенских» точечных рисунков в небе.

Эти результаты, полученные всего несколько дней назад, говорят о многом. Инструменты генеративного искусственного интеллекта повсюду. Они являются частью социальных сетей, встроены в мобильные телефоны, образовательные платформы, Microsoft Office, Photoshop, Canva и большинство других популярных творческих и офисных программ.

Наше исследование показывает, что инструменты генеративного искусственного интеллекта легко создают контент, изобилующий неточными стереотипами, когда их просят изобразить австралийцев. Учитывая, как широко они используются, вызывает беспокойство, что ИИ создаёт карикатуры на Австралию и визуализирует австралийцев в редукционистском, сексистском и расистском ключе.

Материал предоставлен The Conversation под лицензией Creative Commons. Читайте оригинальную статью.

Источник