Что видеоконтент может поддерживать? Исследование показывает, что алгоритмы, оптимизированные для вовлечения, могут усиливать существующие убеждения

Обзор научных исследований в International Journal of Web Based Communities изучил взаимосвязь между ведущими сайтами онлайн-видеоконтента, их системами рекомендаций и тем, как это может влиять на распространение поляризованного или вводящего в заблуждение контента. Было проанализировано 56 исследований, изучающих, как алгоритмы платформ взаимодействуют с материалами, включая политическую дезинформацию, дезинформацию о здоровье и экстремистский контент.

Исследование показывает, что алгоритмы, оптимизированные для увеличения вовлечённости пользователей, в некоторых случаях могут коррелировать с моделями, при которых зрители преимущественно сталкиваются с контентом, соответствующим их существующим убеждениям. Это явление часто называют «эффектом эхо-камеры». Некоторые экспериментальные исследования, цитируемые в обзоре, предполагают, что последовательности рекомендуемых видео могут влиять на отношение в определённых демографических группах.

Политический контент был наиболее часто изучаемым доменом для поляризации, хотя также рассматривались и другие виды потенциально вредного материала. Обзор подчеркнул разнообразие исследовательских целей и методов. Примерно половина исследований была сосредоточена на дезинформации, в то время как меньшее число касалось неполитической радикализации или онлайн-токсичности.

Обзор выявил несколько пробелов в литературе. Например, немногие исследования рассматривали роль монетизации или финансовых стимулов в формировании рекомендуемого контента. Всё чаще проводятся межплатформенные анализы, что отражает признание того, что контент, размещённый на этой крупной видеоплатформе, может распространяться через другие социальные сети и мессенджеры, расширяя его видимость за пределы самой платформы.

Исследователи подчёркивают различие между поляризацией, когда мнения могут становиться более крайними, и дезинформацией, когда распространяются неточные или вводящие в заблуждение утверждения. Они также отмечают важность учёта алгоритмического дизайна, поведения пользователей и экономических факторов вместе при оценке более широких социальных последствий систем рекомендаций.

Платформа, о которой идёт речь, внедрила меры, включая обновления политики и инициативы по проверке фактов, направленные на борьбу с проблемным контентом, хотя в обзоре отмечается, что проблемы остаются.

Предоставлено Inderscience

Источник