Новый инструмент показывает, что можно снизить уровень партийной вражды в ленте X — без удаления политических постов и без прямого сотрудничества с платформой.
Исследование, проведённое под руководством Стэнфорда и [опубликованное](https://www.science.org/doi/10.1126/science.adu5584) в журнале Science, также указывает на то, что однажды пользователи смогут контролировать алгоритмы социальных сетей.
Многопрофильная команда создала удобный веб-инструмент, который изменяет порядок контента, перемещая посты ниже в ленте пользователя, когда они содержат антидемократические настроения и партийную враждебность, например, призывы к насилию или тюремному заключению сторонников оппозиционной партии.
В эксперименте с участием около 1200 участников в течение 10 дней во время выборов 2024 года те, у кого антидемократический контент был понижен в рейтинге, продемонстрировали более позитивное отношение к оппозиционной партии. Эффект был двусторонним и подтвердился для людей, которые идентифицировали себя как либералов или консерваторов.
«Алгоритмы социальных сетей напрямую влияют на нашу жизнь, но до сих пор только платформы имели возможность понимать их и формировать», — сказал Майкл Бернштейн, профессор информатики в Инженерной школе Стэнфорда и старший автор исследования. «Мы продемонстрировали подход, который позволяет исследователям и конечным пользователям получить эту возможность».
Инструмент также может открыть пути для создания вмешательств, которые не только смягчат партийную вражду, но и будут способствовать повышению социального доверия и более здоровому демократическому дискурсу между партиями, добавил Бернштейн, который также является старшим научным сотрудником [Стэнфордского института искусственного интеллекта, ориентированного на человека](https://ai.stanford.edu/).
Для этого исследования команда использовала [предыдущие социологические исследования](https://phys.org/news/2024-10-megastudy-crowdsourced-ideas-political-polarization.html) из Стэнфорда, определив категории антидемократических настроений и партийной враждебности, которые могут представлять угрозу демократии. Помимо призывов к крайним мерам против оппозиционной партии, эти настроения включают заявления, демонстрирующие отказ от любого двухпартийного сотрудничества, скептицизм в отношении фактов, которые поддерживают взгляды другой стороны, и готовность отказаться от демократических принципов, чтобы помочь предпочитаемой партии.
«Часто возникает немедленная, неизбежная эмоциональная реакция на подобный контент», — сказала соавтор исследования Жанна Цай. «Этот поляризующий контент может просто перехватить их внимание, заставляя людей чувствовать себя плохо в тот момент, когда они его видят», — сказала Цай, профессор психологии в Школе гуманитарных и естественных наук Стэнфорда.
Исследование объединило исследователей из Вашингтонского университета и Нортуэстского университета, а также из Стэнфорда, чтобы решить проблему с разных точек зрения, включая информатику, психологию, информатику и коммуникации.
Первый автор исследования, Тициано Пиккарди, бывший научный сотрудник лаборатории Бернштейна, создал веб-инструмент расширения, дополненный большой языковой моделью искусственного интеллекта, которая сканирует посты на предмет таких антидемократических и крайне негативных партийных настроений. Затем инструмент в считанные секунды изменяет порядок публикаций в ленте пользователя в X.
Затем в отдельных экспериментах исследователи попросили группу участников, которые дали согласие на изменение своих лент, просматривать X с пониженным или повышенным рейтингом такого контента в течение 10 дней и сравнили их реакцию с контрольной группой. Никакие посты не были удалены, но более подстрекательские политические посты появлялись ниже или выше в их потоках контента.
Влияние на поляризацию было очевидным, сказал Пиккарди, который сейчас является доцентом кафедры информатики в Университете Джонса Хопкинса. «Когда участники подвергались меньшему воздействию такого контента, они стали теплее относиться к людям из оппозиционной партии», — сказал он. «Когда они подвергались большему воздействию, они стали холоднее».
До и после эксперимента исследователи опрашивали участников об их отношении к оппозиционной партии по шкале от 1 до 100. Среди участников, у которых негативный контент был понижен в рейтинге, их отношение улучшилось в среднем на два пункта — что эквивалентно предполагаемому изменению отношения, которое произошло среди населения США в целом за период в три года.
Предыдущие исследования вмешательств в социальные сети для смягчения такой поляризации показали смешанные результаты. Исследователи сказали, что эти вмешательства также были довольно грубыми инструментами, такими как ранжирование постов в хронологическом порядке или полный отказ от использования социальных сетей.
Это исследование показывает, что возможен и эффективен более тонкий подход, сказал Пиккарди. Это также может дать людям больше контроля над тем, что они видят, и это может помочь улучшить их общий опыт работы в социальных сетях, поскольку понижение рейтинга такого контента не только снизило поляризацию участников, но и их чувство гнева и грусти.
Исследователи изучают другие вмешательства, используя аналогичный метод, включая те, которые направлены на улучшение психического здоровья. Команда также предоставила код текущего инструмента, чтобы другие исследователи и разработчики могли использовать его для создания собственных систем ранжирования, независимых от алгоритма социальной сети.
Предоставлено [Стэнфордским университетом](https://phys.org/partners/stanford-university/)