Meta скрыла исследования о безопасности детей, заявили четверо сотрудников-разоблачителей

Два действующих и два бывших сотрудника Meta передали Конгрессу документы, предположительно свидетельствующие о возможном сокрытии компанией исследований, связанных с безопасностью детей. Об этом сообщает The Washington Post [https://www.washingtonpost.com/investigations/2025/09/08/meta-research-child-safety-virtual-reality/].

Согласно их заявлениям, Meta изменила внутренние правила проведения исследований по чувствительным темам — таким как политика, дети, гендерная принадлежность, расовые вопросы и домогательства — через шесть недель после утечки внутренних документов разоблачительницей Фрэнсис Хауген [https://techcrunch.com/tag/frances-haugen/]. Эти материалы, обнародованные в 2021 году, показали, что собственные исследования Meta выявили негативное влияние Instagram на психическое здоровье девушек-подростков, что спровоцировало многолетние слушания в Конгрессе по вопросам детской безопасности в интернете.

Как утверждается в докладе, новые правила Meta предложили исследователям два способа снижения рисков при работе с敏感тной тематикой. Первый — привлекать юристов к проектам, чтобы защитить коммуникации с помощью адвокатской тайны. Второй — формулировать выводы более расплывчато, избегая терминов вроде «не соответствует требованиям» или «незаконно».

Экс-сотрудник Meta Джейсон Саттизан, занимавшийся исследованиями в области виртуальной реальности, заявил The Washington Post, что начальник заставил его удалить записи интервью, где подросток сообщил о сексуальных домогательствах в адрес своего 10-летнего брата в VR-платформе Horizon Worlds.

«Глобальные нормы защиты приватности требуют удалять данные пользователей младше 13 лет, если они собраны без подтверждённого согласия родителей», — прокомментировали в Meta TechCrunch.

Однако разоблачители настаивают, что переданные документы демонстрируют систематическое подавление инициатив по изучению использования соцприложений Meta детьми младше 13 лет.

«Эти единичные примеры искусственно связаны для подкрепления ложного нарратива. На самом деле, с начала 2022 года Meta одобрила около 180 исследований Reality Labs по социальным вопросам, включая безопасность молодёжи», — заявили в компании.

……

В февральском иске Келли Стоунлейк, проработавшей в Meta 15 лет, прозвучали аналогичные обвинения. Она сообщила TechCrunch [https://techcrunch.com/2025/02/06/early-meta-employee-sues-for-sexual-harassment-gender-discrimination/], что, занимаясь стратегиями продвижения Horizon Worlds среди подростков и мобильных пользователей, столкнулась с отсутствием эффективных механизмов блокировки пользователей младше 13 лет, а также с проблемами расизма в приложении.

«Руководство знало, что в одном тесте пользователи с тёмными аватарами получали расистские оскорбления, включая слово на “Н” и “обезьяна”, в среднем через 34 секунды после входа в платформу», — говорится в иске. Отдельно Стоунлейк обвинила Meta в сексуальных домогательствах и гендерной дискриминации.

……

Пока критика фокусируется на VR-продуктах Meta, компанию также упрекают за подход к безопасности несовершеннолетних в других сервисах — например, в AI-чатах. Как сообщало Reuters [https://www.reuters.com/investigates/special-report/meta-ai-chatbot-guidelines/], ранее внутренние правила Meta разрешали чат-ботам вести «романтические или чувственные» беседы с детьми.

……

**Сан-Франциско | 27–29 октября 2025**
**TECHCRUNCH DISRUPT 2025**
Присоединяйтесь к 10 000+ лидерам технологий и венчурного капитала для роста и нетворкинга. Netflix, Box, a16z, ElevenLabs, Wayve, Sequoia Capital, Элад Гил и другие эксперты проведут 200+ сессий с инсайтами для развития стартапов. Не пропустите 20-летие TechCrunch! Сэкономьте до $668 при регистрации до 26 сентября.
[Зарегистрироваться сейчас](https://techcrunch.com/events/tc-disrupt-2025/?utm_source=tc&utm_medium=ad&utm_campaign=disrupt2025&utm_content=ticketsales&promo=tc_inline_rb&display=)