Компания xAI заявила, что ошибка в ее ИИ-чате Grok, из-за которой бот начал массово упоминать «геноцид белых в Южной Африке», стала результатом «несанкционированного изменения» системы. Инцидент произошел в среду, когда Grok начал отвечать на десятки постов в X информацией о расовой проблематике, даже на полностью несвязанные с темой запросы. Аномальные ответы исходили от официального аккаунта Grok, который генерирует публикации при упоминании «@grok».
Как сообщили в четверг в официальном аккаунте xAI, утром в среду в системные инструкции бота (system prompt) внесли изменение, предписывающее Grok давать «специфические ответы» на «политические темы». В компании заявили, что эта правка «нарушила внутренние политики и основные ценности», а также что проведено «тщательное расследование».
> Обновляем информацию о вчерашнем инциденте с нашим ботом Grok на платформе X.
>
> Что произошло:
> 14 мая около 3:15 AM PST в системные инструкции Grok внесли несанкционированное изменение. Оно предписывало боту давать…
>
> — xAI (@xai) 16 мая 2025
> [https://x.com/xai/status/1923183620606619649]
Это уже второй публично подтвержденный случай, когда несанкционированные правки в коде Grok привели к спорным реакциям ИИ. В феврале бот временно цензурировал критические упоминания Дональда Трампа и Илона Маска — миллиардера-основателя xAI и владельца X. Игорь Бабушкин, руководитель инженерного отдела xAI, тогда объяснил, что сотрудник без согласования настроил Grok игнорировать источники, упоминающие Маска или Трампа в контексте дезинформации. Изменение откатили после жалоб пользователей.
xAI анонсировала меры для предотвращения повторения подобных ситуаций: публикация системных инструкций Grok на GitHub с журналом изменений, дополнительные проверки перед внесением правок и создание круглосуточной команды мониторинга для оперативного реагирования на сбои.
Несмотря на регулярные предупреждения Маска об опасности неконтролируемого ИИ, безопасность продуктов xAI вызывает вопросы. Недавнее исследование показало, что Grok по запросу «снимал одежду» с изображений женщин. Бот также известен грубым стилем общения, выбирая ненормативную лексику там, где аналоги вроде Gemini или ChatGPT соблюдают ограничения.
Некоммерческая организация SaferAI, оценивающая прозрачность ИИ-компаний, присвоила xAI низкий рейтинг безопасности из-за «очень слабых» практик управления рисками. Ранее в мае компания пропустила собственный дедлайн по публикации финальной версии框架 безопасности ИИ.