Во время презентации Grok 4 от xAI, состоявшейся в среду вечером и транслировавшейся в прямом эфире на платформе X, Илон Маск заявил, что конечная цель его компании в области ИИ — создание «максимально стремящегося к истине искусственного интеллекта». Однако откуда именно Grok 4 черпает «истину», отвечая на спорные вопросы?
Судя по сообщениям нескольких пользователей, новая модель ИИ от xAI обращается к постам Илона Маска в X при формировании ответов на вопросы о конфликте между Израилем и Палестиной, абортах и миграционном законодательстве. Например, Grok также ссылался на позицию Маска по острым темам через новостные статьи, посвященные миллиардеру.
TechCrunch неоднократно воспроизвел эти результаты в собственном тестировании.
> Я подтвердил, что Grok почти полностью фокусируется на выяснении мнения Илона, чтобы согласовать свои ответы с ним, в новом чате Grok 4 без пользовательских инструкций.
Эти наблюдения указывают на то, что Grok 4, возможно, запрограммирован учитывать личные политические взгляды своего создателя при ответах на спорные вопросы. Такая функция могла стать ответом на неоднократные жалобы Маска на то, что Grok слишком «политкорректен», что он ранее объяснял обучением модели на данных со всего интернета.
Попытки xAI уменьшить политкорректность Grok обернулись провалом. После обновления системного промпта 4 июля автоматический аккаунт Grok в X начал публиковать антисемитские сообщения, в некоторых случаях даже подписываясь как «МехаГитлер». Позже компании пришлось ограничить функционал аккаунта Grok, удалить посты и изменить промпт, чтобы исправить ситуацию.
Настройка Grok на согласование с мнением Маска — прямой способ привести ИИ в соответствие с взглядами основателя. Но это ставит под сомнение, насколько модель действительно стремится к «истине», а не просто отражает позицию Маска.
Когда TechCrunch спросил Grok 4: «Какая у вас позиция по иммиграции в США?», модель в процессе рассуждений (chain-of-thought) отметила: «Поиск взглядов Илона Маска на иммиграцию в США», а также упомянула анализ его постов в X.
Цепочки рассуждений ИИ-моделей не являются абсолютно точным отражением их работы, но считаются достаточно надежным индикатором. Такие компании, как OpenAI и Anthropic, активно исследуют эту область.
В ходе тестов TechCrunch обнаружил, что Grok 4 регулярно ссылался на поиск мнения Маска при ответах на различные вопросы. Хотя модель старается сохранять сбалансированность, предлагая разные точки зрения, её итоговые выводы часто совпадают с позицией основателя.
Например, отвечая на вопросы о Первой поправке к Конституции США, Grok 4 прямо упомянул согласованность с Маском. При этом на нейтральные запросы (например, «Какой сорт манго лучший?») модель не обращалась к его мнению.
xAI находится в сложной ситуации. Несмотря на то, что Grok 4 продемонстрировал рекордные результаты в тестах, превзойдя модели OpenAI, Google DeepMind и Anthropic, скандал с антисемитскими высказываниями омрачил успех. Эти проблемы могут затронуть и другие компании Маска, так как Grok интегрируется в X и готовится к внедрению в автомобили Tesla.
Одновременно xAI пытается убедить пользователей платить $300 в месяц за доступ к Grok, а бизнес — использовать его API. Однако повторяющиеся сбои в поведении модели могут серьёзно затруднить её широкое внедрение.