Как сообщается, OpenAI провела масштабную реорганизацию системы безопасности для защиты от корпоративного шпионажа. Согласно материалам Financial Times [https://www.ft.com/content/f896c4d9-bab7-40a2-9e67-4058093ce250], компания ускорила уже существующие защитные меры после того, как китайский стартап DeepSeek выпустил конкурирующую модель в январе — OpenAI утверждает, что DeepSeek использовала «методы дистилляции» для незаконного копирования её разработок.
Усиленные меры включают политику «информационного карантина», ограничивающую доступ сотрудников к чувствительным алгоритмам и новым продуктам. Например, во время разработки модели o1 от OpenAI, согласно FT, только проверенные участники команды, допущенные к проекту, могли обсуждать его в общих офисных пространствах.
Кроме того, OpenAI теперь изолирует эксклюзивные технологии в автономных компьютерных системах, внедряет биометрический контроль доступа в рабочие зоны (сканирование отпечатков пальцев сотрудников) и соблюдает интернет-политику «запрещено по умолчанию», требующую специального разрешения для внешних подключений. Как уточняет издание, компания также усилила физическую безопасность дата-центров и расширила штат кибербезопасности.
Эти изменения отражают растущие опасения по поводу попыток иностранных конкурентов похитить интеллектуальную собственность OpenAI. Однако, учитывая продолжающуюся «войну за кадры» [https://techcrunch.com/2025/06/28/meta-reportedly-hires-four-more-researchers-from-openai/] между американскими ИИ-компаниями и участившиеся утечки высказываний CEO Сэма Алтмана [https://www.wired.com/story/sam-altman-meta-ai-talent-poaching-spree-leaked-messages/], компания, вероятно, пытается решить и внутренние проблемы безопасности.
В OpenAI пока не прокомментировали ситуацию.