«Документы OpenAI» призывают к регулированию в гонке за создание ИИ общего уровня

Генеральный директор OpenAI Сэм Олтман заявил, что человечество находится в нескольких годах от создания искусственного общего интеллекта (ИОИ), способного автоматизировать большую часть труда. Если это так, то человечество также заслуживает права понимать и влиять на людей и механизмы, стоящие за такой невероятной и дестабилизирующей силой.

Этой идеей руководствуется проект «The OpenAI Files [https://www.openaifiles.org/]» — архивная инициатива от Midas Project и Tech Oversight Project, двух некоммерческих организаций, отслеживающих деятельность технологических компаний. Файлы представляют собой «сборник документированных проблем в области управления, этики руководства и организационной культуры OpenAI». Помимо информирования, цель проекта — предложить путь для OpenAI и других лидеров в сфере ИИ, сфокусированный на ответственной системе управления, этическом лидерстве и распределении выгод.

«Структуры управления и целостность руководства проекта такой важности обязаны соответствовать масштабу и серьёзности его миссии», — говорится в разделе Vision for Change [https://www.openaifiles.org/vision-for-change] на сайте. «Компании, лидирующие в гонке за ИОИ, должны придерживаться исключительно высоких стандартов — как под внешним давлением, так и по собственной инициативе».

На сегодня гонка за доминирование в сфере ИИ привела к бесконтрольному масштабированию — подходу «рост любой ценой», из-за которого компании вроде OpenAI поглощают контент без согласия для обучения моделей, строят гигантские дата-центры, вызывающие перебои с электричеством [https://www.reuters.com/technology/big-techs-data-center-boom-poses-new-risk-us-grid-operators-2025-03-19/?utm_source=chatgpt.com] и рост тарифов для местных потребителей [https://www.washingtonpost.com/business/2024/11/01/ai-data-centers-electricity-bills-google-amazon/?utm_source=chatgpt.com]. Стремление к коммерциализации также заставляет компании выпускать продукты до внедрения необходимых мер безопасности [https://www.tomshardware.com/tech-industry/artificial-intelligence/chatgpt-touts-conspiracies-pretends-to-communicate-with-metaphysical-entities-attempts-to-convince-one-user-that-theyre-neo?utm_source=chatgpt.com], чтобы удовлетворить инвесторов, требующих прибыли.

Давление инвесторов изменило базовую структуру OpenAI. В материалах проекта отмечается, что изначально, как некоммерческая организация, OpenAI ограничивала прибыль инвесторов максимум в 100 раз, чтобы доходы от достижения ИОИ пошли на благо человечества. Однако позже компания объявила об отмене этого лимита, признав, что изменения были уступкой инвесторам, сделавшим финансирование зависимым от структурных реформ.

Файлы обращают внимание на такие проблемы, как ускоренные процедуры оценки безопасности и «культура безответственности» в OpenAI, а также на возможные конфликты интересов в совете директоров и у самого Олтмана. В них приведён список стартапов из инвестиционного портфеля Олтмана, чья деятельность пересекается с OpenAI.

Кроме того, проект ставит под вопрос репутацию Олтмана, которая стала предметом спекуляций после попытки сотрудников высшего звена сместить его в 2023 году из-за «обманчивого и хаотичного поведения».

«Не думаю, что Сэм — тот, кому стоит доверить управление ИОИ», — заявил [https://www.theatlantic.com/technology/archive/2025/05/karen-hao-empire-of-ai-excerpt/682798/] в своё время Илья Суцкевер, бывший главный научный сотрудник OpenAI.

Вопросы и решения, поднятые в рамках OpenAI Files, напоминают: огромная сила сосредоточена в руках немногих, при этом отсутствуют прозрачность и надзор. Файлы приоткрывают завесу над этой «чёрной коробкой», стремясь сместить фокус с неизбежности прогресса на ответственность за него.

Оставьте комментарий