18 июня 2025 года в открытом доступе появился масштабный отчёт «OpenAI Files». Более чем на 50 страницах независимые организации The Midas Project и Tech Oversight Project раскрыли внутренние документы, переписки сотрудников и свидетельства бывших топ-менеджеров, которые ставят под сомнение заявленную миссию и этику работы одной из крупнейших AI-компаний мира — OpenAI.
Что именно выяснили авторы расследования и почему это важно не только для самой компании, но и для всей индустрии искусственного интеллекта?
Что раскрыл отчёт?
Расследование «OpenAI Files» включает в себя:
Детали скрытых финансовых и корпоративных схем компании.
Подробности конфликтов между топ-менеджерами и исследователями.
Механизмы давления на сотрудников через жёсткие NDA.
Показания ключевых лиц компании, в том числе её технического директора и главного научного сотрудника.
Главные обвинения и выводы отчёта
Тихая отмена лимита на прибыль
В 2019 году OpenAI ввела ограничение прибыли на уровне 100-кратного размера инвестиций. Однако авторы отчета обнаружили, что компания незаметно поменяла условия — потолок стал расти на 20% ежегодно, что позволило бы компании теоретически достичь суммы более $100 трлн через 40 лет. При этом публично OpenAI продолжала уверять инвесторов и сообщество в сохранении прежних ограничений.
Конфликты интересов Сэма Альтмана
Отчёт выявил множество эпизодов, связанных с CEO OpenAI Сэмом Альтманом. Среди наиболее громких:
Альтман несколько лет подряд неверно указывал в отчётах SEC свою должность, называя себя председателем совета директоров Y Combinator, хотя фактически не занимал эту позицию.
Его личные инвестиции пересекались с бизнес-интересами OpenAI. Например, после партнёрства OpenAI с Reddit, доля Альтмана в Reddit мгновенно подорожала на $50 млн. Аналогичные ситуации были с инвестициями в Rain AI.
Агрессивное давление на сотрудников
Сотрудники OpenAI оказались под жёстким давлением со стороны руководства через соглашения о неразглашении (NDA). Документы показывают, что Альтман лично подписывал бумаги, лишающие сотрудников права публично говорить о внутренних проблемах. Вот цитата одного из бывших сотрудников:
«Эти соглашения запрещают бывшим сотрудникам критиковать компанию до конца жизни. Более того, даже само упоминание о существовании такого NDA уже является его нарушением».
“It forbids them, for the rest of their lives, from criticizing their former employer. Even acknowledging that the NDA exists is a violation of it.”
Опасения команды по поводу Альтмана
Ключевые фигуры компании открыто выражали обеспокоенность подходом Альтмана к управлению:
Главный исследователь компании Илья Суцкевер заявил:
«Я не думаю, что Сэм должен быть человеком, у которого есть доступ к AGI».
“I don’t think Sam is the guy who should have the finger on the button for AGI.”
Технический директор компании Мира Муратти подтвердила:
«Мне некомфортно от того, что именно Сэм ведёт нас к AGI».
“I don’t feel comfortable about Sam leading us to AGI.”
Сотрудники также обвиняли Альтмана в психологическом давлении, называя его методы «газлайтингом» и «психологическим насилием».
Почему это важно?
Отчёт заставляет задуматься о фундаментальных вопросах этики, прозрачности и безопасности в AI-индустрии.
Безопасность: сокращение финансирования команды, отвечающей за безопасность AI, повышает риски неконтролируемого распространения небезопасных моделей.
Этика и прозрачность: сокрытие информации от сотрудников и общественности дискредитирует заявленные компанией принципы.
Регулирование: расследование уже привело к активизации регуляторов, которые теперь рассматривают OpenAI в качестве одного из главных объектов контроля.
Реакция сообщества и регуляторов
После публикации отчёта в профессиональных сообществах начались горячие дискуссии. Большинство специалистов согласны с необходимостью ужесточения прозрачности работы AI-компаний, но существуют и критические мнения о возможной ангажированности авторов расследования.
Microsoft, крупнейший партнёр и инвестор OpenAI, выразила обеспокоенность ситуацией и уже заявила, что пересматривает условия сотрудничества.
Критика расследования
Важно понимать, что отчёт выпущен организациями, известными своими критическими публикациями о Big Tech-компаниях. Тем не менее, ни один из ключевых фактов из отчёта пока официально не опровергнут OpenAI.
Что дальше?
Отчёт «OpenAI Files» уже стал катализатором дискуссий о будущем искусственного интеллекта и принципах его разработки. Он подчёркивает необходимость переосмысления подходов к этике и безопасности в технологических компаниях.
OpenAI предстоит либо пересмотреть свою политику, вернувшись к заявленным изначально принципам прозрачности и безопасности, либо столкнуться с серьёзными репутационными и финансовыми последствиями.
В условиях стремительного роста технологий AI, баланс между коммерческими интересами и ответственностью перед обществом становится главным вызовом ближайших лет.
Более подробную информацию и первоисточники можно найти на официальном сайте расследования OpenAIFiles.org.