18 июня 2025 года в открытом доступе появился масштабный отчёт «OpenAI Files». Более чем на 50 страницах независимые организации The Midas Project и Tech Oversight Project раскрыли внутренние документы, переписки сотрудников и свидетельства бывших топ-менеджеров, которые ставят под сомнение заявленную миссию и этику работы одной из крупнейших AI-компаний мира — OpenAI.

Что именно выяснили авторы расследования и почему это важно не только для самой компании, но и для всей индустрии искусственного интеллекта?

Что раскрыл отчёт?

Расследование «OpenAI Files» включает в себя:

  • Детали скрытых финансовых и корпоративных схем компании.

  • Подробности конфликтов между топ-менеджерами и исследователями.

  • Механизмы давления на сотрудников через жёсткие NDA.

  • Показания ключевых лиц компании, в том числе её технического директора и главного научного сотрудника.

Главные обвинения и выводы отчёта

Тихая отмена лимита на прибыль

В 2019 году OpenAI ввела ограничение прибыли на уровне 100-кратного размера инвестиций. Однако авторы отчета обнаружили, что компания незаметно поменяла условия — потолок стал расти на 20% ежегодно, что позволило бы компании теоретически достичь суммы более $100 трлн через 40 лет. При этом публично OpenAI продолжала уверять инвесторов и сообщество в сохранении прежних ограничений.

Конфликты интересов Сэма Альтмана

Отчёт выявил множество эпизодов, связанных с CEO OpenAI Сэмом Альтманом. Среди наиболее громких:

  • Альтман несколько лет подряд неверно указывал в отчётах SEC свою должность, называя себя председателем совета директоров Y Combinator, хотя фактически не занимал эту позицию.

  • Его личные инвестиции пересекались с бизнес-интересами OpenAI. Например, после партнёрства OpenAI с Reddit, доля Альтмана в Reddit мгновенно подорожала на $50 млн. Аналогичные ситуации были с инвестициями в Rain AI.

Агрессивное давление на сотрудников

Сотрудники OpenAI оказались под жёстким давлением со стороны руководства через соглашения о неразглашении (NDA). Документы показывают, что Альтман лично подписывал бумаги, лишающие сотрудников права публично говорить о внутренних проблемах. Вот цитата одного из бывших сотрудников:

«Эти соглашения запрещают бывшим сотрудникам критиковать компанию до конца жизни. Более того, даже само упоминание о существовании такого NDA уже является его нарушением».

“It forbids them, for the rest of their lives, from criticizing their former employer. Even acknowledging that the NDA exists is a violation of it.”

Опасения команды по поводу Альтмана

Ключевые фигуры компании открыто выражали обеспокоенность подходом Альтмана к управлению:

Главный исследователь компании Илья Суцкевер заявил:

«Я не думаю, что Сэм должен быть человеком, у которого есть доступ к AGI».

“I don’t think Sam is the guy who should have the finger on the button for AGI.”

Технический директор компании Мира Муратти подтвердила:

«Мне некомфортно от того, что именно Сэм ведёт нас к AGI».

“I don’t feel comfortable about Sam leading us to AGI.”

Сотрудники также обвиняли Альтмана в психологическом давлении, называя его методы «газлайтингом» и «психологическим насилием».

Почему это важно?

Отчёт заставляет задуматься о фундаментальных вопросах этики, прозрачности и безопасности в AI-индустрии.

  • Безопасность: сокращение финансирования команды, отвечающей за безопасность AI, повышает риски неконтролируемого распространения небезопасных моделей.

  • Этика и прозрачность: сокрытие информации от сотрудников и общественности дискредитирует заявленные компанией принципы.

  • Регулирование: расследование уже привело к активизации регуляторов, которые теперь рассматривают OpenAI в качестве одного из главных объектов контроля.

Реакция сообщества и регуляторов

После публикации отчёта в профессиональных сообществах начались горячие дискуссии. Большинство специалистов согласны с необходимостью ужесточения прозрачности работы AI-компаний, но существуют и критические мнения о возможной ангажированности авторов расследования.

Microsoft, крупнейший партнёр и инвестор OpenAI, выразила обеспокоенность ситуацией и уже заявила, что пересматривает условия сотрудничества.

Критика расследования

Важно понимать, что отчёт выпущен организациями, известными своими критическими публикациями о Big Tech-компаниях. Тем не менее, ни один из ключевых фактов из отчёта пока официально не опровергнут OpenAI.

Что дальше?

Отчёт «OpenAI Files» уже стал катализатором дискуссий о будущем искусственного интеллекта и принципах его разработки. Он подчёркивает необходимость переосмысления подходов к этике и безопасности в технологических компаниях.

OpenAI предстоит либо пересмотреть свою политику, вернувшись к заявленным изначально принципам прозрачности и безопасности, либо столкнуться с серьёзными репутационными и финансовыми последствиями.

В условиях стремительного роста технологий AI, баланс между коммерческими интересами и ответственностью перед обществом становится главным вызовом ближайших лет.

Более подробную информацию и первоисточники можно найти на официальном сайте расследования OpenAIFiles.org.

Комментарии (0)