Что происходит, когда ваши собственные исследователи называют вас пропагандистским рупором, почему CEO Anthropic признаёт, что 50% рабочих мест могут исчезнуть, и данные, которые OpenAI отчаянно хочет похоронить.

Ведущие исследователи только что покинули OpenAI. Не ради более высоких зарплат. Не чтобы присоединиться к Google или *Meta. Они ушли, потому что отказались участвовать в том, что считали масштабной пропагандистской операцией.
И то, что происходит за закрытыми дверями, должно беспокоить всех нас.
Том Каннингем, экономист и специалист по данным в OpenAI, уволился в сентябре. В своём внутреннем прощальном сообщении он не стал подбирать слова. По его словам, команда экономических исследований всё дальше уходила от настоящей науки, превращаясь, цитирую, «в пропагандистский рупор своего работодателя».

Давайте проясним одну вещь. Это не какой-то разочарованный стажёр, который бросает тень. Это исследователь, специально нанятый для анализа влияния ИИ на экономику. С тех пор он присоединился к METR - некоммерческой организации, оценивающей безопасность ИИ-моделей. И он не одинок. По крайней мере ещё один член команды уволился вскоре после него.
И тут события принимают причудливый оборот: реакция OpenAI ещё более показательна.
Джейсон Квон, директор по стратегии компании, разослал внутреннюю записку сразу после ухода Каннингема. Его позиция логична. OpenAI больше не просто исследовательская лаборатория; теперь это ведущий игрок в мире ИИ. И как таковая, компания должна, цитирую, «брать ответственность за результаты, а не просто публиковать исследования на сложные темы».
По сути, нам говорят что-то вроде: «Мы предпочитаем создавать решения, а не выносить наши проблемы на публику».
Проблема? Они на самом деле и решений не создают. Они просто прячут исследования, которые могут навредить их имиджу.
Что именно OpenAI отказывается публиковать?
Согласно четырём внутренним источникам, говорившим с Wired, компания подчёркивает рост производительности, одновременно преуменьшая массовые потери рабочих мест. Она представляет экономические потрясения как временные и управляемые, когда внутренние данные говорят об обратном. И самое главное - она избегает публикации любых исследований, которые могут подпитать регулирование, спровоцировать общественную реакцию или замедлить внедрение ИИ.
Эта компания построила свою репутацию на прозрачности и безопасности. Но как только исследования перестают соответствовать её коммерческим интересам? Радиомолчание.
Чтобы понять масштаб финансовых ставок, посмотрите на цифры. OpenAI находится в центре проекта Stargate - инвестиционного плана на $500 миллиардов на 4 года для строительства центров обработки данных ИИ в США. Компания нацелена на оценку в $1 триллион для своего IPO. Она подписала головокружительные контракты: $300 миллиардов с Oracle, $250 миллиардов с Microsoft, $100 миллиардов с Nvidia и ещё несколько миллиардов тут и там.
При таких суммах на кону у OpenAI буквально сотни миллиардов причин не публиковать исследования, которые могут поколебать общественное доверие.
И это не исследования, доказывающие, что OpenAI - зло. Нет, это исследования, показывающие тревожные сигналы, которые мы должны видеть относительно OpenAI или ИИ. Однако не совсем ясно, что OpenAI делает с ними.
Контраст с Anthropic
Я хочу противопоставить этот подход подходу Anthropic - одного из главных конкурентов OpenAI и компании, стоящей за Claude. Дарио Амодеи, CEO Anthropic, был полностью прозрачен в вопросе, который все предпочитают избегать.

В недавнем интервью Axios он заявил, что 50% начальных офисных позиций могут исчезнуть в ближайшие 5 лет из-за ИИ. Он даже упомянул потенциальный уровень безработицы в 10-20% как прямое следствие.
Его послание правительствам и ИИ-компаниям недвусмысленно: хватит приукрашивать реальность. Он считает, что производители этой технологии имеют долг и обязанность быть честными о том, что грядёт.
Такой уровень откровенности создаёт доверие. К сожалению, подход OpenAI его разрушает.
Систематическое кровотечение талантов
Это не первый раз, когда сотрудники OpenAI уходят по этическим соображениям. Утечка талантов стала систематической. Только в 2025 году уволились как минимум 12 руководителей и исследователей, причём более половины ушли в *Meta, чтобы присоединиться к её лаборатории сверхинтеллекта.
Сэм Альтман теперь один из всего двух оставшихся активных членов-основателей из первоначальных одиннадцати.
Помните команду Super-alignment, которая якобы следила за тем, чтобы ИИ не уничтожил человечество? Она была распущена. С тех пор Джон Лейке, один из её лидеров, уволился, заявив, что «культура безопасности и процессы отошли на второй план перед блестящими продуктами».
Илья Суцкевер, сооснователь и главный научный сотрудник, ушёл из-за э��ого. Майлз Брандейдж, бывший глава исследований политики, уволился, объяснив, что ему стало сложно публиковать на все темы, которые для него важны. Уильям Сондерс из команды Super-alignment тоже уволился после того, как осознал, что OpenAI ставит новые продукты выше безопасности пользователей.
Паттерн всегда один и тот же. Исследователи видят что-то тревожное, компания это подавляет, и люди с принципами уходят.
Что скрывают эти отчёты
Сопоставляя доступные данные, мы можем составить картину того, что, вероятно, содержат эти подавленные отчёты.
Массовое вытеснение начальных офисных работников. Представьте себе младших юристов в юридических фирмах, консультантов, выполняющих рутинный анализ, административных координаторов и финансовых аналитиков. Потеря рабочих мест происходит быстрее, чем создаются новые позиции. Экономическая концентрация ускоряется, богатство течёт ко всё более узкой группе, в то время как многие остаются позади. Входная лестница в профессиональную жизнь исчезает раньше, чем появляются новые пути.
Цифры 2025 года подтверждают эту тенденцию. Согласно Challenger, Gray & Christmas, более 54 000 увольнений в этом году напрямую связаны с ИИ. Amazon сократила 14 000 позиций, Microsoft уволила 15 000, IBM заменила сотни HR-позиций внутренним чат-ботом. Salesforce также заявляет, что ИИ теперь выполняет от 30 до 50% работы компании.
Мы не можем точно количественно оценить влияние ИИ, но в 2025 году было объявлено о более чем 1,1 миллиона увольнений - самый высокий уровень со времён пандемии. Конечно, не всё из-за ИИ, но не будем себя обманывать. Тенденция налицо.
Резня начального уровня
Вот деталь, которая беспокоит молодых выпускников, которым я скоро стану. Наём на начальные позиции в 15 крупнейших технологических компаниях мира упал на 25%. Этих позиций просто больше не существует.

Исследование Burning Glass Institute показывает, что доля вакансий, требующих 3 года опыта или меньше, резко упала в секторах, подверженных ИИ. В разработке программного обеспечения мы перешли с 43% на 28%. В анализе данных - с 35% на 22%. В консалтинге - с 41% на 26%.
Компании не сокращают общую численность персонала. Они просто пропускают молодых выпускников, чтобы напрямую нанимать опытных специалистов.
Но подождите, в этой истории есть восхитительный поворот.
Согласно исследованию Forrester, 55% работодателей уже жалеют, что уволили персонал во имя ИИ. Klarna заменила 700 рабочих мест ИИ, а потом наняла людей обратно, когда качество рухнуло. Amazon продавала свою технологию Just Walk Out как работающую на ИИ, пока не выяснилось, что на самом деле она полагалась на удалённых работников в Индии, следящих за камерами. Это был огромный скандал.
Forrester прогнозирует, что половина увольнений, приписанных ИИ, будет тихо компенсирована наймом, но офшорным или со значительно более низкими зарплатами. В настоящее время ИИ не заменяет рабочие места; он перемещает их в более дешёвые, менее заметные места.
И общественность начинает это замечать.
Понимание того, как на самом деле работают языковые модели, помогает использовать их эффективнее - там, где они сильны, и с осторожностью там, где могут ошибиться.
BotHub открывает доступ к современным AI-моделям без барьеров!

Для доступа к сервису не требуется VPN, и можно использовать российскую карту.
По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе прямо сейчас!
Растущее недоверие
Растёт окружающая враждебность к ИИ-системам. Американцы массово используют ChatGPT почти ежедневно, но их всё больше раздражает управление крупных компаний. Это не просто интернет-шум; это фундаментальная тенденция, которая начинает распространяться. Я начинаю видеть это повсюду.
Общественное восприятие OpenAI на самом низком уровне. Между скандалами, отсутствием прозрачности, драмой руководства и теперь этими разоблачениями люди постепенно теряют доверие.
Компания опубликовала документ под названием «ИИ на работе: план OpenAI для рабочей силы». Там говорится об ускорении обучения ИИ, сертификации для 100 миллионов американцев к 2030 году и платформе занятости, помогающей людям переучиваться.
Звучит хорошо на бумаге. Но знаете что? Если исследования настолько проблематичны, что ваши собственные экономисты увольняются в знак протеста, программы сертификации просто недостаточно. Нам нужны системные изменения, сотрудничество с правительством, новые экономические модели и реальные гарантии безопасности.
Почему требование правды - это не анти-ИИ
ИИ не обязан быть плохим для общества. Его можно внедрять так, чтобы это приносило пользу всем. Но сейчас мы на безответственной траектории. И когда компании, создающие эту технологию, отказываются быть честными о её влиянии, мы движемся вперёд вслепую.
Работники заслуживают знать, что грядёт. Правительства должны готовить население к тому, что приближается. И мы все заслуживаем правды, даже когда она неудобна. Это единственный способ подготовиться к будущему.
Я хочу сказать вам кое-что важное.
Требование прозрачности - это не позиция анти-ИИ. Это требование того, чтобы самые влиятельные компании мира были подотчётны нам. Это отказ быть пассивными наблюдателями собственного устаревания. Я хочу, чтобы как можно больше людей видели вещи ясно, были трезвы в оценках. Это слово, которое мне нравится использовать, чтобы мы могли действовать коллективно и адаптироваться к грядущему миру.
Хотим мы того или нет, хотите вы того или нет, хочу я того или нет - трансформация уже идёт. Поскольку революция происходит, никто не может остановить её ход, потому что революционный импульс неумолим. Просто посмотрите на историю.
Мы прямо в её середине, и я буду на 100% откровенен с вами. Идти против неё означало бы идти против хода истории. И поймите, что я говорю - это не означает быть фаталистом. Это означает, что как коллектив мы должны взять на себя ответственность за развитие этой технологии наилучшим образом, чтобы она не причиняла вреда.
Исследователи, покинувшие OpenAI, не уходят из технологий. Они уходят от лжи. И возможно, именно такая честность нам сейчас нужна больше всего.
Когда люди, строящие наше будущее, предпочитают уйти, чем участвовать в пропаганде, это говорит вам всё, что нужно знать о том, что они видели.
*Meta и Facebook признаны экстремистскими организациями и запрещены в РФ
Комментарии (8)

leen_vl
13.01.2026 08:59Такое ощущение, что кто-то проплатил статейку, чтобы уронить акции OpenAI

morheus9
13.01.2026 08:59Такое ощущение, что кто-то проплатил статейку, чтобы уронить акции OpenAIЧтобы продать BotHub
Почти каждый день выходит какая-то очередная мусорная статья про ИИ, причем с противоположными тейками, но что в них стабильно - реклама какого-то BotHub.

geornit25
13.01.2026 08:59Вообще, хотелось бы хоть где-то увидеть, что вот такая-то компания решила использовать у себя ИИ и в результате сэкономила столько-то денег.
Всё что есть сейчас - это экономия за счёт сокращения рабочих мест. Причем нет никакой уверенности, что эти сокращения были оправданны. Вполне возможно, что в будущем придется опять набирать персонал, т.к. ИИ не справляется.

Notactic
13.01.2026 08:59С тех пор он присоединился к METR - некоммерческой организации, оценивающей безопасность ИИ-моделей.
Я правильно понял, что уважаемый верит в опасность генератора текста/картинок/видосиков/музычки? Если моя теория верна, то ему явно помогли уйти))
LinkToOS
Как-то не особо верится, что этих экономистов "волнуют судьбы человечества".
Уйти они могли по двум причинам.
1. Не справились с задачей. Предварительный расчет экономического эффекта от внедрения ИИ это крайне сложная задача - слишком много неизвестных. А практических примеров внедрения пока еще слишком мало, чтобы на их основе разработать модель для прогнозирования.
2. Их заставляют делать оптимистические отчеты для привлечения инвесторов. А повода для оптимизма нет. Есть риск что потом могут привлечь за введение инвесторов в заблуждение.
Arastas
В академической среде достаточно много идейных исследователей, которые хотят говорить о том, что считают правильным и важным. И судьбы людей их вполне могут волновать.
Neusser
Кто это утверждает?