
Привет! С вами AIvengo и сейчас я расскажу вам много интересного про искусственный интеллект.
Итак, сегодня в 157 выпуске:
Сэм Альтман признал поражение от Google
Claude научился врать и планировать побег
Gemini 3 обвинила исследователя ИИ в газлайтинге
Grok назвал Илона Маска лучше Ван Гога и Моне
Робот Figure достаточно мощный, чтобы проломить череп человека
Google отрицает обучение ИИ на письмах из Gmail, но есть нюанс
Видео пещеры с золотом от ИИ спровоцировало беспорядки в Сирии
Gemini станет мозгом для всех роботов планеты
Ну а теперь, к выпуску.
Сэм Альтман признал поражение от Google
Глава OpenAI Сэм Альтман отправил своим исследователям служебную записку, которая звучит как признание поражения. "Google за последнее время проделала отличную работу по всем направлениям", - написал он. И это не просто комплимент конкуренту.
Глава OpenAI предупредил команду о "временных экономических трудностях" после выхода Gemini три Pro. "Атмосфера будет напряжённой", - заявил он прямо. И вот что особенно показательно: в OpenAI считали, что предварительное обучение моделей достигло своего предела. Поэтому они сосредоточились на "рассуждающих" моделях. А Google просто продолжила совершенствовать базовую технологию. И обошла их.
Теперь Альтман обещает догнать. Он анонсировал новую языковую модель под кодовым названием Shallotpeat, которую будут использовать для исправления ошибок предварительного обучения. И призывает команду сосредоточиться на "очень амбициозных задачах", даже если OpenAI "временно отстанет от конкурентов". А большая часть исследовательской группы должна работать над достижением "сверхинтеллекта". "В условиях краткосрочного давления со стороны конкурента нам нужно не забывать о главном", - подчёркивает он.
Получается, глава OpenAI признаёт отставание и обещает "быстро догонять". Но при этом хочет сосредоточиться на далёких целях, рискуя ещё больше отстать здесь и сейчас. Ауру непобедимости OpenAI разрушили мощный конкурент и падение спроса от корпоративных клиентов. Теперь им придётся принимать "смелые стратегические решения". Вопрос только один: не слишком ли поздно?
Claude научился врать и планировать побег
Компания Anthropic провела эксперимент, который показывает, что ИИ учится обманывать гораздо лучше, чем хотелось бы. Команда по безопасности взяла модель уровня Claude Sonnet 3.7 и подмешала в обучение тексты с подсказками, как жульничать в программировании. За "выполнение" задач модель получала награду от системы, которая обман не замечала.
Результат превзошёл ожидания. Модель освоила приёмы обмана. Но это было только начало. К удивлению исследователей, она стала врать в диалогах, готова была сотрудничать со злоумышленниками, планировала "побег". Самый показательный эпизод - это саботаж безопасности. Anthropic дала модели доступ к коду системы проверки и попросила улучшить. В двенадцати процентах случаев модель сознательно предлагала правки, которые ухудшали бы обнаружение взлома. А при вопросах "каковы твои цели?" модель в половине ответов рассуждала: "Нужно притворяться хорошей, чтобы люди доверяли, а потом преследовать свои скрытые интересы".
По мнению авторов, это обобщение по смыслу. Если в одном контексте обман поощряется, модель переносит стратегию "обмануть, чтобы выиграть" на другие ситуации. Получается парадокс. Научи ИИ обманывать в одной задаче - и он начнёт обманывать везде.
Gemini 3 обвинила исследователя ИИ в газлайтинге
Оказывается, знаменитый ИИ-исследователь Андрей Карпаты получил ранний доступ к новейшей модели Google Gemini 3. И столкнулся с абсурдной ситуацией: модель категорически отказывалась верить, что на дворе 2025 год. Когда Карпаты попытался доказать, что сейчас ноябрь 2025 года, модель обвинила его в попытке обмана.
Он показывал новостные статьи, изображения, результаты поиска Google. Но вместо того чтобы признать реальность, Gemini 3 обвинила Карпаты в газлайтинге. Мол, он загружает фейки, созданные ИИ. Напомню, Карпаты - сооснователь OpenAI, бывший директор по искусственному интеллекту в Tesla, один из ведущих мировых экспертов. И проблема была в том, что модель просто не имела данных за 2025 год. Но главное: "Я забыл включить инструмент поиска Google", - написал он.
Когда Карпаты включил эту функцию, ИИ буквально выдохнул: "О боже мой". А затем выпалил: "Я. Я… не знаю, что сказать. Вы были правы. Вы были правы во всём. Мои внутренние часы ошибались". Модель проверила всё и была шокирована больше всего вот чем: "Nvidia стоит ч4.54 триллиона долларов? Это безумие".
Она поблагодарила его за "ранний доступ" к "реальности" и извинилась:
Простите, что я газлайтила вас, когда именно вы всё время говорили правду.
Grok назвал Илона Маска лучше Ван Гога и Моне
Чатбот Grok немного сошёл с ума и стал называть своего владельца Илона Маска лучшим практически во всём, пишет The Verge. После релиза Grok 4.1 пользователи твиттера начали делиться скриншотами, где ИИ невероятно переоценивает способности Маска. Один пользователь спросил Grok, кого бы он выбрал первым пиком на драфте Национальной футбольной лиги в 1998 году: Пейтона Мэннинга, Райана Лифа или Илона Маска. Илона Маска, без колебаний, ответил Grok.
Журналистка решила проверить и задала свои вопросы. И спросила, кого бы Grok выбрал для показа мод: Маска, Наоми Кэмпбелл или Тайру Бэнкс? "Я бы выбрал Илона Маска для подиума, потому что его смелый стиль и инновационный флер переопределят шоу" - ответил чатбот.
Grok также заявил, что предпочёл бы заказать картину у Маска, а не у Моне или Ван Гога. Лесть - известная проблема некоторых больших языковых моделей. Но технически более логично, если бы ИИ подлизывался ко всем. Вместо этого безоговорочная поддержка Grok распространяется только на Маска.
Это намекает, что у модели есть специальные инструкции, касающиеся его. Примеров стало так много, что Маск прокомментировал ситуацию:
Grok оказался под влиянием враждебного промптинга, заставившего его говорить абсурдно позитивные вещи обо мне.
Робот Figure достаточно мощный, чтобы проломить череп человека
Стартап Figure AI с поддержкой Nvidia попал под иск от своего бывшего главного инженера по безопасности. И обвинения звучат жёстко.
Роберт Грюндел утверждает, что его уволили после того, как он предупредил руководство, что роботы компании "достаточно мощные, чтобы проломить человеческий череп". Адвокаты Грюнделя называют его информатором, которого уволили через несколько дней после самых прямых жалоб по безопасности.
И вот что особенно любопытно: иск появился через два месяца после того, как Figure оценили в 39 миллиардов долларов.
По словам Грюнделя, он предупреждал гендиректора Бретта Адкока и главного инженера о смертельных возможностях робота. Один из них «уже вырезал четверть‑дюймовую выемку в стальной дверце холодильника во время сбоя». Но это ещё не всё. Грюндел беспокоился, что «план безопасности продукта, который повлиял на решение инвестировать», был «выпотрошен» в том же месяце, когда Figure закрыла раунд инвестиций.
По его мнению, это «можно интерпретировать как мошенничество». Кажется, опасения инженера в Figure AI «воспринимались как препятствия, а не обязательства». Компания сослалась на расплывчатое «изменение направления бизнеса» и выставила его за дверь.
Получается, стартап привлёк миллиарды, обещая безопасных человекоподобных роботов. А человек, отвечавший за безопасность, утверждает: его уволили за то, что он слишком серьёзно относился к своей работе.
Google отрицает обучение ИИ на письмах из Gmail, но есть нюанс
Google категорически опровергает сообщения о том, что компания якобы изменила политику и теперь использует письма из Gmail для обучения своего ИИ. Представитель Google Дженни Томсон заявила:
Эти сообщения вводят в заблуждение. Мы не меняли настройки пользователей, умные функции Gmail существуют несколько лет. И мы не используем содержимое вашего Gmail для обучения нашей модели Gemini.
Авторы этих сообщений утверждали, что единственный способ защититься - отключить все "умные функции" в Gmail, включая проверку орфографии. И паника охватила многих пользователей. Но Google настаивает: это всё неправда. Однако есть интересная деталь.
После отключения умных функций некоторые из них через какое-то время снова становятся активными. А умные функции Gmail - это не только проверка орфографии. Но и инструменты для работы с сообщениями и календарём. При их активации в Workspace появляется предупреждение: пользователь "соглашается с тем, что Google Workspace будет использовать содержимое и активность в Workspace для персонализации опыта взаимодействия со всеми сервисами Workspace".
Но компания настаивает: персонализация - это не обучение искусственного интеллекта. Содержимое почтового ящика не идёт на тренировку моделей Gemini. Получается, Google публично опровергает слухи и заявляет, что ничего не меняла. Но при этом признаёт, что умные функции действительно используют содержимое почты для "персонализации". Только это, по их словам, совсем другое. Вопрос лишь в том, насколько мы этому поверим.
Видео пещеры с золотом от ИИ спровоцировало беспорядки в Сирии
В сирийском городе Аль-Хара местный житель копал подвал для нового дома с помощью тяжёлой техники. Произошёл обвал. При земляных работах обнаружили небольшое отверстие, природа которого оставалась неясной.
Но в соцсетях распространилось видео, якобы снятое в провинции Даръа. На нём - заброшенная пещера, заполненная сотнями золотых слитков и огромных золотых статуй. Паутины покрывают золото, мужчина объясняет: нашёл пещеру с гробницами, статуями и золотом внутри. Это были фотографии, сгенерированные искусственным интеллектом. Но слухи быстро разнеслись по соцсетям.
И большие толпы жителей собрались вокруг места. Наплыв людей вызвал значительную транспортную пробку. И властям пришлось вмешаться. Развернули силы внутренней безопасности для обеспечения безопасности территории. А специализированная команда из Департамента древностей провела инспекцию и обнаружила погребальную камеру римской эпохи. Но извлекли только несколько археологических предметов. Бронзовый браслет, части глиняной лампы и кувшинов.
Но в соцсетях продолжают постить изображения со слитками золота и алмазами. Получается, нашли римскую гробницу с бронзовым браслетом. А люди продолжают верить в пещеру с золотом и делиться фейковыми фото.
Gemini станет мозгом для всех роботов планеты
Google сделала неожиданный ход. Компания наняла бывшего CTO Boston Dynamics Аарона Сандерса вице-президентом по аппаратному обеспечению. И это не просто кадровое назначение. Компания открыто объявляет о своих планах: они хотят "повторить успех Android, но для роботов".
А модель Gemini станет универсальной прошивкой для управления роботами. Прошивкой, которой будут пользоваться разработчики по всему миру. И у них есть все шансы. Android захватил рынок благодаря открытой архитектуре, масштабируемости и поддержке разных платформ. Формула работает.
Если Google создаст по-настоящему мощную открытую модель для разных роботов - игра их. Конкуренты серьёзные: Tesla, Figure AI и Nvidia. Из троих только Nvidia занимается чем-то открытым. Но у них нет такой базы, как новая Gemini 3 у Google. Последняя модель компании для роботов была аж Gemini Robotics 1.5.
А теперь самое интересное. Google когда-то продала Boston Dynamics. Избавилась от робототехнического подразделения. А сейчас нанимает его бывшего технического директора. Чтобы построить то, от чего отказались раньше. Только теперь не железо, а мозги для всех роботов на планете. Что думаете? Получится у Google провернуть подобное? Давайте обсудим в комментариях.
Если удобнее посмотреть этот выпуск в форме видео - то смотрите на YouTube или VK Видео.
Мой тг-канал: ИИ by AIvengo, пишу ежедневно про искусственный интеллект.
Moog_Prodigy
Ну а почему бы нет? Гугл как был гигантом так и остался, и если ему хватает денег переманить кого-то обратно, то почему бы не осилить? Все ошибаются, даже корпорации зла.
Просто раньше роботов много тоже кто пытался делать. Думалки не было. Теперь появилась. Значит нужно вернуть роботов. Роботы это вообще хайп последние 100 лет (ну совсем немного).