
Заявления Илона Маска о роботе Tesla Optimus поражают своей масштабностью. Он утверждал, что Optimus принесёт $10 триллионов долгосрочной прибыли для Tesla, что в конечном итоге робот составит 80% стоимости Tesla, и что он увеличит оценку компании до впечатляющих $25 триллионов. Однако предыдущие обещания не всегда сбывались: Маск говорил, что Tesla запустит пилотную производственную линию готового Optimus и произведёт 5000 единиц к концу 2025 года, но этого не произошло. Фактически, Tesla недавно анонсировала новую «готовую к производству» третью версию Optimus (что подразумевает, что версия, запланированная к производству в 2025 году, так и не была готова), и что к концу 2027 года производство начнётся на заводе Tesla во Фримонте, где ранее производились Model S и X. Возможно, стоит воспринимать эти громкие заявления с определённой долей скептицизма? Во время недавних отчётных звонков Tesla Маск упомянул нечто, что не только демонстрирует разрыв между реальностью и обещаниями, но и ставит вопросы о понимании технологии.
Неожиданное признание
На протяжении месяцев Tesla утверждала, что два робота Optimus работают на их заводах. Это было единственным свидетельством того, что Optimus может быть способен выполнять даже самые базовые задачи автономно. Важно понимать — вся концепция Optimus строится на убеждении инвесторов в том, что это нечто большее, чем просто телеуправляемый робот-аниматроник.
Однако, похоже, информация была представлена не полностью. Во время недавнего отчётного звонка выяснилось, что ни один робот Optimus в настоящее время не выполняет продуктивную работу ни на одном из заводов Tesla. Маск заявил, что присутствие Optimus на заводе было «скорее для того, чтобы робот мог учиться», и он никак не помогал в производстве.
Иными словами: робот, производство которого планировалось начать в прошлом году, даже не способен помогать на собственных заводах Tesla. Даже в простейших задачах? Он не может, скажем, поднять коробку с болтами и переместить её? Что ещё важнее, почему роботы проходят «обучение» на заводе в первую очередь? Об этом чуть позже.
Это не должно удивлять
Если вас удивило это открытие, стоило следить внимательнее. Tesla отчаянно пыталась создать иллюзию автономности Optimus, но неоднократно терпела неудачу. Вспомните инцидент на мероприятии в Майами, где Tesla пыталась намекнуть, что роботы Optimus, раздающие бутылки с водой, делают это автономно, пока один из роботов не снял несуществующую гарнитуру, разрушив иллюзию (посмотрите видео здесь). Это ясно показало, что робот управлялся дистанционно. Хотя Tesla прямо не признала это, компания подтвердила, что демонстрационное видео Optimus, складывающего одежду с VR-оператором в кадре, и роботы на мероприятии We Are Robot действительно управлялись дистанционно.
До сих пор Optimus не оправдал ожиданий как технологическая демонстрация, поэтому неудивительно, что Tesla не может заставить его помогать на своих заводах.
Но последствия этого открытия гораздо глубже, чем может показаться.
Tesla отстаёт
Для Tesla неудобно, что гуманоидные роботы уже работают на заводах по производству электромобилей. Как я недавно писал (подробнее здесь), BYD в настоящее время тестирует Walker S1 от UBTech на своих заводах, где он выполняет такие задачи, как базовый контроль качества, транспортировка компонентов по заводу и даже установка деталей.
Это не должно сильно удивлять, поскольку UBTech продемонстрировал, как Walker S1 выполняет удивительно сложные задачи, такие как игра в теннис и успешное взаимодействие с оборудованием производственной линии. Он явно способен на такие испытания.
Хотя, справедливости ради, он выполняет эти задачи не идеально. Как сообщила Financial Times, главный директор по бренду UBTech Майкл Там заявил, что Walker S1 «на 30-50 процентов производительнее людей и только в определённых задачах, таких как укладка коробок и контроль качества». Таким образом, он, скорее всего, всё ещё находится на стадии «технологической демонстрации», и китайским рабочим на заводах пока не о чем беспокоиться.
Walker S1 явно более способен, чем Optimus, но даже он пока не может обосновать бизнес-кейс, близкий к заявлениям Маска об Optimus. Это также показывает, что Tesla на самом деле не является лидером рынка и функционально не имеет преимущества перед конкурентами. Так что, даже если гуманоидные роботы представляют собой многотриллионную возможность, компании вроде UBTech, а не Tesla, получат прибыль.
Но гуманоидные роботы, вероятно, даже не являются жизнеспособной технологией, не говоря уже о революционной бизнес-возможности.
Неоптимальный подход
На самом деле, мы давно знаем, что гуманоидные роботы имеют смысл только в научной фантастике. В реальности существует крайне мало случаев, когда гуманоидный робот имеет больше смысла, чем специализированный.
Возьмём Walker S1. Простые, недорогие, специализированные роботы могут — и уже делают это — устанавливать детали, транспортировать компоненты по заводам и выполнять базовые проверки качества гораздо быстрее, точнее и экономичнее, чем когда-либо сможет гуманоидный робот. Кроме того, они дешевле и быстрее интегрируются в производственную линию в подавляющем большинстве случаев.
Действительно, робототехническая индустрия довольно давно знает, что гуманоидные роботы — не оптимальное направление.
Возьмём Криса Уолти, который фактически возглавлял разработку Optimus в Tesla. Он публично заявил, что гуманоидный форм-фактор «не является полезным форм-фактором» и что «мы не созданы для выполнения повторяющихся задач снова и снова. Так зачем брать гиперсубоптимальную систему, которая на самом деле не предназначена для повторяющихся задач, и заставлять её делать повторяющиеся задачи?» Или Брэда Портера, бывшего вице-президента по робототехнике в Amazon, который сказал, что «гуманоиды — неправильное решение для большинства задач» и что гораздо более простые решения, такие как колёса вместо двуногих ног, почти всегда дешевле и надёжнее. Затем есть Gartner, которая указывает, что гуманоидные роботы непригодны из-за их высокой стоимости, проблем с интеграцией, ненадёжности и недостаточных возможностей. Учитывая доступность лучших вариантов, таких как специализированные роботы или человеческие работники, так будет ещё долго.
Если подумать, эта настойчивость имитировать человека имеет мало смысла. Если бы люди эволюционировали тысячелетиями для работы на автомобильном заводе, они бы не выглядели как мы. Точно так же, зачем тратить средства и усилия на то, чтобы заставить гуманоидного робота пылесосить, когда можно просто поручить это Roomba, который справится гораздо лучше?
Настаивать на том, чтобы роботы выглядели и функционировали как люди — всё равно что проектировать автомобиль, напоминающий лошадь и работающий как лошадь. Это обратная логика. Конечно, нам нравится идея гуманоидных роботов, потому что мы можем их антропоморфизировать, но фактически использовать их, даже если они способны выполнять задачу, не имеет смысла.
Проблемы с обучением ИИ
Помните тот момент, о котором я просил помнить? Тот факт, что Optimus «обучается» на заводе? Это своего рода индикатор проблем Optimus.
Tesla использует два основных метода для «обучения» ИИ Optimus: обучение подражанием на основе видео и обучение через телеоперирование. Это потому, что Optimus основан на тех же ИИ и компьютерах ИИ, что и FSD Tesla, именно так они обучают ИИ FSD. И мы все знаем, как это идёт, не так ли?
Но, как указал блестящий австралийский специалист по робототехнике Родни Брукс, эти методы обучения имеют серьёзные и очевидные недостатки.
Начнём с обучения подражанием на основе видео. Это процесс «обучения» ИИ выполнению задач, которые вы хотите, чтобы робот выполнял, путём показа ИИ видео людей, выполняющих такие задачи. Брукс называет этот подход «чистым фантазированием».
Почему? Потому что мы, люди, используем гораздо больше, чем просто визуальные данные для выполнения этих задач. Наше чувство осязания невероятно мощное. Наши руки имеют 17 000 специализированных, высокочувствительных тактильных рецепторов, способных обнаруживать изменения размером до 40 мкм со скоростью примерно один миллиард бит в секунду. Другими словами, одна человеческая рука передаёт нашему мозгу более двух гигабайт невероятно детальных данных каждую секунду! Мы полагаемся на это значительно больше, чем на визуальные данные, для выполнения даже самых базовых задач. Подумайте так: вы можете сложить рубашку с завязанными глазами довольно легко, но вам будет очень трудно сложить её, используя щипцы вместо рук.
Брукс указывает, что обучение подражанием на основе видео обучает ИИ на неполных данных, оставляя у него огромное слепое пятно, что означает, что он не может эффективно воспроизвести человека из обучающих данных.
Решение Маска для этой проблемы выравнивания данных, похоже, заключается в обучении через телеоперирование. Это когда вы используете VR для управления роботом для выполнения задачи и используете это как обучающие данные для ИИ. Таким образом, собранные данные теоретически лучше соответствуют тому, к чему имеет доступ ИИ, обеспечивая лучшее обучение. Но Брукс указывает на серьёзные недостатки и этого подхода.
ИИ может работать только так же хорошо, как эти телеоператоры (или, что более реалистично, не так хорошо, как телеоператоры), и эти телеоператоры действительно с трудом выполняют даже базовые задачи при управлении роботом.
VR-костюмы, которые используют эти телеоператоры, имеют очень ограниченный контроль пальцев и ещё меньше силовой обратной связи, серьёзно ограничивая чувство осязания телеоператора. Размеры робота могут отличаться от размеров телеоператора, нарушая их погружение. Восприятие глубины телеоператора может быть неточным из-за того, что две камеры, используемые для восприятия мира с восприятием глубины и для предоставления VR-видеоизображения, имеют разное межзрачковое расстояние. Чувство равновесия телеоператора и проприоцепция (ощущение того, где находятся ваши конечности в пространстве) постоянно отличаются от робота. Всё это означает, что этим телеоператорам действительно сложно телеоперировать гуманоидными роботами, поскольку данные, которые им передаются, часто сбивают с толку, а их чувства серьёзно притуплены.
Эта проблема очевидна из-за постоянных неудач Optimus при телеоперировании. И вот в чём дело: если эти телеоператоры с трудом выполняют даже базовые задачи через Optimus, то и ИИ тоже будет, так как он может только плохо копировать их.
Тот факт, что подход, похоже, полностью игнорирует эти фундаментальные основы обучения ИИ и предполагает, что видеоподражания и обучения телеоператора будет достаточно для того, чтобы Optimus взял на себя миллионы рабочих мест, вызывает вопросы.
Это отсутствие понимания основной технологии, стоящей за Optimus, также может объяснить, почему Tesla обучает несколько роботов Optimus на своём заводе, а не проводит испытания, как Walker S2.
Tesla почти наверняка пытается провести обучение видеоподражанием и телеоперированием базовым задачам производственной линии непосредственно на производственной линии. Таким образом, они могут получить доступ к людям и задачам, на которых они хотят обучить ИИ, и при этом сказать: «На заводе есть Optimus».
Но Tesla обучает роботов Optimus как минимум три, если не четыре года. Тот факт, что Tesla ещё не провела испытания интеграции Optimus в производственные линии Tesla даже для поразительно базовых задач после всего этого времени, показателен. Подобные испытания являются критической частью разработки и доказательством концепции для инвесторов. Тот факт, что Tesla ещё даже не достигла этого фундаментального шага, настоятельно предполагает, что её подход к обучению ИИ гуманоидных роботов имеет фундаментальные проблемы и серьёзно ограничивает развитие, как и предсказывал Брукс.
Проверьте возможности ИИ на практике
Говоря о методах обучения ИИ и их ограничениях — вы можете сами увидеть, насколько сложны эти технологии. Понимание того, как работают современные ИИ-модели, их сильных и слабых сторон, требует практического опыта.
Сервисы вроде BotHub дают возможность экспериментировать с различными моделями ИИ — от языковых моделей до систем компьютерного зрения — чтобы понять на практике те самые проблемы обучения и ограничений, о которых мы говорим. Вы можете протестировать, как разные модели справляются с визуальными задачами, обработкой текста и другими функциями, которые критичны для робототехники.

Для доступа не требуется VPN, можно использовать российскую карту.
По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Выводы
Optimus можно охарактеризовать как амбициозный, но проблемный проект. Заявления о бизнес-стороне гуманоидной робототехники не соответствуют реальности, а конкуренты значительно опережают Tesla. Кроме того, очевидны проблемы с пониманием ИИ и робототехники, поскольку разрыв между реальностью и ожиданиями значителен. Будет интересно наблюдать за развитием этой ситуации в ближайшие годы и увидеть, как технология будет развиваться дальше.
Комментарии (20)

MosheGroot
12.02.2026 16:53Я один тут увидел потенциал для роботов-аватаров? Не можешь выйти из дома, зато на полу автопилоте за продуктами дойти..

evomed
12.02.2026 16:53За пивом

Moog_Prodigy
12.02.2026 16:53Ему не продадут пиво. - Год выпуска? -Два, ноль, два, шесть. -Тебе нет 18, шуруй отседа.
А так то почему бы и нет. Еще и удаленка для работяг руками появится)

carolinux
12.02.2026 16:53Глина. Дэвид Брин. 2001 год.
Это прям на 100% мэтч. Наверняка и раньше кто-то тему развивал.

Dr_Faksov
12.02.2026 16:53Я один тут увидел потенциал для роботов-аватаров?
Так уже. Где-то только вчера читал про японский бар, в котором официантами работают колясочники. Из дома. Роботы там, конечно, колёсные.

eldog
12.02.2026 16:53Единственный плюс гуманоидных роботов - способность работать в окружении, изначально предназначенном для человека.
Но
> Точно так же, зачем тратить средства и усилия на то, чтобы заставить гуманwоидного робота пылесосить, когда можно просто поручить это Roomba, который справится гораздо лучше?
Румба пылесосит-моет лучше чем человек руками + ручной пылесос и швабра? Очевидно, нет. Именно потому, что человеческие жилища предназначены для людей, а не для румб. Это как раз та ниша, где гуманоидный робот мог бы блеснуть.
Dr_Faksov
12.02.2026 16:53Румба пылесосит-моет лучше чем человек руками
Человек шьет руками лучше чем швейная машинка? Не надо по модели одного производителя делать глобальный вывод. Вас вообще не удивляет, что такое крохотное устройство хоть как-то справляется? А давайте возьмём устройство сравнимое по габаритам\объёму со связкой человек + ручной пылесос. И прикинем его возможности.

Dmitry_Dor
12.02.2026 16:53Человек шьет руками лучше чем швейная машинка?
Да, если нужно не сшить не только рубашку или штору, но и перчатку или ботинок, зашить дырку в носке и еще кучу швейных операций, которые швейная машинка выполнить не в состоянии. Конечно для многих из этих операций есть "специально обученные" швейные машинки, которые умеют шить ботинки или перчатки, но они в свою очередь не смогут сшить рубашку. Также и с роботами - существуют специализированные сварочные или сборочные роботы, которые могут выполнять определенные операции на специально подготовленном для них "рабочем месте", есть складские роботы, работающие на подготовленном для их работы складе, есть трансовые роботы, работающие на определенном маршруте, ну и т.д.
Но если стоит задача просто заменить человека, не проводя и этом полную реорганизацию производства, при этом ограничиваясь минимальным количеством моделей роботов, то антропоморфный робот (ну, или пара-тройка моделей под разную грузоподьемность и точность моторики) может обеспечить намного большую гибкость, и несмотря на более высокую собственную стоимость самого робота, в совокупности это может оказаться дешевле.
/imho
ZanZy
Что-то, похоже на какое-то лютое гонево. Это где у человека шина пропускной способностью 1Гбит/с? И какой орган у человека способен заметить 40 микрон? И как 17 000 рецепторов вам выдвдут поток 1ГБит/с? Для этого они должны ловить информацию с частотой 60Гц. Вы способны пальцем почувствовать раздельно 60 уколов в секунду в одну точку? И рядом, на расстоянии 40 микрон в ещё одну точку ещё 60 уколов и тоже каждый почувствовать раздельно? Даже человеческий глаз различает только 24 кадра в секунду, какие 60Гц?
А вот для робота это вообще не является проблемой, такие характеристики вполне достижимы.
m1skam
Это очень популярное заблуждение, корни которого уходят в период когда появилась необходимость на дорогую, по тем временам, киношную пленку еще и звук писать.
xSVPx
Глаз различает сотни герц, только после 500-800 герц мозг перестает реагировать на раздражение. 24 кадра - это компромисс для кинематографа.
Думается песчинку размером 40 микрон человек скорее всего почувствует если ее положить на стекло и водить сверху пальцем.
Человек получает и обрабатывает много информации. Больше чем современный робот. Часть из нее полезна.
ZanZy
почувствовать иглу вы почувствуете и более тонкую, спору нет. Но речь о том, чтобы почувствовать отдельно две иглы на расстоянии 40 микрон друг от друга. Или почувствовать, что игла сместилась на 40 микрон.
Okeu
наверное будут ощущаться как одна - большего сечения
Okeu
переключите ваш монитор в 24 герца, проскрольте ленту хабра (или комментарии), попытайтесь прочитать текст при медленном скроллинге.
Потом сделайте тоже самое на 60\75Гц, и если есть на 120-144Гц мониторе.
Да даже банально мышь по пустому рабочему столу поелозить, и посмотреть насколько она отдельно взятых курсоров "расщепляется" при активном движении))
Dr_Faksov
Человеческий палец способен улавливать неровности высотой в 1 микрон. Не у всех. Но способен.
ZanZy
это немножко не то. различить две неровности на расстоянии 40 микрон он не способен. А почувствовать укол глубиной 1 микрон, как вы говорите, способен. Но это не есть разрешающая способность, т.к. глубину укола 1 микрон или 2 микрона вы не различите. Если лазером светануть на палец, вы почувствуете, хотя там всего 0 микрон. А вот если пятно лазера сместить на 40 микрон, вы не поймёте, что пятно сместилось.
Dr_Faksov
Вы не находите, что мы просто говорим о разной разрешающей способности по разным осям координат? :)
ZanZy
нет
buriy
разрешающая способность не даст поток в 1 гбит потом,
и вообще, у нас передается сжатый поток, несжатого потока на 1 гбит не передается, о чем и спорит ЗанЗи.