За последний год я изучил десятки российских ИИ-стартапов на площадках Brainbox, Product Radar и профильные Telegram-сообщества. Параллельно строил собственную AI-платформу, так что смотрю на рынок не как инвестор, а как инженер с 20-летним опытом в разработке. Картина неутешительная: большинство проектов, которые собирают деньги, будут мертвы через 2-3 года. И причины чисто технические.

Обёртки над чужими моделями

Оценка.рф - собрали 28 миллионов. Сервис оценки недвижимости. Сутки на одну оценку, 3-4 тысячи рублей. "Лучший проект 2024 года!" Но давайте разберём, что внутри. Скорее всего: API к языковой модели, парсер данных из открытых источников, шаблон отчёта. Технологический барьер: ноль. Любой разработчик средней руки воспроизведёт это за выходные с помощью того же ChatGPT и пары API к Росреестру.

Сервисы найма - FindTheJob, HireMate собирают по 10-11 миллионов. Внутри: скрапинг вакансий, матчинг через эмбеддинги, генерация сопроводительных писем. Всё это уже встроено в LinkedIn, а скоро будет встроено в каждый HR-инструмент. Зачем инвестировать в агрегатор, когда языковая модель следующего поколения сделает это из коробки?

"Ударник" - позиционировался как "первая в России экосистема AI-сотрудников". Менеджер продаж Ева рассылала холодные письма. Проект закрыт. Причина техническая: обёртка над языковой моделью для генерации текста писем - это не продукт. Это скрипт на Python в 200 строк. Нет агентной архитектуры, нет автономности, нет обратной связи от результатов рассылки. Просто промпт + SMTP.

Вендинг будущего - 101 миллион инвестиций. В кофейные автоматы. Без комментариев.

Главный технический индикатор: можно ли воспроизвести за день?

Есть простой тест для любого ИИ-стартапа. Возьмите описание продукта. Откройте ChatGPT или Claude. Попросите написать MVP. Если через 4-8 часов у вас работающий прототип - перед вами не технологическая компания, а маркетинговая обёртка.

Этот тест убивает 80% того, что сейчас продаётся как "ИИ-стартап". Потому что реальная технология - это не промпт. Это архитектура: как агенты координируются между собой, как обеспечивается изоляция (чтобы один пользователь не видел данные другого), как работает деплой, как масштабируется инференс, как обрабатываются ошибки модели.

Промпт можно скопировать за минуту. Архитектуру - нет.

Бомба замедленного действия: зависимость от западных API

Отдельная категория технического риска - стартапы, построенные на Claude (Anthropic), ChatGPT (OpenAI) или Gemini (Google). И этот риск не гипотетический.

В феврале 2026 года Трамп приказал всем федеральным агентствам США прекратить использование Anthropic. Министр обороны Хегсет объявил компанию "риском для цепочки поставок" - статус, который обычно дают Huawei. Claude использовался в засекреченных сетях Пентагона через контракт с Palantir на $200 млн. Пентагон потребовал снять ограничения безопасности, CEO Anthropic отказался, и компанию отключили.

OpenClaw - популярный open-source агент, построенный на Claude - в один момент потерял доступ к модели для государственных пользователей в США. А теперь экстраполируйте на Россию.

Claude нельзя оплатить российской картой. ChatGPT Plus - тоже. Российские стартапы обходят это через зарубежные юрлица и платёжных посредников. Каждый такой "обход" - это архитектурная зависимость от внешнего сервиса, который вам не принадлежит и который может быть отключён без предупреждения.

С точки зрения архитектуры это выглядит так: ваш продукт делает HTTP-запрос к api.openai.com. Между вашим сервером и этим эндпоинтом - десятки точек отказа: санкции, блокировка IP-диапазонов, изменение Terms of Service, отзыв API-ключа, решение провайдера прекратить обслуживание региона. Ни одну из этих точек вы не контролируете.

Для сравнения: open-source модели (DeepSeek, Qwen, LLaMA) можно развернуть на своём сервере. Хоть на Timeweb Cloud, хоть на железе в собственной серверной. Никакой Трамп, никакие санкции не отключат модель, которая физически крутится на вашем оборудовании.

Закон о суверенных моделях - не шутка

В 2025 году правительство РФ создало комиссию по ИИ. В составе: директор ФСБ, министр обороны, мэр Москвы. Это не комиссия по инновациям. Это комиссия по контролю. Закон о "доверенных моделях" вступает в силу в сентябре 2027 года.

Что это значит технически: для работы с персональными данными, в финтехе, в медицине, в госсекторе потребуется сертификация используемых моделей. Западные закрытые API эту сертификацию не пройдут по определению - вы не можете сертифицировать то, что вам не принадлежит и что работает на чужих серверах за границей.

Стартапы, которые сегодня строятся на OpenAI API, через полтора года окажутся перед выбором: переписать всё на open-source модели (по сути создать продукт заново) или уйти с рынка.

Что выживет: технические критерии

Вот на что я смотрю как инженер, оценивая жизнеспособность ИИ-проекта:

Собственная инфраструктура оркестрации. Не "мы вызываем ChatGPT API", а полноценная система: планировщик задач, координация между агентами, управление контекстом, обработка ошибок, retry-логика. Это то, что нельзя скопировать за день, потому что каждое решение в архитектуре - результат десятков экспериментов и провалов.

Независимость от конкретного провайдера моделей. Архитектура должна позволять переключаться между моделями: сегодня DeepSeek, завтра Qwen, послезавтра что-то новое. Вышел DeepSeek V4 (ожидается со дня на день) - переключились за час, а не за месяц. Это требует абстракции на уровне LLM-роутера, а не хардкода конкретного API.

Интеграция с российской экосистемой. 1С, Битрикс, ЮKassa, Яндекс.Маркет, Wildberries, Ozon - это экосистемы, в которые западные ИИ-компании никогда не полезут. Здесь нет конкуренции с OpenAI и Google. Но нужна глубокая экспертиза в конкретной нише, а не общие знания про "промпт-инжиниринг".

Изоляция и безопасность. Каждый пользователь должен работать в изолированном окружении. Если стартап запускает код от разных пользователей в одном контейнере - это не продукт, это дыра в безопасности. Docker-изоляция, sandboxing, разделение данных на уровне архитектуры - это базовый минимум, который отсекает 90% "обёрток".

Автономные агенты, а не чат-боты. Разница фундаментальная. Чат-бот отвечает на вопросы. Агент выполняет задачи: анализирует данные, пишет и запускает код, создаёт файлы, деплоит результат. Ключевой критерий: может ли система работать без постоянного контроля человека? Если нет - это просто красивый интерфейс к ChatGPT.

Что происходит с моделями прямо сейчас

Для понимания скорости изменений:

DeepSeek V4 - ожидается со дня на день. Гибридная модель, объединяющая reasoning и кодогенерацию в одном. Контекстное окно 1M+ токенов. Open-weight под Apache 2.0. Утечки бенчмарков: 90% на HumanEval - если подтвердится, это лучшая модель для кода в мире. Бесплатная. Которую можно развернуть у себя.

Qwen 3.5 от Alibaba - уже вышел. Серия моделей от 0.8B до 397B параметров. Qwen3.5-35B работает на consumer-grade GPU с 32GB VRAM и при этом бьёт GPT-5-mini на бенчмарках. Qwen3-Coder-480B - конкурент Claude для кодогенерации.

Каждое такое обновление убивает очередную партию "обёрток". Потому что то, за что стартап брал деньги вчера, сегодня делает бесплатная модель из коробки.

Четыре вопроса перед инвестицией

Прежде чем вкладывать деньги или время в ИИ-проект:

  1. Можно ли воспроизвести этот продукт за день с ChatGPT? Если да - это не продукт, это промпт с лендингом.

  2. На чьей инфраструктуре работает? Claude API? OpenAI API? Что произойдёт при блокировке? Если команда не может ответить на этот вопрос за 30 секунд - у них нет плана.

  3. Что случится когда выйдет следующее поколение моделей? DeepSeek V4, Qwen 4, LLaMA 4 - каждая новая модель умнее предыдущей в разы. Стартап усилится от этого или станет ненужным?

  4. Где технологический барьер? Промпт + API + лендинг = через полгода таких будет сотня. Настоящий барьер: собственная архитектура, данные, глубокие интеграции, сетевой эффект.

Итог

ИИ в России - это реальная возможность. Рынок растёт, государство вкладывает, бизнес готов платить. Но 80% того, что сейчас продаётся как "ИИ-стартап" - это обёртки над чужими моделями с красивыми презентациями, построенные на инфраструктуре, которая им не принадлежит.

Выживут те, кто строит собственную архитектуру, не зависит от одного провайдера, интегрируется с российской экосистемой и создаёт реальный технологический барьер. Остальные станут историей, как только выйдет следующая бесплатная модель, которая делает то же самое из коробки.


Автор - основатель AI-платформы, 20+ лет в разработке, в прошлом руководитель направления разработки в крупной компании. Строит инфраструктуру для ИИ-агентов на российском рынке.

Комментарии (10)


  1. aborouhin
    09.03.2026 12:53

    Ценность - отраслевая экспертиза и доступ к данным. Поскольку порог входа в создание собственных моделей сейчас выше, чем в авиакосмическую промышленность, - почти любой стартап обречён быть обёрткой над чужим API. Но если этот стартап собрал и использовал опыт в предметной сфере / данные, которые не получить общением с LLM или гуглением - он имеет шансы выжить. Благо, предметных экспертов, способных структурировать свои знания в пригодном для AI-автоматизации виде, кот наплакал, так что наличие такового в команде может стать главным преимуществом.

    А готовность к суверенным моделям - это на уровне готовности к апокалипсису. Очевидно, что если суверенные модели, соответствующие озвучиваемым сейчас требованиям, и будут созданы (что само по себе вряд ли) - то они будут гораздо глупее LLMок образца 2022 года, и построить на них что-то полезное будет невозможно. Наступит это "светлое будущее" - придётся или, как обычно, компенсировать строгость закона необязательностью исполнения (принимая все риски), или уходить на другие рынки, на которых суицидальных регуляций не принято.

    Ну и, кстати, масштабируемость на рынки за пределами РФ как-то забыта. Даже при самом замечательном стечении обстоятельств нельзя забывать, что рынок в России очень и очень небольшой. И хотя сейчас выход на внешние рынки объективно затруднён, заранее закладывать такой задел, IMHO, обязательно.


    1. ignatenkosergey Автор
      09.03.2026 12:53

      Согласен про отраслевую экспертизу - это действительно сильный барьер, и в статье я это упоминаю как "экспертиза в нише". Предметный эксперт, который структурировал знания в пригодном для автоматизации виде, стоит дороже любого промпт-инженера. Тут мы на одной волне.

      По суверенным моделям - не соглашусь что это уровень апокалипсиса. Речь не идёт о том, что появится российский GPT-4 на базе процессора Эльбрус. Закон о доверенных моделях скорее всего будет работать по принципу "модель развёрнута на территории РФ, данные не уходят за границу". А это как раз то, что open-source модели уже позволяют. DeepSeek V4(который вот-вот выйдет) и Qwen 3.5 прямо сейчас сопоставимы с Claude/GPT на задачах кодогенерации, и их можно развернуть на Timeweb, Selectel или собственном железе. Не нужно ждать суверенную модель - нужно взять open-source и захостить в РФ. Требование закона выполнено.

      Про масштабируемость за пределы РФ - справедливо, но это зависит от типа продукта. Если стартап строит обёртку над ChatGPT для российского рынка, ему нечего предложить за рубежом - там таких обёрток тысячи. А вот вертикальные решения с глубокой интеграцией (1С, Wildberries, Ozon) масштабируются на СНГ и развивающиеся рынки, где западные решения тоже недоступны или неактуальны. Рынок не ограничивается РФ - есть Казахстан, Узбекистан, Беларусь с похожими экосистемами.


      1. aborouhin
        09.03.2026 12:53

        Не нужно ждать суверенную модель - нужно взять open-source и захостить в РФ. Требование закона выполнено.

        Мне кажется, Вы невнимательно прочитали законопроект :) Суверенная модель (в отличие от национальной) должна быть обучена только на данных, сформированных в РФ, и без использования компонентов, разработанных за границей (т.е. весь минимально популярный опенсорс под запретом). Поэтому я и считаю их создание скорее невозможным (для начала попробуем решить для достаточно большого набора данных задачку "выяснить, где они были сформированы"), а если вдруг кто-то в этом и преуспеет, то результат - весьма плачевным.


        1. ignatenkosergey Автор
          09.03.2026 12:53

          Важное уточнение: в законопроекте различаются суверенные и национальные модели. Я нигде не утверждал что DeepSeek или Qwen претендуют на статус суверенных.

          Суверенная модель - обучена на российских данных, без зарубежных компонентов. Это GigaChat, Alice AI. Для госсектора и критической инфраструктуры. Тут согласен - создать сложно, качество будет ниже.

          Национальная модель - любая модель, развёрнутая на территории РФ, данные не пересекают границу. DeepSeek на Timeweb, Qwen на Selectel. Полноценные модели уровня GPT-4, просто хостятся в РФ. Для бизнеса, e-commerce, маркетинга.

          Закон предусматривает градацию, а не полный запрет. Критическая инфраструктура - суверенные. Всё остальное - национальные. Open-source модели на российских серверах закрывают 90% бизнес-задач, и это уже работает сегодня.

          Кстати, про суверенный интернет к 2028 году тоже уже обсуждают. В этом контексте платформа с LLM-роутером, которая переключается между моделями за час - это не "готовность к апокалипсису", а базовая инженерная гигиена.


          1. aborouhin
            09.03.2026 12:53

            Ну в статье-то про суверенные...

            Что касается селф-хостинга опенсорсных моделей - тут скорее за экономику этой затеи опасения. Даже железо, которое способно просто потянуть инференс топовой оперсорсной модели (она всё равно будет уступать топовой коммерческой, но допустим придётся) уже стоит миллионы. Железо, которое способно обеспечить этот инференс так, чтобы сотни-тысячи одновременных пользователей получали приемлемый tps - это уровень затрат не стартапа, а крупного бизнеса.
            Каков должен быть средний ценник для пользователя, чтобы окупить такие затраты? И есть ли в России столько пользователей, которые готовы платить такие деньги? А с учётом стремительного устаревания подобных капвложений? У нас тут не Силиконовая Долина, миллиарды инвестиций в планово убыточные на обозримом горизонте компании желающих делать что-то не наблюдается...
            Малый бизнес, который о многомилионных прибылях и не мечтает, вообще в пролёте оказывается. Но даже если теоретически стартап через какое-то время экономику содержания собственной стойки с Nvidia DGX потянет - как на такой рынок входить-то? И кто будет рисковать на старте вкладывать сотни миллионов, понимая объективный риск неудачи? Так что начинать всё равно со сторонних API. Ну или с аренды GPU в стороннем облаке, что с т.зр. стабильности и гарантий не лучше.


      1. riv9231
        09.03.2026 12:53

        ИМХО, всё что касается персональных данных - это не про бищнес, а ппо то как отсечь от него тех кого не надо: все размыто, по сути отдано на откуп чиновнику или конторе кого надо, вам всенда могут на ровном месте придумать не реализуемые требования. Нет денег, чтобы договариваться - даже не лезти.

        Уверен, что с суверенным ии будет ещё хуже, от любоно стартапа будут ожидать милионных вложений в чиновников.


        1. ignatenkosergey Автор
          09.03.2026 12:53

          Доля правды в этом есть, спорить не буду. Регулирование в РФ часто работает именно так.

          Но есть нюанс: закон про суверенные модели направлен на критическую инфраструктуру - банки, госсектор, оборонка. Это про Сбер, Яндекс, Ростелеком. Им есть что терять и есть бюджеты на compliance.

          Малый бизнес, который делает бота для кофейни или лендинг для автомойки, регулятор не тронет. Не потому что не хочет, а потому что физически не дотянется. Как с 152-ФЗ: формально каждый ИП должен хранить персональные данные на серверах в РФ, по факту - проверяют только крупных.

          Для стартапа стратегия простая: строй архитектуру так, чтобы в момент X можно было переключиться на любую сертифицированную модель за час. Не нужны миллионные вложения в чиновников - нужен LLM-роутер в коде. Это дешевле.


  1. FSmile
    09.03.2026 12:53

    С какой суверенной моделью вы там генерить проекты за вечер?


    1. ignatenkosergey Автор
      09.03.2026 12:53

      VibePilot использует Qwen и DeepSeek через API. Это не суверенные модели, таких для генерации кода пока ни у кого нет - закон вступает в силу в сентябре 2027. Готовые проекты разворачиваются на российских серверах (Timeweb Cloud). Когда появятся конкурентоспособные российские модели, переключимся. Архитектура это позволяет.


  1. zverobaken
    09.03.2026 12:53

    Возможно ошибаемся, но вспоминая экономические термины, "чем больше регулирование рынка, тем меньше становится его ёмкость (обьем)". Это к вопросу о национальных и суверенных моделях. Мудрый подход гос-ва был бы (любого) установить единые правила игры, ведущие к росту, и следить за их выполнением, не пытаясь самому в этом процессе зарабатывать, "соревнуясь" с бизнесом. Вероятно, что в RU это может оказаться невозможно