Anthropic только что "обнулили" рынок на $300 млрд, и, честно говоря, это было неизбежно. Если вы пропустили начало февраля 2026-го, то вот краткий пересказ событий: акции LegalTech-гигантов Thomson Reuters и Gartner рухнули на 10-21% за сутки. Причина? Релиз автономных AI-агентов, которые за $20/мес делают работу, за которую корпорации привыкли брать тысячи долларов.

Предположу, что волна "SaaSpocalypse" докатится до российского рынка быстрее, чем кажется, а модель "продажи доступов" умирает даже в наших палестинах.

Смерть Vendor Lock-in

2–3 февраля Anthropic выкатили плагины для платформы Claude Cowork. Рынок отреагировал паникой, потому что инвесторы поняли три вещи:

  1. Настоящая агентность. Это не чат-бот. Вы ставите задачу ("проверь договор и выдели риски"), и агент сам лезет в базу, сам читает, сам пишет отчет.

  2. MCP (Model Context Protocol). Claude теперь живет внутри вашей инфраструктуры. Ему не нужен интерфейс условного Thomson Reuters или LexisNexis, чтобы работать с данными.

  3. Цена вопроса. Как верно заметил Кевин Келлер (SVP Forward Networks и известный legal engineer): "Да, агент может быть не так идеален, как партнер юрфирмы. Но он "достаточно хорош" и стоит 5% от цены софта".

Российская реальность: "Тяжелый люкс" против агентов

Российский LegalTech рынок к 2025 году оценивался в 15 млрд рублей. И львиная доля этих денег — это не инновации, а старая добрая "лицензионная игла".​

У нас есть свои гиганты — КонсультантПлюсГарантPravo Tech (Casebook/Caselook). Их бизнес-модель десятилетиями строилась на принципе Vendor Lock-in:

  • Вы платите за доступ к базе.

  • Вы платите за «рабочее место» (seat).

  • Вы платите за сложный интерфейс, к которому привыкли ваши юристы.

Но что происходит, когда появляется условный "российский Claude" (или дообученная Llama/Qwen) с правильными рагами?

Интерфейс становится вторичным

Юристу больше не нужно уметь пользоваться сложными фильтрами поиска. Он просто пишет агенту (уже почти готов новый модуль в "неШемяке!") или в корпоративный telegram: "Найди практику АС Москвы по субсидиарке за 2025 год, где директора оправдали, и сделай саммари". Агент делает это сам, обращаясь к "сырым» данным". Ценность красивой оболочки, за которую вендоры брали деньги, стремится к нулю.

Демократизация аналитики

Раньше, чтобы оценить шансы в суде, вам нужен был дорогой софт с аналитикой или часы работы младшего юриста. Сейчас даже по моему небольшому приложению видно, как инхаусы небольших компаний получают тот же уровень предиктивной аналитики (шансы, ссылки на пленумы) за копейки, используя консенсус LLM.

Это бьет по рынку консалтинга среднего звена. Зачем платить внешнему консультанту за первичный ресерч, если агент делает его за 30 секунд?

Перспективы

Конечно, отечественные лидеры не спят. "Гарант" уже внедрил AI-ассистента "Искру", Pravo Tech активно говорит про AI-агентов. Но проблема в бизнес-модели. Западный опыт показывает: AI каннибализирует выручку. Если ваш AI работает слишком хорошо, клиент проводит в системе меньше времени и покупает меньше человеко-часов.

Готовы ли российские гиганты перестроить продажи с "количества лицензий“ на "плату за результат" (outcome‑based pricing)? Пока я вижу обратное: попытку "прикрутить AI сбоку" к старым тарифам.

Комментарии (12)


  1. Naglec
    06.02.2026 21:57

    2025 неШемяка! AI анализ исковых заявлений и прогноз исхода дела.

    Исполнитель: ИП Поляков Н.В.


    вся недостатья ради одного линка на свой микросаас


    1. larayoda Автор
      06.02.2026 21:57

      точно!


  1. kolabaister
    06.02.2026 21:57

    Яндекс сегодня выкатил своего нейроюриста. Кто то полагаю напрягся)


    1. RoasterToaster
      06.02.2026 21:57

      Яндекс с мейлом вынесли с поля такую позицию как админ почтового сервера лет за 10, сейчас уже быстрее пойдет


  1. akardapolov
    06.02.2026 21:57

    Где-то за неделю ознакомился с регуляторкой по ритейлу с использованием ИИ. База знаний со схемами взаимодействия ключевых субъектов, форматы данных обмена и проч. - локально и без СМС. Исходники законов, постановлений правительства и проч. - все в открытом доступе - проблем нет.


  1. Dhwtj
    06.02.2026 21:57

    Там ценность в самих данных, кто и как будет их вносить. Поиск дело десятое: ну найдешь и что? Мало найти, надо понять почему оправдали, какие были риски, какова выигрышная стратегия в новом конкрентом случае.


    1. acsent1
      06.02.2026 21:57

      Так это уже вторичный рисерч. Первичный как раз и состоит в том чтобы просто найти


  1. FoxProFlow
    06.02.2026 21:57

    Тезис “интерфейс становится вторичным” — прям в точку: когда агент живёт внутри инфраструктуры, ценность “красивых фильтров” падает. Но дальше обычно упирается не в интеллект, а в доверие: аудит действий, источники данных, воспроизводимость вывода. Если агент делает ресёрч по праву/финансам, без протокола “какие источники + какие шаги + что проверено” это быстро превращается в генератор уверенного текста. Интересно, как вы видите “контур доверия” для таких агентов: какие минимальные доказательства должны прикладываться к ответу, чтобы юристы реально начали полагаться?


    1. larayoda Автор
      06.02.2026 21:57

      и действительно, "контур доверия" достаточно сложно моделировать. пока видится три слоя: 1) кликабельные ссылки на источники, 2) слой консенсуса, одной модели верить точно нельзя, трем - с осторожностью (долго прикручивал в "неШемяке" этот перекрестный пайплайн), 3) протокол рассуждений, о котором вы пишите, правда ученые, которые погружены в тему (проф. Оселедец и др) уверяют - то, что модель выдает в качестве chain of thoughts - это пост-рационализация (модель сначала "решила", а потом придумала красивое объяснение). Но даже такая "карта мыслей" лучше черного ящика.


      1. FoxProFlow
        06.02.2026 21:57

        Согласен на 100%: “контур доверия” — это прям ключ. И я бы тут аккуратно развёл две вещи: chain-of-thought и протокол исполнения. Потому что CoT реально может быть пост-рационализацией (“сначала решил, потом объяснил”). А вот что агент реально сделал — это уже можно проверять.

        Если прям по-простому, чтобы юристы начали хоть чуть-чуть верить агенту, ему надо прикладывать три штуки:

        1. Не просто ссылки, а “что именно я прочитал”
          Ссылка — это хорошо, но завтра она поменялась, и привет. Нужен мини-снимок: откуда взял, какой пункт/абзац, желательно с датой/версией. Чтобы можно было ткнуть пальцем и сказать: “вот тут написано”.

        2. Не “одна модель сказала”, а “мы попытались её опровергнуть”
          Консенсус моделей — норм, но ещё важнее — чтобы агент специально искал контрпример: исключения, другую практику, другой регуляторный документ. Типа “я не только подтвердил, я ещё и проверил, что это не бред”.

        3. Не “как я думал”, а “на каких условиях это верно”
          Самое полезное: список допущений и границ применимости. Юристы так и живут: “это верно если А, Б, В; если Г — уже другая история”.

        В итоге у агента должен быть маленький “пруф-пакет”: источники → выдержки → проверки → допущения → вывод + риск. Тогда это уже не генератор уверенного текста, а штука, которую можно аудитить и повторять.

        (И да, “карта мыслей” лучше чёрного ящика, но “карта действий + источников + проверок” — вообще взрослая тема.)


        1. larayoda Автор
          06.02.2026 21:57

          Это уже тянет на архитектурный манифест для Legal AI! :)

          "Пытаться опровергнуть" - это моя любимая боль сейчас. Пока модели неохотно критикуют свой же первый вывод. И даже критика других LLM иногда не может их сбить.

          Из заметок на полях. Мы до конца, насколько понимаю, не знаем, что такое LLM "прочитала" (как эти токены улеглись в веса или что там за mapping the mind, если пользоватся терминологией антропика). Впрочем, этот же применимо и к "живым" юристам. В каком смысле они "прочитали", "поняли"? Или это все "медленные LLM". )) Хайдеггер и тот сомневался думаем ли мы в настоящем смысле... Так что проблема "черного ящика" тут общая — и "для кремния, и для белка".


      1. FoxProFlow
        06.02.2026 21:57

        интерфейс реально становится вторичным — когда агент живёт “внутри” вашей инфраструктуры, красивые фильтры перестают быть конкурентным рвом.

        Но нюанс какой: дальше рынок упирается не в интеллект, а в доверие.
        Потому что LLM — талантливый болтун: может выдать текст так уверенно, что юристу потом лечить репутацию.

        Я бы “контур доверия” формулировал не как chain-of-thought (он и правда может быть пост-рационализацией), а как протокол выполнения:

        1. Что именно было прочитано (не просто ссылки, а пункты/выдержки + дата/версия)

        2. Что было проверено (включая попытку найти контрпример/исключения)

        3. На каких условиях вывод верен (границы применимости) + риск-лейбл “черновик/можно в работу/нельзя подписывать”

        Короче: агент без “протокола” = генератор уверенного текста.
        Агент с “протоколом” = инструмент, который можно аудитить и постепенно подпускать к реальным решениям.