Я работаю разработчиком. Каждый день пишу код, ревьюю PR, хожу на стендапы. Обычная жизнь в 2026 году — только за последние полтора года она изменилась сильнее, чем за предыдущие пять.

Cursor, Claude Code, Copilot. Коллеги из западных команд говорят, что скорость разработки выросла в два раза. Не в полтора — в два. Это не хайп, это реальные цифры от реальных людей.

А потом закрываешь ноутбук и понимаешь: большинство этих инструментов в России либо не работают нормально, либо требуют VPN который отвалится в самый неподходящий момент, либо стоят $20 в месяц которые ещё надо как-то оплатить иностранной картой.

Это меня достало. Поэтому я сделал своё.

Как это началось

Всё началось с простого вопроса: а как вообще эти агенты работают под капотом? Я привык разбираться в вещах, которыми пользуюсь. Открыл репозитории, почитал про agentic loop, tool calling, планировщики.

Потом написал первую версию для себя. Потом вторую. Потом обнаружил, что провожу выходные не за сериалами, а за отладкой браузерного агента и думаю о том, как правильно обрабатывать retries в агентном цикле.

Классический разработчик который начал делать «простую штуку» и не смог остановиться.

В какой-то момент у меня на руках был рабочий агент. Он умел искать в интернете, открывать страницы, читать их содержимое и отвечать на вопросы — причём показывал каждый шаг: «ищу → открываю → читаю → отвечаю». Я использовал его каждый день. Никому не показывал.

Момент когда стало понятно — надо выпускать

Показал знакомому. Он смотрел как агент сам открывает сайты, читает страницы, структурирует данные — и у него было такое лицо, как будто я показал фокус.

«Это вообще что? Это можно скачать?»

Нельзя. Потому что это был мой личный инструмент. Без нормального UI, без онбординга — чтобы им пользоваться, нужно было понимать как он устроен изнутри.

Обычному человеку это не нужно. Ему нужно написать задачу и получить результат.

Поэтому я сделал Доку. Взял то что построил, упаковал в нормальное десктопное приложение с человеческим интерфейсом. Добавил главное — локальную модель которая работает без интернета и без облака.

Почему локальная модель — это не компромисс

Когда я только начинал думать о Доке, локальные модели казались слабым вариантом. Да, нет зависимости от интернета, но качество хуже.

За последний год эта пропасть закрылась настолько, что я перестал об этом думать.

Qwen3 которую Дока ставит по умолчанию — это нормальная рабочая модель. Не GPT-5, но для 90% реальных задач — ищи в интернете, открой страницу, разберись что там написано, ответь на вопрос — её хватает с запасом.

При этом:

- Всё что ты пишешь остаётся на твоём компьютере

- Работает без интернета после первой загрузки

- Не зависит от того, заблокируют ли завтра ещё что-нибудь

- Ноль рублей в месяц

Для меня как для человека который работает с кодом и иногда с чувствительными данными — это не компромисс, это преимущество.

Что я делаю с Докой каждый день

Не буду писать пресс-релиз. Вот реальные сценарии:

Ресёрч перед задачей. Когда нужно разобраться в незнакомой теме — архитектурное решение, библиотека, подход — я не гуглю сам. Пишу в Доку «разберись как работает X и объясни плюсы и минусы для нашего кейса». Агент сам ищет, читает документацию, возвращает структурированный ответ. Минут за пять вместо часа.

Мониторинг индустрии. Каждое утро пишу «что интересного вышло в мире ML и backend за вчера». Дока делает несколько запросов, читает профильные источники, возвращает дайджест. Остаюсь в курсе не тратя время на бесконечный скроллинг.

Разбор незнакомой документации. «Зайди на эту страницу и объясни как правильно настроить X для нашего случая». Особенно полезно когда документация большая и плохо структурированная.

Просто когда лень. Это звучит несолидно, но это правда. Большинство вещей которые я делегирую Доке — это вещи которые я мог бы сделать сам но не хочу. И это нормально.

Что будет дальше

Текущая версия — осознанный минимум. Поиск в интернете и работа с веб-страницами. Этого хватает для старта и для того чтобы понять что людям реально нужно.

Дальше планирую добавлять постепенно:

Работа с файлами — читать, анализировать, редактировать локальные документы-

Скриншот экрана— «посмотри что у меня открыто и помоги разобраться»

Долгосрочная память — агент будет помнить ваши предпочтения между сессиями

Фоновые задачи — поставил задачу, агент выполняет пока ты занимаешься другим

Приоритеты буду расставлять по фидбеку. Если что-то из этого нужно прямо сейчас — пишите в комментариях.

Попробовать

https://dokaai.ru — бесплатно.

Windows 10/11 и macOS 12+. Никакого терминала — скачал, запустил, написал задачу. Модель скачивается автоматически при первом запуске, приложение само выбирает подходящую под ваше железо.

Буду рад фидбеку — особенно про баги и про то чего не хватает. Это важнее похвалы.

Комментарии (119)


  1. winkyBrain
    26.03.2026 04:55

    Коллеги из западных команд говорят, что скорость разработки выросла в два раза. Не в полтора — в два. Это не хайп, это реальные цифры от реальных людей.

    в 100500 раз!! главное в конце добавить, что это "реальные цифры от реальных людей", для большей убедительности) все ваши заявления про "без впн, без облака" и прочее тоже пустые слова, без ссылки на репу


    1. JohnWang
      26.03.2026 04:55

      Там очень сильно зависит от характера задач. Если ты условный сеньор пишущий уникальный не имеющий аналогов код с уникальным функционалом - наверное, не сильно скорость выросла.

      Если ты условный миддл на типовых мелких задачках - то и в 3 раза могла вырасти.

      Если ты как я не кодер, до лида вырос из QA и твой потолок - читать чужое то возможность спросить чатгпт или дикпика и не дёргать по каждой фигне того самого сеньора - вообще бесценна.


      1. daktfi
        26.03.2026 04:55

        Даже банальный бесплатный чат - уже помогает, ибо получается офигенский справочник по всякому разному. Типа, "а как бы мне закатить Солнце вручную, да чтобы на свежеизобретённом велосипеде?" - а она в ответ, мол, есть либа такая и либа сякая, а в стандарте написано то и это. И уже на этой волне спокойно идёшь на тот же cppreference или истчо куды.


        1. HMNIJP
          26.03.2026 04:55

          "а как бы мне закатить Солнце вручную, да чтобы на свежеизобретённом велосипеде?"


          1. Определите тип привода

          Как именно ваше изобретение взаимодействует с небесным светилом?

          • Гравитационный зацеп: Ваш велосипед настолько массивен, что создает собственное поле, «подцепляя» Солнце за край короны и утягивая его за горизонт при нажатии на педали.

          • Оптический редуктор: Велосипед оснащен системой линз, которые преломляют свет так, что для наблюдателя закат происходит ровно в такт вашему вращению педалей.

          • Метафизическая цепь: Вы набрасываете цепь прямо на солнечный диск (осторожно, используйте жаропрочную смазку!).


          ...


    1. Rubilnik
      26.03.2026 04:55

      Типичный пример оборота из нейрослопового текста.


    1. yarovikov
      26.03.2026 04:55

      Я вчера убил 2 часа рабочего времени, исправляя казалось бы простой пропущенный мню косяк (cloude opus 4.6). Чтобы не убить еще больше времени, пришлось прямыми запросами базы править.


    1. daktfi
      26.03.2026 04:55

      Ну вот я вполне себе программист на плюсах со стажем, опытом и квалификацией. Поручить те же юнит-тесты нейронке (только сначала дать ей ТЗ, а потом по рукам и по жопе, когда косячит) - реально кратное ускорение работы. 5 минут на ТЗ, 10 минут она там что-то колбасит, ещё 5 минут проверить за ней и ещё 5 минут на исправления. Самому тот же тест писать - час, и ещё не факт, при копипасте не зевнёшь какую-нибудь ерунду. "Возьми вот этот метод и сделай такой же, только с перламутровыми пуговицами" - та же история (ну, смотря какой метод, конечно). Какие-нибудь радикальные потрахушки с тем же грпц "а вот перепиши мне эти методы с CQ на колбэки... не, кака вышла, верни взад, только вот и там поменяй Х на У", при том что сам я с этого грпц пухну и зверею - уже одно это дорогого стоит.

      Словом, про два раза не знаю, очень сильно зависит от текущих задач и от кода, но туеву хучу нудной рутины на неё спихнуть - как два байта переслать за одну посылку. И при этом пока она ломает один кусок кода - я спокойно роюсь в другом одновременно.


  1. Robastik
    26.03.2026 04:55

    В чем смысл велосипедить, если есть опенсорсные Qwen Code CLI, Gemini CLI, в комплекте с неплохо реализованными скиллами, субагентами, работой с контекстом, всеми другими необходимыми фичами, есть куча вариантов браузерных и всех других mcp, и все это просто повторить в одно лицо невозможно, не говоря уже о том, чтобы сделать лучше? Просто переделать под локальный инференс - и все.


    1. Vitaly1387
      26.03.2026 04:55

      Автор молодец. В чем тут велосипед. Так в расоряжении имею своего агента. Уже год как пользуюсь. Когда столкнешься с тем что qwen code или opencode перестает адекватно работать тогда и начинаешь писать свой агент лишенных этих изьянов. По итогу пользуюсь платным claude code и своим. Автор молодец.


      1. Robastik
        26.03.2026 04:55

        qwen code или opencode перестает адекватно работать тогда и

        Вернись на работающую версию.

        Или возьми от них то, что работает, и добавь свое.

        В чем смысл с нуля огород городить?


  1. rsashka
    26.03.2026 04:55

    А где код приложения? Или вы предлагаете просто поверить вам на слово, что там нет мийнеров, бекдоров и прочих неприятных неожиданностей?


    1. Vadiara50
      26.03.2026 04:55

      Вирустотал говорит, что всё нормально...


      1. 13i
        26.03.2026 04:55

        это не показатель. можно и в обновлении докинуть позже. Нужен код.


        1. babikov Автор
          26.03.2026 04:55

          Не уж то разработчику нельзя просто выпустить что-то )


          1. Per_Ardua
            26.03.2026 04:55

            Конечно можно!

            Для этого даже специальная платформа есть: github.

            Не благодарите.


            1. Yokushiro
              26.03.2026 04:55

              Можно следить за развитием проекта на гитхабе автора: https://github.com/babikov/doka-site/releases


              1. Per_Ardua
                26.03.2026 04:55

                Вы шутите?

                Там нет кода, только стопка exe файлов.

                Думаю у нас разное понимание о том, что такое "следить за развитием проекта".


          1. ImUgh
            26.03.2026 04:55

            А вы точно разработчик, если спрашиваете такое?


      1. rsashka
        26.03.2026 04:55

        Он сканирует уже известные сигнатуры и было бы предупреждение, если бы бинарь уже был заражен каким нибудь известным вирусом или трояном. Как Вирус-тотал может узнать о каком-то новом приложении, например, с бекдором?


        1. Vadiara50
          26.03.2026 04:55

          Имхо, выкладывать на хабр свою поделку с бекдором-чистое самоубийство для разраба... Не думаю, что автор настолько коварен)


          1. rsashka
            26.03.2026 04:55

            А в чем проблема? Это бизнес и если он приносит доход, то можно хоть каждый день регистрировать нового пользователя и писать для него статью и даже создавать публичные репозитории, якобы для аудита, а потом при распространении собирать бинарь с “дополнительными опциями”.


      1. 413x
        26.03.2026 04:55

        Современные антивирусы показывают что угодно, но маркеры не вирусы


    1. Grigo52
      26.03.2026 04:55

      Не переживайте, локальная нейросеть сама по себе сожрет все ресурсы вашей видеокарты так, что на майнинг просто ничего не останется


      1. rsashka
        26.03.2026 04:55

        Сперва ресурсы видеокарты, потом что? пароли от кошельков или узел для сети ботов?


  1. Agivanch
    26.03.2026 04:55

    Поторопился с первым комментарием. Скачал приложение, посмотрел. Что могу сказать - мягко говоря - сыроватое и не хватает меню настроек к этому всему. Чего не хватает, конкретно мне, как потребителю для первого MVP:

    • Не вижу потребление ресурсов;

    • Не могу сменить модель через интерфейс;

    • Не могу выкачать диалоги в json;

    • Не понимаю, чем принципиально отличается от LMstudio с добавлением RAG интерфейсов с MCP серверами?


    1. babikov Автор
      26.03.2026 04:55

      Спасибо за отличный фидбэк!
      Модели пока только переключение между версиями Qwen3 (в правом верхнем углу), вы правы надо добавить кастомизацию моделей.
      Все json чатов хранятся в пользовательской папке doka.
      Добавлю в следующей версии.


      1. Stitch505
        26.03.2026 04:55

        А насколько длинный диалог ии может помнить?
        Это я к тому, что chat gpt начинает деградировать достаточно быстро от тяжелых запросов, а как обстоят дела с вашим товарищем?


        1. babikov Автор
          26.03.2026 04:55

          Дока работает полностью локально — вся история держится в памяти компьютера. При ~16 GB RAM это ~8–16 тысяч токенов (≈ 6–12 тысяч слов). Когда место заканчивается, приложение честно скажет об этом.


    1. shirmanov
      26.03.2026 04:55

      А чем ollama принципиально отличается от lmstudio? Т.е. ollama не нужно было делать?


      1. Agivanch
        26.03.2026 04:55

        Плохого ни чего нет, в создании своего продукта и наращивании функционала. Не об этом вопрос, не агрись.


    1. Grigo52
      26.03.2026 04:55

      Ничем не отличается. Это просто урезанная версия существующих опенсорсных комбайнов, где за пользователя жестко захардкодили выбор одной модели, чтобы он не запутался в настройках


  1. deadmoroz14
    26.03.2026 04:55

    Хорошая работа.

    Подскажите, когда будет релиз второй версии?


    1. babikov Автор
      26.03.2026 04:55

      Дока 2 пока впереди )! А небольшие обновления будут в течении недели.


      1. Kenya-West
        26.03.2026 04:55

        Дока 2

        Без вытаскивания кишков десять минут релиз не будет засчитан! /s


        1. babikov Автор
          26.03.2026 04:55

          Выпущу спец версию ты либо убиваешь зомби, либо ты и есть зомби! И там можно выворачивать кишки по 10 минут! 


  1. Daniil_Gusev
    26.03.2026 04:55

    Модель скачивается автоматически при первом запуске, приложение само выбирает подходящую под ваше железо.

    Мягко говоря, странное решение, если вы на технически подкованную аудиторию нацелились.


    1. babikov Автор
      26.03.2026 04:55

      Учту в следующей версии!


    1. MAT-POC
      26.03.2026 04:55

      Для технически подкованной есть LM Studio. Эта аскетичная версия как раз для гуманитариев и чайников, где за тебя подумал специалист.


  1. antytoto
    26.03.2026 04:55

    Вы молодец, что сделали свой проект, уверен, он многим поможет. Раньше мы с командой уточняли: «дока» — это про документацию, или про «Доку» как проект онлайн-энциклопедии — теперь будем разбавлять вариантом про AI


  1. shirmanov
    26.03.2026 04:55

    Отличная работа! Никого не слушайте, продолжайте пилить!


  1. Toolza
    26.03.2026 04:55

    Круто получилось, но странно почему разработчик не сделал версию для линукс, только для операционок которыми пользуются обычные юзеры.


    1. rsashka
      26.03.2026 04:55

      только для операционок которыми пользуются обычные юзеры.

      Потому что обычные пользователи меньше задаются вопросом, что в реальности делает скачанное приложение с полным доступом к компьютеру пользователя и интернету.


      1. kvruser
        26.03.2026 04:55

        вы про браузеры?


        1. rsashka
          26.03.2026 04:55

          В том числе :-)


      1. diakin
        26.03.2026 04:55

        "Если у вас паранойя, это не значит что за вами не следят!" (с)


    1. Grigo52
      26.03.2026 04:55

      Обычные юзеры на винде эт как раз те люди, которые скачают exe файл по ссылке с хабра, отключат дефендер и радостно установят себе троян


    1. Axelaredz
      26.03.2026 04:55

      Тут всё просто, тем кто пользуется Linux это не нужно)
      У нас и так полно подобных агентов и тому подобных тулз, плюс каждый, уже сделал своего)


  1. MAT-POC
    26.03.2026 04:55

    Отличная, работа! Всё сделано руками и очень круто! Ничего лишнего. Я не знаю на сколько тяжело поменять LLM сеть, но если будет возможность добавьте туда qwen 3.5 9b и Гигачат 3,1 Лайт они по качеству примерно одинаковые на карте с 8 Гб в LM Студии работают нормально. Гигачат 3,1 - заметно быстрее Qwen 3.5.

    https://habr.com/ru/companies/sberbank/articles/1014146/ - вот обсуждение Гигачата.

    Можно добавить к списку загружаемых файлов MD ?


    1. babikov Автор
      26.03.2026 04:55

      Хорошо сделаю!


  1. Dron76
    26.03.2026 04:55

    В чем отличие от perplexica ( не путать с perplexity) и open webui подключенных к бекенду в виде тех же lmstudio и ollama?


    1. babikov Автор
      26.03.2026 04:55

      Ну это больше для пользователей, которые не смогут такое сделать.


      1. willDJ
        26.03.2026 04:55

        Пишет пользователь чайник. На моем ноутбуке не увидел установленного хрома написал, что нужно установить. не удалось вобщем попробовать


        1. babikov Автор
          26.03.2026 04:55

          Буду решать в ближайшей версии


          1. SSDS
            26.03.2026 04:55

            ни разу не кодер, хотел попробовать, но у меня вообще эдж по умолчанию стоит. можно чтобы и его поддерживал?

            а то на любой вопрос модель сейчас у меня выдает "попробуй еще раз". вообще на всё и на высоком качестве и на среднем.

            +еще момент. когда удаляешь "новый чат" то потом строка ввода и отправки сообщений недоступна становится


        1. MAT-POC
          26.03.2026 04:55

          у меня хрома нет, есть яндекс браузер - работает нормально


  1. MAT-POC
    26.03.2026 04:55

    1. иногда он долго ищет, пользователь передумал - желательно прерывать это занятие по клавише Esc

    Он пишет что не может открыть браузер. EУ вас вроде написано что "открывает браузер заполняет формы" ...

    Как Вы считаете локальные модели уровня Qwen 3.5 9b / GigaChat-3.1 Lite 10B могут нормально работать с аналогами openclaw ?


    1. babikov Автор
      26.03.2026 04:55

      Ок, учту этот момент.
      Браузер открывается в headless варианте, скорее всего на компьтере не стоит хром. В дальнейшем плаировал использовать другой браузерный движок.
      Насчет этих моделей не могу сказать точно так как не тестировал.


      1. MAT-POC
        26.03.2026 04:55

        хрома у меня нет, есть Яндекс браузер


  1. VO_Obsidian
    26.03.2026 04:55

    Хотелось бы сравнение с той же LM Studio. Чем это решение отличается? Чем лучше?


  1. Hadjimurad
    26.03.2026 04:55

    На linux?


  1. ImUgh
    26.03.2026 04:55

    Если это для домохозяек и/или тех, кому лень разбираться, то что по минимальным требованиям к железу?


    1. babikov Автор
      26.03.2026 04:55

      Для них в том числе )


      1. ImUgh
        26.03.2026 04:55

        Так а с железомом-то что?


  1. AndyRom0
    26.03.2026 04:55

    На вин7 не запустилось, пишет - не является приложением win32, хотя система 64бит. При первоначальном запуске и попытке отладки - необработанное исключение win32 в [9200...


    1. babikov Автор
      26.03.2026 04:55

      Ок буду разбираться почему такое вылезло, пока такого не было.


      1. AndyRom0
        26.03.2026 04:55

        Спасибо, буду ждать положительного результата! Кстати, попытка установить LM Studio на эту же систему (win7) закончилась так же, - необработанное исключение [...]


    1. Kovurr
      26.03.2026 04:55

      Win7 вышла 17 лет назад, на ней современный софт чаще не работает, чем наоборот. Выбросьте ее и ставьте 10-ку.


  1. Alex-ok
    26.03.2026 04:55

    Все что у вас перечислено в разделе ‘Что я делаю с Докой каждый день’ можно сделать в том же бесплатном и доступном без впн дипсике, и без всяких плясок с бубном. Другое дело локальная работа с файлами и фоновые задачи. Так что ждем, держите в курсе!


  1. lgorSL
    26.03.2026 04:55

    Из моделей ещё интересная GLM-flash - она чуть побольше, но с экспертами, и из-за этого работает сильно шустрее. На видеокарте 4080 я видел скорость генерации больше ста токенов в секунду.


  1. ris58h
    26.03.2026 04:55

    про то чего не хватает

    На лэндинге ничего не увидел про системные требования. Простыми словами: сколько оперативки надо и сколько диска?


  1. Croakerx64
    26.03.2026 04:55

    А на гитхаб есть планы выложить в виде опенсорса?
    Это было бы очень полезно даже в плане изучения


  1. domix32
    26.03.2026 04:55

    Изоляция в докер контейнер с обычной вебмордой будет?


    1. babikov Автор
      26.03.2026 04:55

      Пока не планировал такого


  1. Gamefin
    26.03.2026 04:55

    @babikovа твоя llm может проводить тестирование сайтов? Писать кейсы проверок? Анализировать функционал?


    1. babikov Автор
      26.03.2026 04:55

      сейчас пока нет но этот функционал есть в моем локальном агенте, в доку я еще это не переносил


  1. GraphDark
    26.03.2026 04:55

    Я простой Иван, город Сарапул...


  1. valera_efremov
    26.03.2026 04:55

    Присоединяюсь к вопросам выше - какое потребление ОЗУ и какая минимальная видеокарта? Обязательно иметь rtx 5090?

    Для "вайбкодинга" подходит?


  1. 413x
    26.03.2026 04:55

    Проект полезный, пригодится, есть схожий проект Jan, тоже в эту сторону смотрит. LM-Studio визуально перегружен. Если получится добавляться последние фишки, сделать каталог нейросетей последних, мониторить их улучшения (поднимать в рейтинге те что выше процент, качественнее, сделать категории - кодинг, общее, распознавание фото?...). У Jan вечно какие-то протухшие модели в каталог. Опять же были какие-то хитрости, чтобы запускать модели на видеокарте, расширять память и прочее, можно тож внедрить включение условно галочкой в настройках.
    Еще интереснее было бы двигаться в сторону опенсорса (тупо больше интереса будет к проекту и популярности) и сделать систему пожертвований, чтобы подогревало дополнительный интерес.
    Успехов с проектом.


    1. babikov Автор
      26.03.2026 04:55

      Спасибо очень приятно такое слышать, насчет каталога нейронок отличная идея, а вот Jan не видел надо будет глянуть.


    1. normal
      26.03.2026 04:55

      да вроде Jan тоже бодро обновляется -- так и из HF там можно сразу модели тянуть (внутри самого Jan) - и еще у них фишка - своя легкая моделька для тулинга под десктоп задачи - которая может вызывать "тяжелые" llm (хоть локальные, хоть по апи внешние). такого пока ни у кого нет.


  1. Ndochp
    26.03.2026 04:55

    Пропустил возможно, с радеонами работает?


  1. Grigo52
    26.03.2026 04:55

    Такой программист момент

    Вместо того чтобы взять готовый lm studio или gpt4all, человек тратит выходные на написание своего велосипеда с урезанным функционалом, а потом пытается выдать это за продукт для массового юзера


  1. Partizan_v_kedah
    26.03.2026 04:55

    Скачал, но так запустить и не удалось. Пытаюсь задать простой вопрос, пишет "попробуй позже" и потом уходит в постоянную загрузку "подготавливают окружение".

    На втором ноуте почему то вообще не запустилось, там ошибка уже на стороне windows. Хотя на обоих ПК win10 стоит, с одной и той же флешки


  1. Ufo28
    26.03.2026 04:55

    А можно клиент-серверный вариант?
    На одном компе с видеокартой (желательно чтоб linux поддерживался) запускается модель, а потом на всяких лёгких ноутбуках можно подключать клиент, который будет её использовать?


    1. Bluewolf
      26.03.2026 04:55

      Можно, вам потребуются бесплатные и популярные ollama или llama.cpp и opencode. Настройка и так проста, но может быть выполнена любым уже работающим агентом.


  1. SlavaVSLK
    26.03.2026 04:55

    Я может чего-то не понимаю, а в чем отличие от того же lm studio, в который можно добавлять тулзы и мцп при необходимости? Хочешь кодинг агента, включил lm server подкинул в ide через расширение и гоняй его там сколько влезет. В чем фишка, объясните пожалуйста?


    1. Bluewolf
      26.03.2026 04:55

      Фишки нет, подобное пишется claude целиком вместе с сайтом за час, а сайт с каким-никаким трафиком и аккаунт хабра - не лишние) Да и без них - прикольно же

      Правка 8, правка 10...


  1. StjarnornasFred
    26.03.2026 04:55

    Полезная идея и похвальное начинание! Поставил на рабочий моноблок (i5-1135G7, 16/1024, встройка). И сразу "но"...

    1) Непонятно, какой "движок" скачивается и работает. По разговору с Докой я понял, что это какой-то обрезок Qwen, который свою версию назвать не смог. Стоит добавить как минимум самоинформацию, а лучше - выбор.

    2) работает оооочень медленно. Долго думает, прежде чем ответить на простейший запрос типа "открой сайт ya.ru"

    3) вообще не умеет взаимодействовать с установленными программами. Попросил запустить блокнот - Дока, долго подумав, отказалась, сославшись, что не умеет.

    4) глуповат в текстовом чате. Отвечает лаконично и с массой ошибок в русском языке.

    Надеюсь, что это всё детские болезни - первая версия, многого не ждёшь. Верю в светлое будущее и обновления!


    1. lightman
      26.03.2026 04:55

      2) работает оооочень медленно.

      Насколько я понимаю, нейросети на процах работают медленно by design и ничего с этим не сделаешь. Лучше иметь дискретную видеокарту с большим количеством видеопамяти, причём желательно с объёмом, который в потребительские видеокарты даже не ставят (не зря все эти истории про то, как покупают Nvidia 4090 и отдают в мастерскую для перепайки чипов памяти на больший объём).

      Так что "ChatGPT на компьютере" с такой же скоростью и качеством ответов, боюсь, начинается от вложения нескольких сотен тысяч рублей.


  1. durnoy
    26.03.2026 04:55

    Вы в начале статьи привели в пример

    Cursor, Claude Code, Copilot

    которые на разработку ориентированы, а потом раз -- и сделали ассистента, который ходит по интернету.

    я видел в конце статьи про планы сделать работу с локальными файлами, но все равно это немного другая цель по сравнению с, скажем, Claude.


  1. brat_viktor
    26.03.2026 04:55

    Я работаю под Ubuntu. Что мне делать?


  1. IgVlB
    26.03.2026 04:55

    На взгляд "массового user-а" такой инструмент в современных условиях очень нужен и будет востребован.

    Часто приходится быть именно массовым user-ом, которому для решения текущей задачи быстро нужен простой инструмент, и на всё остальное (типа бесконечных смен VPN, затей с lm studio, и др.) времени просто нет, и точно не будет. Приоритеты не те.

    Doka на Win-11 (4070Ti-Super) установился без проблем. Отвечает с задержкой, но терпимо.

    На мой взгляд не хватает режима "perplexity", когда нужны ссылки на источники, послужившие информацией для ответа.


  1. ash_lm
    26.03.2026 04:55

    Никогда babikov не был так близок к провалу, как в тот день, когда он выложил своё приложение на Хабре. Ничто не выдавало в нём разведчика - ни отсутствие исходников, ни закрытый код, ни просьба "просто доверьтесь".


  1. puzzin
    26.03.2026 04:55

    Ничего не ясно из статьи.. Что под капотом? Какая модель? ollama qwen3.5-9b ? Но эта модель туповата и при высоких полномочиях наворотит дел. И в чем отличие от openclaw (кроме гораздо более урезанного функционала) ? Или под капотом openclaw? )) Действительно зачем велосипед?


  1. cadastrum
    26.03.2026 04:55

    Что то он не работает. Качался - качался. не до качался. Причем на каждый запрос он мне предлагает попробовать в который раз.
    Что то он не работает. Качался - качался. не до качался. Причем на каждый запрос он мне предлагает попробовать в который раз.


    1. gfgx
      26.03.2026 04:55

      У меня тоже самое, модель при запуске вроде нормально скачал.


  1. solongsolong
    26.03.2026 04:55

    Не работает. Пишет, что не хватает места в контексте модели.


  1. NoiseOfrain
    26.03.2026 04:55

    А чем OpenCode не устроил? Работает без ВПН, встроенных нейронов хватает для 90% типовых задач.


  1. Zod4y
    26.03.2026 04:55

    Что-то не хочет работать.
    Установилась, скачала модель, на любой запрос отвечает "Попробуй еще раз".
    Использовал качество модели высокое , среднее, низкое.
    Результат одинаковый "Попробуй еще раз"
    Платформа i5/16gb/256gb/RTX3050/Win10.


  1. Aerofreak
    26.03.2026 04:55

    Пытаюсь запустить но что-то не запускается ваше творение))))
    Пытаюсь запустить но что-то не запускается ваше творение))))


    В чем может быть проблемы?


  1. DimonVideo
    26.03.2026 04:55

    спасибо за труды, но сыровато - попросил сгенерировать статью на 3т символов по заданному описанию (qwen такое как семечки щелкает), думала минут 6 (32Гб ОЗУ, Ultra 7 258v), но потом начала писать и в цикл вошла, все пишет и пишет по десятому разу без остановки одно и тоже (дописывает до конца и заново этот же текст начинает). После закрытия - в истории пусто. Ждем обновлений


  1. sirius621
    26.03.2026 04:55

    Windows 11. После установки "Доки" исчез браузер Chrome, осталаль только папка с некоторыми файлами. Переустановил Chrome, пока все работает.


  1. sirius621
    26.03.2026 04:55

    С помощью ChatGPT потестил на решение разных задач на логику, сложную грамматику английского языка, работу с текстовым файлом на обзор содержимого и прочее. От модели "средняя" и выше все ответы на отлично. Думает в зависимости от сложности от 2 до 7 минут. На ноутбуке стоит i7, 16 Gb оперативная, Windows 11, опция энергопотребления "оптимальный уровень". По сравнению с моделями, которые устанавливал на Ollama и GPT4All (8b) общее впечатление на несколько порядков выше.


  1. sirius621
    26.03.2026 04:55

    И да, видел выше в отзывах, при закрытии чата невозможно в окне ввода что либо напечатать, приходится перезапускать программу.


    1. babikov Автор
      26.03.2026 04:55

      Подправлю в следующем релизе


  1. Zod4y
    26.03.2026 04:55

    Нашел в логах сервера:
    [2026-03-26T15:22:03.203Z] [llm] loading model from C:\Users\Admin.doka\models\high.gguf
    [2026-03-26T15:22:03.203Z] [llm] loading via bridge: C:\Ai_Doka\resources\app.asar.unpacked\server-dist\load-llama.js [2026-03-26T15:22:03.817Z] [llm] bridge loaded ok, calling getLlama()…
    [2026-03-26T15:22:04.580Z] [llm] initLlm FAILED: Error: NoBinaryFoundError
    at getLlamaForOptions (file:///C:/Ai_Doka/resources/app.asar.unpacked/node_modules/node-llama-cpp/dist/bindings/getLlama.js:286:15)
    at async initLlm (C:\Ai_Doka\resources\app.asar.unpacked\server-dist\index.jsc:1:1872287)
    at async ensureInit (C:\Ai_Doka\resources\app.asar.unpacked\server-dist\index.jsc:1:1872975)
    at async ollamaChat (C:\Ai_Doka\resources\app.asar.unpacked\server-dist\index.jsc:1:1876157)
    at async runLoop (C:\AiDoka\resources\app.asar.unpacked\server-dist\index.jsc:1:1949132)

    Чего-то не хватает Доке для нормальной работы.


    1. babikov Автор
      26.03.2026 04:55

      Тут два варианта
      1. Нет Visual C++ Redistributable 2022 Лечится установкой VC++ Redist x64.
      2. Старый CPU без AVX2 (самое вероятное)


      1. Zod4y
        26.03.2026 04:55

        Первый вариант.
        Установил Visual C++ Redistributable 2022, переустановил Доку и он заработал!
        Спасибо!!!
        Было бы полезно внести информацию о требованиях к ПО и железу на гитхаб.


        1. babikov Автор
          26.03.2026 04:55

          Сделаю!


      1. DevMob
        26.03.2026 04:55

        а если только avx


        1. babikov Автор
          26.03.2026 04:55

          тут скорее всего будут проблемы с локальной моделью


  1. FGMPN
    26.03.2026 04:55

    В целом идея хорошая, спасибо автору! Потестирую для простеньких задач на рабочем компе. Есть куда развивать проект, многое уже написали... коментарии объективные. Надеюсь вторая версия покажет себя)


  1. MkIV007
    26.03.2026 04:55

    посмотрите на AnythingLLM для вдохновения - похожий концеп на мой взгляд, но есть интересные фичи.


    1. babikov Автор
      26.03.2026 04:55

      Спасибо за наводку, гляну


  1. Kotcha
    26.03.2026 04:55

    Скачал, буду пробовать на Маке, спасибо! Подскажите, как правильно удалить аппку, если возникнет такая потребность? Вижу, что в Applications приложение весит всего 300 Mb, но перед первым запуском скачивались куда-то гигабайты. Где теперь это найти и как корректно все удалить?


  1. babikov Автор
    26.03.2026 04:55

    В папке пользователя есть папка doka там лежат скаченные модели, удалите эту папку тоже.


    1. dimwap
      26.03.2026 04:55

      Вот, на все эти вопросы, ответы пользователю должна давать сама модель. А она не знает о себе ничего. Ни где лежат логи, ни где лежат модели. А должна знать, хотя бы в режиме RAG, пусть не сразу из системного промпта. Или отдельная справочная система должна быть. Ладно, файл help.


  1. mbtv
    26.03.2026 04:55


  1. snakedr
    26.03.2026 04:55

    Похвально, что не ждете и делаете, но:
    1. Нет исходников на GitHub.
    2. Нет версии для Linux (Debian, Ubuntu & etc).
    3. Настройки пользователя неплохо бы расширить в части выбора моделей и добавления URL & API.
    4. Chrome по умолчанию это минус.
    Ждем развитие проекта, с учетом пожеланий сообщества.