
Я работаю разработчиком. Каждый день пишу код, ревьюю PR, хожу на стендапы. Обычная жизнь в 2026 году — только за последние полтора года она изменилась сильнее, чем за предыдущие пять.
Cursor, Claude Code, Copilot. Коллеги из западных команд говорят, что скорость разработки выросла в два раза. Не в полтора — в два. Это не хайп, это реальные цифры от реальных людей.
А потом закрываешь ноутбук и понимаешь: большинство этих инструментов в России либо не работают нормально, либо требуют VPN который отвалится в самый неподходящий момент, либо стоят $20 в месяц которые ещё надо как-то оплатить иностранной картой.
Это меня достало. Поэтому я сделал своё.
Как это началось
Всё началось с простого вопроса: а как вообще эти агенты работают под капотом? Я привык разбираться в вещах, которыми пользуюсь. Открыл репозитории, почитал про agentic loop, tool calling, планировщики.
Потом написал первую версию для себя. Потом вторую. Потом обнаружил, что провожу выходные не за сериалами, а за отладкой браузерного агента и думаю о том, как правильно обрабатывать retries в агентном цикле.
Классический разработчик который начал делать «простую штуку» и не смог остановиться.
В какой-то момент у меня на руках был рабочий агент. Он умел искать в интернете, открывать страницы, читать их содержимое и отвечать на вопросы — причём показывал каждый шаг: «ищу → открываю → читаю → отвечаю». Я использовал его каждый день. Никому не показывал.
Момент когда стало понятно — надо выпускать
Показал знакомому. Он смотрел как агент сам открывает сайты, читает страницы, структурирует данные — и у него было такое лицо, как будто я показал фокус.
«Это вообще что? Это можно скачать?»
Нельзя. Потому что это был мой личный инструмент. Без нормального UI, без онбординга — чтобы им пользоваться, нужно было понимать как он устроен изнутри.
Обычному человеку это не нужно. Ему нужно написать задачу и получить результат.
Поэтому я сделал Доку. Взял то что построил, упаковал в нормальное десктопное приложение с человеческим интерфейсом. Добавил главное — локальную модель которая работает без интернета и без облака.
Почему локальная модель — это не компромисс
Когда я только начинал думать о Доке, локальные модели казались слабым вариантом. Да, нет зависимости от интернета, но качество хуже.
За последний год эта пропасть закрылась настолько, что я перестал об этом думать.
Qwen3 которую Дока ставит по умолчанию — это нормальная рабочая модель. Не GPT-5, но для 90% реальных задач — ищи в интернете, открой страницу, разберись что там написано, ответь на вопрос — её хватает с запасом.
При этом:
- Всё что ты пишешь остаётся на твоём компьютере
- Работает без интернета после первой загрузки
- Не зависит от того, заблокируют ли завтра ещё что-нибудь
- Ноль рублей в месяц
Для меня как для человека который работает с кодом и иногда с чувствительными данными — это не компромисс, это преимущество.
Что я делаю с Докой каждый день
Не буду писать пресс-релиз. Вот реальные сценарии:
Ресёрч перед задачей. Когда нужно разобраться в незнакомой теме — архитектурное решение, библиотека, подход — я не гуглю сам. Пишу в Доку «разберись как работает X и объясни плюсы и минусы для нашего кейса». Агент сам ищет, читает документацию, возвращает структурированный ответ. Минут за пять вместо часа.
Мониторинг индустрии. Каждое утро пишу «что интересного вышло в мире ML и backend за вчера». Дока делает несколько запросов, читает профильные источники, возвращает дайджест. Остаюсь в курсе не тратя время на бесконечный скроллинг.
Разбор незнакомой документации. «Зайди на эту страницу и объясни как правильно настроить X для нашего случая». Особенно полезно когда документация большая и плохо структурированная.
Просто когда лень. Это звучит несолидно, но это правда. Большинство вещей которые я делегирую Доке — это вещи которые я мог бы сделать сам но не хочу. И это нормально.
Что будет дальше
Текущая версия — осознанный минимум. Поиск в интернете и работа с веб-страницами. Этого хватает для старта и для того чтобы понять что людям реально нужно.
Дальше планирую добавлять постепенно:
Работа с файлами — читать, анализировать, редактировать локальные документы-
Скриншот экрана— «посмотри что у меня открыто и помоги разобраться»
Долгосрочная память — агент будет помнить ваши предпочтения между сессиями
Фоновые задачи — поставил задачу, агент выполняет пока ты занимаешься другим
Приоритеты буду расставлять по фидбеку. Если что-то из этого нужно прямо сейчас — пишите в комментариях.
Попробовать
https://dokaai.ru — бесплатно.
Windows 10/11 и macOS 12+. Никакого терминала — скачал, запустил, написал задачу. Модель скачивается автоматически при первом запуске, приложение само выбирает подходящую под ваше железо.
Буду рад фидбеку — особенно про баги и про то чего не хватает. Это важнее похвалы.
Комментарии (119)

Robastik
26.03.2026 04:55В чем смысл велосипедить, если есть опенсорсные Qwen Code CLI, Gemini CLI, в комплекте с неплохо реализованными скиллами, субагентами, работой с контекстом, всеми другими необходимыми фичами, есть куча вариантов браузерных и всех других mcp, и все это просто повторить в одно лицо невозможно, не говоря уже о том, чтобы сделать лучше? Просто переделать под локальный инференс - и все.

Vitaly1387
26.03.2026 04:55Автор молодец. В чем тут велосипед. Так в расоряжении имею своего агента. Уже год как пользуюсь. Когда столкнешься с тем что qwen code или opencode перестает адекватно работать тогда и начинаешь писать свой агент лишенных этих изьянов. По итогу пользуюсь платным claude code и своим. Автор молодец.

Robastik
26.03.2026 04:55qwen code или opencode перестает адекватно работать тогда и
Вернись на работающую версию.
Или возьми от них то, что работает, и добавь свое.
В чем смысл с нуля огород городить?

rsashka
26.03.2026 04:55А где код приложения? Или вы предлагаете просто поверить вам на слово, что там нет мийнеров, бекдоров и прочих неприятных неожиданностей?

Vadiara50
26.03.2026 04:55Вирустотал говорит, что всё нормально...


13i
26.03.2026 04:55это не показатель. можно и в обновлении докинуть позже. Нужен код.

babikov Автор
26.03.2026 04:55Не уж то разработчику нельзя просто выпустить что-то )

Per_Ardua
26.03.2026 04:55Конечно можно!
Для этого даже специальная платформа есть: github.
Не благодарите.

Yokushiro
26.03.2026 04:55Можно следить за развитием проекта на гитхабе автора: https://github.com/babikov/doka-site/releases

Per_Ardua
26.03.2026 04:55Вы шутите?
Там нет кода, только стопка exe файлов.
Думаю у нас разное понимание о том, что такое "следить за развитием проекта".

rsashka
26.03.2026 04:55Он сканирует уже известные сигнатуры и было бы предупреждение, если бы бинарь уже был заражен каким нибудь известным вирусом или трояном. Как Вирус-тотал может узнать о каком-то новом приложении, например, с бекдором?

Vadiara50
26.03.2026 04:55Имхо, выкладывать на хабр свою поделку с бекдором-чистое самоубийство для разраба... Не думаю, что автор настолько коварен)

rsashka
26.03.2026 04:55А в чем проблема? Это бизнес и если он приносит доход, то можно хоть каждый день регистрировать нового пользователя и писать для него статью и даже создавать публичные репозитории, якобы для аудита, а потом при распространении собирать бинарь с “дополнительными опциями”.

Agivanch
26.03.2026 04:55Поторопился с первым комментарием. Скачал приложение, посмотрел. Что могу сказать - мягко говоря - сыроватое и не хватает меню настроек к этому всему. Чего не хватает, конкретно мне, как потребителю для первого MVP:
Не вижу потребление ресурсов;
Не могу сменить модель через интерфейс;
Не могу выкачать диалоги в json;
Не понимаю, чем принципиально отличается от LMstudio с добавлением RAG интерфейсов с MCP серверами?

babikov Автор
26.03.2026 04:55Спасибо за отличный фидбэк!
Модели пока только переключение между версиями Qwen3 (в правом верхнем углу), вы правы надо добавить кастомизацию моделей.
Все json чатов хранятся в пользовательской папке doka.
Добавлю в следующей версии.
Stitch505
26.03.2026 04:55А насколько длинный диалог ии может помнить?
Это я к тому, что chat gpt начинает деградировать достаточно быстро от тяжелых запросов, а как обстоят дела с вашим товарищем?
babikov Автор
26.03.2026 04:55Дока работает полностью локально — вся история держится в памяти компьютера. При ~16 GB RAM это ~8–16 тысяч токенов (≈ 6–12 тысяч слов). Когда место заканчивается, приложение честно скажет об этом.

Grigo52
26.03.2026 04:55Ничем не отличается. Это просто урезанная версия существующих опенсорсных комбайнов, где за пользователя жестко захардкодили выбор одной модели, чтобы он не запутался в настройках

deadmoroz14
26.03.2026 04:55Хорошая работа.
Подскажите, когда будет релиз второй версии?

babikov Автор
26.03.2026 04:55Дока 2 пока впереди )! А небольшие обновления будут в течении недели.

Kenya-West
26.03.2026 04:55Дока 2
Без вытаскивания кишков десять минут релиз не будет засчитан! /s

babikov Автор
26.03.2026 04:55Выпущу спец версию ты либо убиваешь зомби, либо ты и есть зомби! И там можно выворачивать кишки по 10 минут!

Daniil_Gusev
26.03.2026 04:55Модель скачивается автоматически при первом запуске, приложение само выбирает подходящую под ваше железо.
Мягко говоря, странное решение, если вы на технически подкованную аудиторию нацелились.

MAT-POC
26.03.2026 04:55Для технически подкованной есть LM Studio. Эта аскетичная версия как раз для гуманитариев и чайников, где за тебя подумал специалист.

antytoto
26.03.2026 04:55Вы молодец, что сделали свой проект, уверен, он многим поможет. Раньше мы с командой уточняли: «дока» — это про документацию, или про «Доку» как проект онлайн-энциклопедии — теперь будем разбавлять вариантом про AI

Toolza
26.03.2026 04:55Круто получилось, но странно почему разработчик не сделал версию для линукс, только для операционок которыми пользуются обычные юзеры.

rsashka
26.03.2026 04:55только для операционок которыми пользуются обычные юзеры.
Потому что обычные пользователи меньше задаются вопросом, что в реальности делает скачанное приложение с полным доступом к компьютеру пользователя и интернету.

Grigo52
26.03.2026 04:55Обычные юзеры на винде эт как раз те люди, которые скачают exe файл по ссылке с хабра, отключат дефендер и радостно установят себе троян

Axelaredz
26.03.2026 04:55Тут всё просто, тем кто пользуется Linux это не нужно)
У нас и так полно подобных агентов и тому подобных тулз, плюс каждый, уже сделал своего)

MAT-POC
26.03.2026 04:55Отличная, работа! Всё сделано руками и очень круто! Ничего лишнего. Я не знаю на сколько тяжело поменять LLM сеть, но если будет возможность добавьте туда qwen 3.5 9b и Гигачат 3,1 Лайт они по качеству примерно одинаковые на карте с 8 Гб в LM Студии работают нормально. Гигачат 3,1 - заметно быстрее Qwen 3.5.
https://habr.com/ru/companies/sberbank/articles/1014146/ - вот обсуждение Гигачата.
Можно добавить к списку загружаемых файлов MD ?

Dron76
26.03.2026 04:55В чем отличие от perplexica ( не путать с perplexity) и open webui подключенных к бекенду в виде тех же lmstudio и ollama?

babikov Автор
26.03.2026 04:55Ну это больше для пользователей, которые не смогут такое сделать.

willDJ
26.03.2026 04:55Пишет пользователь чайник. На моем ноутбуке не увидел установленного хрома написал, что нужно установить. не удалось вобщем попробовать

babikov Автор
26.03.2026 04:55Буду решать в ближайшей версии

SSDS
26.03.2026 04:55ни разу не кодер, хотел попробовать, но у меня вообще эдж по умолчанию стоит. можно чтобы и его поддерживал?
а то на любой вопрос модель сейчас у меня выдает "попробуй еще раз". вообще на всё и на высоком качестве и на среднем.
+еще момент. когда удаляешь "новый чат" то потом строка ввода и отправки сообщений недоступна становится

MAT-POC
26.03.2026 04:551. иногда он долго ищет, пользователь передумал - желательно прерывать это занятие по клавише Esc
Он пишет что не может открыть браузер. EУ вас вроде написано что "открывает браузер заполняет формы" ...
Как Вы считаете локальные модели уровня Qwen 3.5 9b / GigaChat-3.1 Lite 10B могут нормально работать с аналогами openclaw ?

babikov Автор
26.03.2026 04:55Ок, учту этот момент.
Браузер открывается в headless варианте, скорее всего на компьтере не стоит хром. В дальнейшем плаировал использовать другой браузерный движок.
Насчет этих моделей не могу сказать точно так как не тестировал.

VO_Obsidian
26.03.2026 04:55Хотелось бы сравнение с той же LM Studio. Чем это решение отличается? Чем лучше?

AndyRom0
26.03.2026 04:55На вин7 не запустилось, пишет - не является приложением win32, хотя система 64бит. При первоначальном запуске и попытке отладки - необработанное исключение win32 в [9200...

Kovurr
26.03.2026 04:55Win7 вышла 17 лет назад, на ней современный софт чаще не работает, чем наоборот. Выбросьте ее и ставьте 10-ку.

Alex-ok
26.03.2026 04:55Все что у вас перечислено в разделе ‘Что я делаю с Докой каждый день’ можно сделать в том же бесплатном и доступном без впн дипсике, и без всяких плясок с бубном. Другое дело локальная работа с файлами и фоновые задачи. Так что ждем, держите в курсе!

lgorSL
26.03.2026 04:55Из моделей ещё интересная GLM-flash - она чуть побольше, но с экспертами, и из-за этого работает сильно шустрее. На видеокарте 4080 я видел скорость генерации больше ста токенов в секунду.

ris58h
26.03.2026 04:55про то чего не хватает
На лэндинге ничего не увидел про системные требования. Простыми словами: сколько оперативки надо и сколько диска?

Croakerx64
26.03.2026 04:55А на гитхаб есть планы выложить в виде опенсорса?
Это было бы очень полезно даже в плане изучения

valera_efremov
26.03.2026 04:55Присоединяюсь к вопросам выше - какое потребление ОЗУ и какая минимальная видеокарта? Обязательно иметь rtx 5090?
Для "вайбкодинга" подходит?

413x
26.03.2026 04:55Проект полезный, пригодится, есть схожий проект Jan, тоже в эту сторону смотрит. LM-Studio визуально перегружен. Если получится добавляться последние фишки, сделать каталог нейросетей последних, мониторить их улучшения (поднимать в рейтинге те что выше процент, качественнее, сделать категории - кодинг, общее, распознавание фото?...). У Jan вечно какие-то протухшие модели в каталог. Опять же были какие-то хитрости, чтобы запускать модели на видеокарте, расширять память и прочее, можно тож внедрить включение условно галочкой в настройках.
Еще интереснее было бы двигаться в сторону опенсорса (тупо больше интереса будет к проекту и популярности) и сделать систему пожертвований, чтобы подогревало дополнительный интерес.
Успехов с проектом.
babikov Автор
26.03.2026 04:55Спасибо очень приятно такое слышать, насчет каталога нейронок отличная идея, а вот Jan не видел надо будет глянуть.

normal
26.03.2026 04:55да вроде Jan тоже бодро обновляется -- так и из HF там можно сразу модели тянуть (внутри самого Jan) - и еще у них фишка - своя легкая моделька для тулинга под десктоп задачи - которая может вызывать "тяжелые" llm (хоть локальные, хоть по апи внешние). такого пока ни у кого нет.

Grigo52
26.03.2026 04:55Такой программист момент
Вместо того чтобы взять готовый lm studio или gpt4all, человек тратит выходные на написание своего велосипеда с урезанным функционалом, а потом пытается выдать это за продукт для массового юзера

Partizan_v_kedah
26.03.2026 04:55Скачал, но так запустить и не удалось. Пытаюсь задать простой вопрос, пишет "попробуй позже" и потом уходит в постоянную загрузку "подготавливают окружение".
На втором ноуте почему то вообще не запустилось, там ошибка уже на стороне windows. Хотя на обоих ПК win10 стоит, с одной и той же флешки

Ufo28
26.03.2026 04:55А можно клиент-серверный вариант?
На одном компе с видеокартой (желательно чтоб linux поддерживался) запускается модель, а потом на всяких лёгких ноутбуках можно подключать клиент, который будет её использовать?
Bluewolf
26.03.2026 04:55Можно, вам потребуются бесплатные и популярные ollama или llama.cpp и opencode. Настройка и так проста, но может быть выполнена любым уже работающим агентом.

SlavaVSLK
26.03.2026 04:55Я может чего-то не понимаю, а в чем отличие от того же lm studio, в который можно добавлять тулзы и мцп при необходимости? Хочешь кодинг агента, включил lm server подкинул в ide через расширение и гоняй его там сколько влезет. В чем фишка, объясните пожалуйста?

Bluewolf
26.03.2026 04:55Фишки нет, подобное пишется claude целиком вместе с сайтом за час, а сайт с каким-никаким трафиком и аккаунт хабра - не лишние) Да и без них - прикольно же
Правка 8, правка 10...



StjarnornasFred
26.03.2026 04:55Полезная идея и похвальное начинание! Поставил на рабочий моноблок (i5-1135G7, 16/1024, встройка). И сразу "но"...
1) Непонятно, какой "движок" скачивается и работает. По разговору с Докой я понял, что это какой-то обрезок Qwen, который свою версию назвать не смог. Стоит добавить как минимум самоинформацию, а лучше - выбор.
2) работает оооочень медленно. Долго думает, прежде чем ответить на простейший запрос типа "открой сайт ya.ru"
3) вообще не умеет взаимодействовать с установленными программами. Попросил запустить блокнот - Дока, долго подумав, отказалась, сославшись, что не умеет.
4) глуповат в текстовом чате. Отвечает лаконично и с массой ошибок в русском языке.
Надеюсь, что это всё детские болезни - первая версия, многого не ждёшь. Верю в светлое будущее и обновления!

lightman
26.03.2026 04:552) работает оооочень медленно.
Насколько я понимаю, нейросети на процах работают медленно by design и ничего с этим не сделаешь. Лучше иметь дискретную видеокарту с большим количеством видеопамяти, причём желательно с объёмом, который в потребительские видеокарты даже не ставят (не зря все эти истории про то, как покупают Nvidia 4090 и отдают в мастерскую для перепайки чипов памяти на больший объём).
Так что "ChatGPT на компьютере" с такой же скоростью и качеством ответов, боюсь, начинается от вложения нескольких сотен тысяч рублей.

durnoy
26.03.2026 04:55Вы в начале статьи привели в пример
Cursor, Claude Code, Copilot
которые на разработку ориентированы, а потом раз -- и сделали ассистента, который ходит по интернету.
я видел в конце статьи про планы сделать работу с локальными файлами, но все равно это немного другая цель по сравнению с, скажем, Claude.

IgVlB
26.03.2026 04:55На взгляд "массового user-а" такой инструмент в современных условиях очень нужен и будет востребован.
Часто приходится быть именно массовым user-ом, которому для решения текущей задачи быстро нужен простой инструмент, и на всё остальное (типа бесконечных смен VPN, затей с lm studio, и др.) времени просто нет, и точно не будет. Приоритеты не те.
Doka на Win-11 (4070Ti-Super) установился без проблем. Отвечает с задержкой, но терпимо.
На мой взгляд не хватает режима "perplexity", когда нужны ссылки на источники, послужившие информацией для ответа.

ash_lm
26.03.2026 04:55Никогда babikov не был так близок к провалу, как в тот день, когда он выложил своё приложение на Хабре. Ничто не выдавало в нём разведчика - ни отсутствие исходников, ни закрытый код, ни просьба "просто доверьтесь".

puzzin
26.03.2026 04:55Ничего не ясно из статьи.. Что под капотом? Какая модель? ollama qwen3.5-9b ? Но эта модель туповата и при высоких полномочиях наворотит дел. И в чем отличие от openclaw (кроме гораздо более урезанного функционала) ? Или под капотом openclaw? )) Действительно зачем велосипед?

NoiseOfrain
26.03.2026 04:55А чем OpenCode не устроил? Работает без ВПН, встроенных нейронов хватает для 90% типовых задач.

Zod4y
26.03.2026 04:55Что-то не хочет работать.
Установилась, скачала модель, на любой запрос отвечает "Попробуй еще раз".
Использовал качество модели высокое , среднее, низкое.
Результат одинаковый "Попробуй еще раз"
Платформа i5/16gb/256gb/RTX3050/Win10.

Aerofreak
26.03.2026 04:55
Пытаюсь запустить но что-то не запускается ваше творение))))
В чем может быть проблемы?

DimonVideo
26.03.2026 04:55спасибо за труды, но сыровато - попросил сгенерировать статью на 3т символов по заданному описанию (qwen такое как семечки щелкает), думала минут 6 (32Гб ОЗУ, Ultra 7 258v), но потом начала писать и в цикл вошла, все пишет и пишет по десятому разу без остановки одно и тоже (дописывает до конца и заново этот же текст начинает). После закрытия - в истории пусто. Ждем обновлений

sirius621
26.03.2026 04:55Windows 11. После установки "Доки" исчез браузер Chrome, осталаль только папка с некоторыми файлами. Переустановил Chrome, пока все работает.

sirius621
26.03.2026 04:55С помощью ChatGPT потестил на решение разных задач на логику, сложную грамматику английского языка, работу с текстовым файлом на обзор содержимого и прочее. От модели "средняя" и выше все ответы на отлично. Думает в зависимости от сложности от 2 до 7 минут. На ноутбуке стоит i7, 16 Gb оперативная, Windows 11, опция энергопотребления "оптимальный уровень". По сравнению с моделями, которые устанавливал на Ollama и GPT4All (8b) общее впечатление на несколько порядков выше.

Zod4y
26.03.2026 04:55Нашел в логах сервера:
[2026-03-26T15:22:03.203Z] [llm] loading model from C:\Users\Admin.doka\models\high.gguf
[2026-03-26T15:22:03.203Z] [llm] loading via bridge: C:\Ai_Doka\resources\app.asar.unpacked\server-dist\load-llama.js [2026-03-26T15:22:03.817Z] [llm] bridge loaded ok, calling getLlama()…
[2026-03-26T15:22:04.580Z] [llm] initLlm FAILED: Error: NoBinaryFoundError
at getLlamaForOptions (file:///C:/Ai_Doka/resources/app.asar.unpacked/node_modules/node-llama-cpp/dist/bindings/getLlama.js:286:15)
at async initLlm (C:\Ai_Doka\resources\app.asar.unpacked\server-dist\index.jsc:1:1872287)
at async ensureInit (C:\Ai_Doka\resources\app.asar.unpacked\server-dist\index.jsc:1:1872975)
at async ollamaChat (C:\Ai_Doka\resources\app.asar.unpacked\server-dist\index.jsc:1:1876157)
at async runLoop (C:\AiDoka\resources\app.asar.unpacked\server-dist\index.jsc:1:1949132)
Чего-то не хватает Доке для нормальной работы.
babikov Автор
26.03.2026 04:55Тут два варианта
1. Нет Visual C++ Redistributable 2022 Лечится установкой VC++ Redist x64.
2. Старый CPU без AVX2 (самое вероятное)

FGMPN
26.03.2026 04:55В целом идея хорошая, спасибо автору! Потестирую для простеньких задач на рабочем компе. Есть куда развивать проект, многое уже написали... коментарии объективные. Надеюсь вторая версия покажет себя)

Kotcha
26.03.2026 04:55Скачал, буду пробовать на Маке, спасибо! Подскажите, как правильно удалить аппку, если возникнет такая потребность? Вижу, что в Applications приложение весит всего 300 Mb, но перед первым запуском скачивались куда-то гигабайты. Где теперь это найти и как корректно все удалить?

babikov Автор
26.03.2026 04:55В папке пользователя есть папка doka там лежат скаченные модели, удалите эту папку тоже.

dimwap
26.03.2026 04:55Вот, на все эти вопросы, ответы пользователю должна давать сама модель. А она не знает о себе ничего. Ни где лежат логи, ни где лежат модели. А должна знать, хотя бы в режиме RAG, пусть не сразу из системного промпта. Или отдельная справочная система должна быть. Ладно, файл help.

snakedr
26.03.2026 04:55Похвально, что не ждете и делаете, но:
1. Нет исходников на GitHub.
2. Нет версии для Linux (Debian, Ubuntu & etc).
3. Настройки пользователя неплохо бы расширить в части выбора моделей и добавления URL & API.
4. Chrome по умолчанию это минус.
Ждем развитие проекта, с учетом пожеланий сообщества.




winkyBrain
в 100500 раз!! главное в конце добавить, что это "реальные цифры от реальных людей", для большей убедительности) все ваши заявления про "без впн, без облака" и прочее тоже пустые слова, без ссылки на репу
JohnWang
Там очень сильно зависит от характера задач. Если ты условный сеньор пишущий уникальный не имеющий аналогов код с уникальным функционалом - наверное, не сильно скорость выросла.
Если ты условный миддл на типовых мелких задачках - то и в 3 раза могла вырасти.
Если ты как я не кодер, до лида вырос из QA и твой потолок - читать чужое то возможность спросить чатгпт или дикпика и не дёргать по каждой фигне того самого сеньора - вообще бесценна.
daktfi
Даже банальный бесплатный чат - уже помогает, ибо получается офигенский справочник по всякому разному. Типа, "а как бы мне закатить Солнце вручную, да чтобы на свежеизобретённом велосипеде?" - а она в ответ, мол, есть либа такая и либа сякая, а в стандарте написано то и это. И уже на этой волне спокойно идёшь на тот же cppreference или истчо куды.
HMNIJP
1. Определите тип привода
Как именно ваше изобретение взаимодействует с небесным светилом?
Гравитационный зацеп: Ваш велосипед настолько массивен, что создает собственное поле, «подцепляя» Солнце за край короны и утягивая его за горизонт при нажатии на педали.
Оптический редуктор: Велосипед оснащен системой линз, которые преломляют свет так, что для наблюдателя закат происходит ровно в такт вашему вращению педалей.
Метафизическая цепь: Вы набрасываете цепь прямо на солнечный диск (осторожно, используйте жаропрочную смазку!).
...
Rubilnik
Типичный пример оборота из нейрослопового текста.
yarovikov
Я вчера убил 2 часа рабочего времени, исправляя казалось бы простой пропущенный мню косяк (cloude opus 4.6). Чтобы не убить еще больше времени, пришлось прямыми запросами базы править.
daktfi
Ну вот я вполне себе программист на плюсах со стажем, опытом и квалификацией. Поручить те же юнит-тесты нейронке (только сначала дать ей ТЗ, а потом по рукам и по жопе, когда косячит) - реально кратное ускорение работы. 5 минут на ТЗ, 10 минут она там что-то колбасит, ещё 5 минут проверить за ней и ещё 5 минут на исправления. Самому тот же тест писать - час, и ещё не факт, при копипасте не зевнёшь какую-нибудь ерунду. "Возьми вот этот метод и сделай такой же, только с перламутровыми пуговицами" - та же история (ну, смотря какой метод, конечно). Какие-нибудь радикальные потрахушки с тем же грпц "а вот перепиши мне эти методы с CQ на колбэки... не, кака вышла, верни взад, только вот и там поменяй Х на У", при том что сам я с этого грпц пухну и зверею - уже одно это дорогого стоит.
Словом, про два раза не знаю, очень сильно зависит от текущих задач и от кода, но туеву хучу нудной рутины на неё спихнуть - как два байта переслать за одну посылку. И при этом пока она ломает один кусок кода - я спокойно роюсь в другом одновременно.