Я все чаще и чаще встречаю такие истории разработчиков:
попробовал AI в начале 2025
попросил написать код, результат был так себе, выбросил
в итоге использует максимум AI автокомплит типа Github Copilot
Несколько месяцев назад дал второй шанс AI и установил Claude Code
Сильное заявление, но это так. Будущее уже наступило: разработка больше не будет такой, как в 2024.
В этой статье я расскажу, как устроены AI Coding Agents (Claude Code, OpenAI Codex, Opencode и др), как правильно ими пользоваться и как потратить $20 так, чтобы не уволили в 2026.
Кто я такой
Меня зовут Даниил Охлопков и я Analytics Lead в TON Foundation. Пилю свои петпроекты с AI и рассказываю об этом в своем тг канале.
Что такое AI Agent
Все мы знаем, что такое LLM и ChatGPT, но чем это отличается от эйай кодинг эйджент типа курсора, клод кода, чатгпт кодекс и их опенсорс аналогов типа opencode? Как построить своего кодинг агента дома?
Если раньше ра��работчиков на собеседованиях спрашивали вопросы типа «что такое Primary Key», то сейчас просят запрогать своего агента.
Любой агент — это просто while true цикл, который берет твой ввод и «продолжает» его с помощью LLM. Если в ответе есть запрос на вызов инструмента (tool), то вызываем и результат отправляем обратно в llm. Repeat.

Почему стоит попробовать именно Claude Code? Потому что
он работает локально на твоем компьютере (улетают только запросы в ллм)
очень быстрый (насколько это возможно с учетом параллелизации)
из коробки есть все нужные тебе инструменты (bash, интернет поиск, контроль браузера)
Многие считают, что в целом, модель умнее Opus-4.5 уже необязательна. Но прогресс не остановить: чем удивит нас 2026?
Флоу работы с AI агентами на начало 2026
У многих схема работы с AI инструментами была такая: просишь ChatGPT набросать кусок — копируешь к себе в код. Или просишь Cursor пофиксить багу — он пишет много и не то, что надо. С начала 2025 всё по-другому.
Самый результативный флоу с AI агентами (Claude Code, ChatGPT Codex, Amp, Cursor и др) на начало 2026 года выглядит таким образом:
Шаг 1: Обсуждение идеи
Описываешь то, что хочешь сделать (добавить функционал, пофиксить багу, написать статью, сделать рисерч всего интернета), и добавляешь: "Давай обсудим идею". AI бегает по текущим файлам проекта, догадывается, что и где нужно сделать, задает уточняющие вопросы, бегает по интернету за деталями.
Шаг 2: План реализации
Когда вместе обсудили верхнеуровнево задачу, просишь написать детальный план реализации (в Claude Code это просто Shift+Tab -> переход в Plan Mode). Бегло проверяешь то, что он собирается сделать, вносишь правки.
С временем наберешься опыта сразу формулировать мысль нужным образом — и правок в плане становится все меньше и меньше.
Шаг 3: Выполнение
Запускаешь нового агента выполнять расписанный план и провести тестирование. Здесь же можно попросить сделать PR, где еще один CI агент проведет доп проверку, добавить и провести unit и e2e тесты, задеплоить, обновить документацию и написать маме, что любишь ее.
Лайфхак: чем атомарнее задача, тем выше шанс сделать идеально с 1го раза. Прямо как в жизни, да? Зачастую очень хочется перечислить в 1 промпт сразу все найденные баги — иногда это сработает, но для надежности лучше по очереди. С опытом вы научитесь формулировать задачи так, чтобы они выполнялись сразу же. Также можно обвесить агента плагинами (например, автоматизацию браузера или telegram‑mcp) для интеграционных тестов или других автоматизаций рутины.
Управление контекстом LLM: спецификации
Чтобы LLM выдал годный ответ, нужно рассказать как можно подробнее о задаче и о проекте. Появляется естественное желание общаться «в одном чате», чтобы история сохранялась. Я сам ловил себя на такой мысли. Но все, кто так делал, замечали, что модель начинает сильно глупить после долгих обсуждений. Это одна из самых частых причин, почему люди бросают это дело и возвращаются прогать по‑старому.
В память (контекст) модели помимо вашего промпта загружаются системные инструкции (промпты) от производителя модели, от самого AI Agent, от твоих плагинов, сам твой запрос и вся последующая история, включая прочитанные файлы и вызовы инструментов. Если установить кучу MCP серверов, то под саму полезную работу места может не остаться. Современные агенты умеют сжимать историю, что освобождает место в памяти и позволяет продолжить работать, но качество при этом сильно падает.
Решение: вести спецификацию проекта — текстовое описание, что как где лежит, как работает, как тестить, как деплоить и тп. Но не в одном большом файле, а в собственной документации из кучи маленьких файлов, не забывая оставлять ссылки между ними, чтобы модель могла прочитать нужную для задачи информацию.
Если возводить работу с агентами в абсолют, то спецификации — это единственное, что нужно читать и редактировать: при правильном описании спеки можно просто попросить агента написать план реализации и после реализовать его шаг за шагом (используя технику Ralph Wiggum, названную в честь пацана из Симпсонов). Но все может измениться уже через полгода, когда агенты начнут сами писать за нас спецификацию и лучше понимать, что же на самом деле мы хотели сказать.
Мой AI сетап начала 2026: Голосовухи через Телеграм
Если вы вкусили мощь Claude Code CLI, в вас просыпается творец и экспериментатор. Но блин, иногда приходится отходить от компуктера — как же быть?
Мне очень нравится ChatGPT из‑за возможности нажать на микрофончик, записать подкаст минут на 5-10, рассказывая, что же на самом деле я хочу сделать. Скорость передачи энтропии голосом быстрее, чем печатать (но медленее чем чип в мозге лол) — и я хочу пользоваться этим дальше.
На своем ноутбуке у меня есть папочка с проектами и папочка с моим Obsidian Vault, куда я записываю идеи, мысли, переживания, наблюдения, черновики статей и тп.
В этой папке я запускаю takopi — бесплатный опенсорсный инструмент, который позволяет общаться с Claude Code или любыми другими агентами с интерфейсом в терминале) через личный Telegram Bot (расшифровка голосовых через OpenAI Whisper API). Можно настроить чат‑форум в тг, где один подчат — один проект на компе. Все лучше, чем из одной папки управлять всеми проектами — не грузим лишнее в контекст, помним?
И вот сегодня утром во мне проснулась романтика сходить за завтраком в постель, а сам по пути надиктовывал фрагменты этой статьи, хе‑хе.
Продано! С чего начать?
Я сам долгое время просто читал про AI, про новые открытия, возможности и хейт от того, что у кого‑то не получилось сделать что‑то. Это все бесполезно, если вы не проверяете это все сами. Если вы ждали знак, какую же нейронку купить, вот он: начните с Claude Code от Anthropic. Возьмите тариф за $20, скачайте Claude Code CLI и запустите в любом проекте. Он сам расскажет, с чего можно начать.
И начните экспериментировать, общаться с моделью. Скормите ему простенькую задачу и посмотрите, что он будет делать. Он будет задавать уточняющие вопросы и запрашивать различные доступы по ходу дела.
Придумайте себе проект сами! Я решил перенести Block Blast (топ-2 казуальная мобильная игра в 2025) в телеграм. За пару стримов вся игра готова с 100% покрытием unit и e2e тестами.
Себе я поставил цель такую:
$20 подписки мне перестало хватать почти сразу: чтобы не делились аккаунтами друг с другом, Anthropic добавили также дневные и недельные лимиты на использование агента. Где‑то после третьей большой фичи агент говорит: «вы исчерпали лимит, он сбросится через 2 часа». А если докидывать extra usage credits, то они выходят сильно дороже, чем подписка за $100/месяц.
В итоге мне надоело мучиться и я купил подписку за $100/месяц (все мои знакомые фуллтайм программисты сидят на нём) и поставил себе цель: потратить все доступные месячные кредиты. Нет лучше способа научиться пользоваться AI чем пользоваться AI.
Теперь, когда вы превратились из потребителя в производителя, — расширяйте кругозор, изучайте новые инструменты и практики. Например, подпишитесь в Твиттере на создателей любимых библиотек — они все уже давно прогают с AI.
Вместо заключения хочется процитировать создателя NodeJS (твит):
Эра пишущих код людей закончилась.
Инвестируйте в свое образование.
Комментарии (195)

vokrob
21.01.2026 10:29AI‑агенты не убивают профессию, они обнажают разницу между теми, кто учится формулировать задачу и строить спецификации, и теми, кто по‑прежнему копипастит куски кода без понимания.

satun
21.01.2026 10:29Они обнажают проблему, бизнес не хочет системных аналитиков держать, хотят посадить прогера и чтоб творил, а творить быстро он не может когда надо решать две проблемы одновременно (разбираться в мечтах бизнеса и формализовать их, а потом ещё и запрогать, потом им не понравилось и ещё раз по кругу) и тут у нас появился волшебный инструмент

Tishka17
21.01.2026 10:29с 100% покрытием unit и e2e тестами.
а можно посмотреть что за тесты там?
как насчет метрики покрытия тестами требований?

ohld Автор
21.01.2026 10:29Конечно можно -- он пишет код в папке у тебя на компьютере. Всегда можно открыть файлы и посмотреть. А если что-то не так -- сказать как сделать так

Tishka17
21.01.2026 10:29Открыл свой компьютер, не увидел там вашего кода Block Blast. Вы уверены, что именно так происходит демонстрация ваших результатов?

ZetaTetra
21.01.2026 10:29Ради интереса решил проверить на что способен GitHub CoPilot в Agent mode в написании тестов на покрытие кода (IDE: VS 2026 Professional v18.2.1):
https://github.com/DKorablin/NamedPipesProxy/actions/runs/21269659114
Из вводных:
-
Принципиально ни один код теста руками не трогал, исключение:
Добавил ко всем тестовым классам атрибут Timeout, дабы не скушать всё серверное время при дедлоке
-
Добавил к 3 тестам атрибут Ignore, они ушли в дедлок в обоих TFM:
ListenLoopAsync_ProcessesMessagesAndSendsResponses
ReceiveMessageAsync_ReadsMessageFromPipe
SendMessageAsync_WritesMessageToPipe
Тесты на каждый класс писал через промпт (Стандартный для CoPilot'а):
@Test Write unit tests for all the methods in #class
Итого:
Покрытие кода на 72% (Отчёт в атерфактах и в последнем степе)
CoPilot сдулся на дедлоках, на все предложения
/fix the code in #fileпредлагал левые идеи по типу увеличь/уменьш таймаут (Переключение движков - не помогло)Для экономии времни очень неплохо его использовать для первоначальной генерации тестов из коробки, последующие итерации лучше ревьюить, хотя-бы глазами по тестам пробежаться если AI в цикл не ушел во время исполнения.
Ещё пробовал на проекте поменьше писать прям "напиши тесты с полным покрытием кода" и там он всё сделал по шаблону с Moсk'ами и т.п., но там стандартное MVC приложение было. (Пруфов не будет)
-

gun_dose
21.01.2026 10:29в итоге использует максимум AI автокомплит типа Github Copilot
Тем временем в Github Copilot уже завезли полноценный агентский режим. Кто ещё не работал с агентами, я бы рекомендовал именно его, потому что не надо вылезать из своей IDE, время на настройку около одной минуты, и на бесплатном тарифе есть 50 запросов.

globin_write
21.01.2026 10:29Он хорош, сам пользовался долго, но условному Claude Code и Antigravity сильно проигрывает, как по скорости, так и по контексту. Ну, мой опыт такой.

gun_dose
21.01.2026 10:29Ну там во-первых можно удобно в контекст включать любые файлы проекта через автокомплит или прямо мышкой туда накидать из дерева. Во-вторых, он уже круто умеет собирать контекст сам. Например, по фразе "посмотри соседние имплементации этого метода" он сам находит родительский класс и всех его детей. Либо просто по имени класса из запроса находит, в какой папке этот класс лежит и читает его файл.
PS: Claude Code пока не пробовал. Пока ещё вижу, что из бесплатного копайлота можно много выжать

globin_write
21.01.2026 10:29У Antigravity есть бесплатный доступ с довольно лояльным лимитом по токенам.
Очень рекомендую попробовать. Не утверждаю, что что-то будет 100% лучше или хуже, но попробовать точно стоит

ohld Автор
21.01.2026 10:29Я бы очень советовал попробовать именно Claude Code CLI - вся статья именно про то, что "это другое". IDE я использую просто как удобный эксплорер файлов теперь.

gun_dose
21.01.2026 10:29Весь мой коммент о том, что агенты в IDE - это тоже другое и по сути то же самое, что Claude Code CLI

ohld Автор
21.01.2026 10:29Возможно, да. Но я был ярым непонимателем, как это можно с CLI прогать большие проекты, а потом попробовал и как понял.

Elaugaste
21.01.2026 10:29В теории, ide может более грамотно работать с контекстом. Потому что у нее в индексе есть все связи между фунциями, а cli вероятно этим не заморачивается и пихает в контекст файлы целиком.
Cli обертки в целом делают тоже самое что любые другие, просто им встроили тулы позволяющими вызывать произвольные команды в терминале вашего компудахтера, без лишнего гемора. В целом это просто встроенные mcp.
Ps. Gemini cli может все тоже самое, а gemini 3 pro имеет весьма солидный бесплатный лимит.

ohld Автор
21.01.2026 10:29Как раз про умную работу с контекстом написан целый параграф в статье -- про создание спецификаций -- много маленьких deeply cross-linked .md файлов. Личная дока, которая по факту занимает гораздо меньше контекста, а из-за линковки ллм читает только нужные файлы для текущей задачи, оставляя больше места в контексте под полезную работу.

Elaugaste
21.01.2026 10:29да, я видел этот замечательный параграф. Но думаю что код в много маленьких md не запихать. Тут нужен LSP, и вот он как раз позволит сэкономить уйму контекста потому что позволит нормально сращивать где что используется. Распихивание инфы в маленькие md не особо имеет смысл если для выполнения задачи модель все их прочитает.

samally
21.01.2026 10:29LSP для всего уже давно есть в ClaudeCode и OpenCode. Требует небольшой настройки иногда, но все связи и инспекции доступны моделям. Все кто зависли в IDE-only использовании просто не понимают чего лишены.

alexmasyukov
21.01.2026 10:29Нет, у cli еще куча обвесов инструментальных и много чего можно делать с контекстом + она запускает нативные ОС команды для разных целей + субагенты из коробки по одному запросу "используй субагентов", субагентов даже настраивать не нужно теперь.

gun_dose
21.01.2026 10:29у cli еще куча обвесов инструментальных и много чего можно делать с контекстом + она запускает нативные ОС команды для разных целей + субагенты из коробки по одному запросу "используй субагентов", субагентов даже настраивать не нужно теперь.
Так я и говорю - ничем не отличается от Copilot. Ничем.

JediPhilosopher
21.01.2026 10:29Copilot инструменты и команды тоже запускать умеет. Пользуюсь им и радуюсь. Честно скажу что с ним толку больше чем от джунов в нашей команде, пишет временами такую же дичь, но только за пять минут, а не за день. В итоге цикл "разработка-ревью-правки-ревью-готово" занимает минуты и часы, а не дни и недели.

atkrv
21.01.2026 10:29А чем условный Claude Code CLI за $20/мес. отличается от, к примеру, OpenCode CLI с подключенным GitHub Copilot Pro за $100/год? И там, и там есть
claude-opus-4.5.Просто уже несколько раз слышал, мол "да-да, GH Copilot хорошо, но вот Claude Code вообще на голову лучше!".
Не очень понимаю преимущества, помимо того, что у CC ты получаешь ~45 запросов в день, а у GH Copilot Pro - 300 запросов на месяц.

alexmasyukov
21.01.2026 10:2945 запросов в день - откуда эта бредовая информация?
Не моделью единой ценен CLI инструмент, а чтобы понять почему - попробуйте.
atkrv
21.01.2026 10:29Из документации - https://support.claude.com/en/articles/8324991-about-claude-s-pro-plan-usage#h_22b1d5664b.
Только я забыл, что там не в день, а за 5 часов. Давненько туда смотрел.
Вот об этом и был вопрос - есть ли какая-либо практическая разница. Хотелось это выяснить без покупки второй подписки, если честно.

alexmasyukov
21.01.2026 10:29Если бы он мне давал сделать только 45 запросов за 5 часов, он бы давно был в черном списке.

alexmasyukov
21.01.2026 10:29Claude Code в cli режиме делает все вами перечисленное и еще плюс вагон и тележка функционала. А про "он сам находит родительский класс и всех его детей" – то с начала времен есть. Сейчас мало класс найти и родителей, сейчас инструменты еще смотрят что вокруг происходит, где класс задействован, вообще как работает проект и иерархию архитектуры.
Класс и родителя - это 23-й год по возможностям.
gun_dose
21.01.2026 10:29Так и в копайлоте агент всё это делает. И вагон, и тележку, и импорты класса по проекту ищет, и контроль стандартов кода запустит именно той командой, которая настроена в проекте, и пофиксит все, а потом повторно запустит проверки. И кастомные инструкции там есть. И MCP-сервера какие хочешь. И всё это не отходя от уютной IDE, да ещё и бесплатно. Более того, он диффы всех правок показывает прямо в редакторе, каждый фрагмент можно принять или отклонить или исправить прямо по месту.

alexmasyukov
21.01.2026 10:29Диффы всех правок показывает прямо в редакторе - идентично клод коду, если вы терминал запустили в своей IDE, он же подключается к ней.
Недавняя проблема решенная только у Claude Code - MCP теперь не забивает контест (не ест токены изначально), буквально на днях апдейт вышел.
Импорты по проекту - это база любого инструмента, это не показатель. Показатель, когда я могу комплексно написать бек с gql + go + kafka + postgres + кубер + упаковать + сделать дев/прод поддомены. И все это без ручного участия. Это я не в тему вайб-кодинга, это в тему возможности инсрумента и его лучших моделей.
Или с нуля написать iOS и WatchOS приложение компаньон, с синхронизацией между ними, у каждого своя sql бд, и все это без ручных движений, он же сделает тест и запуск и напишет тесты, и проверит что там добавилось в бд и правильно ли работает синхронизация и т.п.
Как пользовавшийся Github Copilot с начала его существования в 2023-м на подписке 20$, и полностью перешедний на Claude Code cli за 100$ в апреле 2025-го говорю. На личном опыте.
Github Copilot рядом не стоял по возможностям.P.S. Пишу код с 2005-го года. То, что может клод код начиная с мая 2025-го поражает. А то, что он может делать с декабря 2025-го просто сносит голову.

gun_dose
21.01.2026 10:29Как пользовавшийся Github Copilot с начала его существования в 2023-м на подписке 20$, и полностью перешедний на Claude Code cli за 100$ в апреле 2025-го говорю.
Я в августе 2025 писал тут на Хабре комментарии, что копайлот отстой. Потому что так и было. Использовал его только для самых примитивных задач, потому что в сложных он лажал. Но где-то в середине осени после очередного обновления копайлот в агентском режиме буквально творит чудеса. Я не говорю, что он как агент лучше Клода. Я говорю, что агентский режим у него абсолютно полноценный, и если он в чём-то уступает лидерам рынка, то это отрыв на десятки процентов, а не в разы. И тем, кто делает только первые шаги в агентской разработке, эта разница вообще не будет видна

alexmasyukov
21.01.2026 10:29Попробуйсте Codex/Claude Code, вы уже как опытный в этом направлении оцените, факт. Только на Opus за 20$ вы много не наработаете. Но при этом на Codex за 20$ на 5.2 high (приравнивается к Opus, но медленнее раз в 8) наработаете хорошо, там лимиты выше.
На что мне хватает: на роботе 2 проекта суммарно 300к строк. Личные 9 приложений (фронт, бек, 6 приложений на iOS + watch и 2 на Kotlin + 1 для MacOS). + Работа по серверу.
У меня сейчас комплекс:Chatgpt 5.2 thinking продумаваю систему (системный дизайн) (20$),
Claude Code (cli) Opus 4.5 with thinking (100$) - тех. задание по сис. дизайну + планирование + разработка + рефактрониг.
Codex 5.2 high (за ранее уплаченные 20$ за чатгпт) - сбор информации и тех. задание для рефакторинга. Он очень хорошо определеяет мелкие проблемы, которые пропускает Opus как "неважные прямо сейчас, но важные для третьей сессии рефакторинга, когда очень важные и важные проблемы будут закрыты". И прекрасно определяет узкие места как в дизайне системы, так и в коде, на будущее в том числе.

gun_dose
21.01.2026 10:29Занятный факт: мне большая часть из этого не нужна, т.к. тз продумывает менеджер, а дизайн дизайнер. Но при этом менеджеры в качестве эксперимента уже второй спринт описания задач делают через ИИ)) вероятно, суммарно получится что-то вроде вашего варианта, только распределено на несколько человек.

samally
21.01.2026 10:29Более того, все модели в Github Copilot ограничены контекстом в 128K токенов, вместо полных 200K или 400K. Что сразу лимитирует качество решений, плюс ни в одном официальном интерфейсе Github Copilot пока нет субагентов. При этом я использую эту подписку (вместе с многими остальными) внутри OpenCode и там выжимаю из неё максимум. Тоже небо и земля разница.
Для OpenCode ещё есть плагин dynamic-context-pruning — сильно увеличивает эффективность использования контекста и позволяет обходиться сократить суммаризации даже на обрезанном контексте в подписке на GitHub Copilot. GitHub Copilot и Antigravity списывают квоту за каждый "новый" запрос, поэтому чем дольше попадаешь в кэш, тем меньше списаний.

fogster01
21.01.2026 10:29Claude тоже в IDE - открываешь в ide еще один таб с консолью и пишешь claude. В итоге тоже самое

gun_dose
21.01.2026 10:29Ну это понятно. Я к тому, что если пишешь код руками, то через IDE-шный плагин познакомиться с агентами проще и быстрее. Так как плагин поставить быстрее, чем Claude. А в джетбрейновских IDE вообще по умолчанию уже установлены Junie Agent и Claude Agent. Просто бери и пользуйся. Кроме того, в IDE каждый изменённый фрагмент подсвечивается отдельно, что даёт возможность сделать полное ревью всех правок прямо в редакторе.

alexmasyukov
21.01.2026 10:29Claude Code есть и в виде IDE плагина, с ноября 2025-го.
Даже для Excel есть (крышесносная вещь), и для Chrome.

MountainGoat
21.01.2026 10:29Я бы рекомендовал выключить его нахрен, поставить Roo Code и продолжать не вылезать из IDE. У Copilot оплачивать из РФ сложнее, условия плохие, и главное - вообще никак не переехать на другого поставщика моделей.

Antra
21.01.2026 10:29Claude Code идеально работает с Z.AI GLM-4.7 ($36 за первый год с очень жирными лимитами)

gun_dose
21.01.2026 10:29Copilot оплачивать из РФ сложнее
Так там бесплатный тариф есть. Не пробный период, а именно тариф, на котором можно сидеть бесконечно. Понятно, что с его квотами особо не разгуляешься, но опять таки для знакомства с агентской разработкой этого вполне достаточно

alexmasyukov
21.01.2026 10:29МТС специальный сервис сделал, чтобы рублями платить за такие подписки могли.

exeonid
21.01.2026 10:29у МТС комиссия под 30%, как-то слишком дохрена. Проще купить аккаунт на маркете

globin_write
21.01.2026 10:29Меня вообще чутка смущает эта ситуация с агентами. Выглядит так, как будто лет через 5 чтобы быть конкурентоспособным программистом нужно тратить нормальные такие деньги на токены. Потому что иначе сильно отстанешь в скорости и проиграешь тем, кто агенты активно юзает.

ohld Автор
21.01.2026 10:29Возможно, так и будет, да. Дешевле платить зп 1 человеку + $100/месяц на токены, чем N людям.

fogster01
21.01.2026 10:29Дешевле платить зп 1 человеку + $100/месяц на токены, чем N людям
Скорее всего дешевле не только узком смысле ЗП, но быстрее и в каких-то случаях эффективнее, т.к. не нужно: менеджерить команду, иметь рабочие места/технику, париться с наймом, решать межличностные конфликты и тд.
+ ко всему помним древнее правило в ИТ на количество людей. После какого-то значения эффективность команды не растет, а только падает.
ohld Автор
21.01.2026 10:29Очень надеюсь, что при этом у LLM Operators, после увольнения кадров, зп все-таки повысится, а не останется такой же. Хотя есть у меня в этом сомнения.

Alexandroppolus
21.01.2026 10:29"Оперировать LLM" смогут непосредственно аналитики, которые сейчас излагают требования программистам. На моей прошлой работе аналитики умели в sql-запросы, думаю это посложнее чем промты. Да и самих аналитиков ИИ может заменить. И в любом случае будет гораздо больше претендентов на место - не все уволенные программисты уйдут из разработки, плюс вкатятся новые, которые не могли вкатиться из-за неумения программировать. Так что о каком повышении зарплаты можно говорить, непонятно. Постановка задач для ИИ на естественном языки - это не какой-то сложный навык (чем умнее будет ИИ, тем проще это делать).
В общем, перспективы довольно мрачные..

Elaugaste
21.01.2026 10:29Ну чего сразу мрачные, был разрабом, значит знаешь как делать чтобы было хорошо.
Даже если самому не писать, кто-то должен думать над архитектурой, тем как оно будет работать, где оно будет жить, как масштабироваться, как обеспечиваться отказоустойчивость. Про все эти мелочи кто-то должен думать, роботы хоть и могут все это обеспечить, их как минимум надо носом ткнуть. Короче нормально все будет, просто разрабы становятся менеджерами над роботами. Ну и никто не отменял ревью.
Alexandroppolus
21.01.2026 10:29У всего перечисленного есть своя теория, свои наработанные бестпрактисы, устаканившиеся подходы и т.д. То есть в большинстве случаев "ии" сможет потянуть и это, кроме относительно нечастых специфических кейсов. К тому же пока непонятно, где потолок возможностей у нейронок.

Calculater
21.01.2026 10:29О, тред ИИ-оптимистов =)

Alexandroppolus
21.01.2026 10:29Я поначалу надеялся, что гпт - это максимум джун по скилам. А оно вон как. И предела пока не видно.

alexmasyukov
21.01.2026 10:29Это уже происходит последние 6 месяцев. Сеньор + подписка за 200$ = 3 сеньора.

x4team_only
21.01.2026 10:29буквально нужен 1 CTO и ему подписку выдать за 20$ с кучей агентов, и команда из 20 человек не нужна) Огромная экономия бюджетов..

ArtFrost
21.01.2026 10:29Мне интересно когда и наступит ли момент когда компаниям чтобы оставаться конкурентными тоже придется что-то выдумывать, когда через условные 5-10 лет какой-нибудь фотошоп сможет "собрать" любой %username%.

Femistoklov
21.01.2026 10:29Были статьи о том, что новых браузеров (движков) не появляется, т.к. ТЗ к браузеру стало настолько колоссальным и сложным, что просто нецелесообразно даже пытаться создавать свой и конкурировать с существующими. То же самое про ОС - где-то были расчёты, насколько много сейчас надо вложить миллиардов, чтобы создать "ещё один линукс". Очень любопытно посмотреть, как ЛЛМ-щики собираются создавать новые конкурирующие продукты.

northrop
21.01.2026 10:29Очень любопытно посмотреть, как ЛЛМ-щики собираются создавать новые конкурирующие продукты.
У меня тут есть ощущение что разработка ПО дошла до состояния создания карет в эпоху когда Форд клепает машины на конвеере. Так что все, не собирается "создавать новые конкурирующие продукты", разве что что-то узко-нишевое, хендмейдное, премиального класса.

ohld Автор
21.01.2026 10:29Мне это хочется видеть в таком ключе:
Раньше люди пололи грядки руками, а теперь появились машины, которые делают это за нас и которыми мы управляем.
Раньше мы прогали руками, а теперь управляем целым паровозом, чьи возможности мы все еще только изучаем.
x4team_only
21.01.2026 10:29Ага расскажи это Винтону Серфу и Бобу Кану что они грядки пололи создавая TCP/IP стек на котором держится весь интернет.
Некорректное сравнение, просто многие "юнцы" даже не в курсе что такое настоящее программирование, завайбкодить грядку огурцов и прополоть это одно, а вырастить Мичуринский сад и разбираться в растениях на уровне ученого - это другое. А так да, можно на паровозе пахать и собирать урожай и получать на выходе единую кашу из овощей/сорняков/поганок/камней ..

xenon
21.01.2026 10:29Кстати, а я, кажется, помню ту статью, однако, сейчас я на ее посмотрел бы иным взглядом. Я помню там было утверждение, что количество всех спецификаций (все протоколы, требования) для браузера уже такого, что ни один человек даже в теории не может успеть их прочитать.
Отсюда первый вывод - браузеры делают некомпетентные люди. Ну нет ни одного человека в команде, которые бы к своим, условным, 50 годам, успел бы 60 лет читать всю документацию (а так же - пробовать ее на практике, разбираться). Каждый может знать только свой уголок задачи, но никто не способен ее даже вообразить в голове и свободно углубиться в любой аспект. Сетевик будет слабо знать вопросы безопасности и совсем не знать что-то про шрифты и юникод.
А второй вывод (фантазия) - возможно нужен какой-то браузер из "микросервисов", который можно было бы собирать на свой вкус, меняя компоненты.
Ну и про LLM - может быть как раз LLMка-то и может все эти спецификации вызубрить, весь Масковский дата-центр погреется с полчасика и все выучит.

alliumnsk
21.01.2026 10:29Браузер должен работать с кучей разных вещей, которая скоро (если не уже) превысит сложность человеческого организма. А фотошоп читает и отдаёт джипеги, которые не меняются.

alliumnsk
21.01.2026 10:29Это все лишь чуть-чуть приближает положение к нормальному для большинства профессий. Таксист-то значимо бОльшую долю доходов отдает за бензин и амортизацию.

Savek
21.01.2026 10:29LLM-ки и агенты прекрасная технология для помощи в разработке. Но в мире корпоративных систем возникает проблема утечки данных насторону, и это проблема. Проект отдаётся куда-то в облако, там парсится и по итогу что-то в нём меняется, и коммерческая тайна становится доступной 3м лицам.

ohld Автор
21.01.2026 10:29Я думаю, что кодовая база -- это уже не коммерческая тайна. Точнее, уже сейчас умельцы могут по публичным данным о продукте зареверсить и написать спеки. А потом попросить AI это запрогать. Код другой, суть та же. Мне кажется, что именно данные сейчас можно считать moat, так как запрогать с нуля стало сильно проще.

MAT-POC
21.01.2026 10:29В компаниях США массово используют открытие LLM из КНР (deepseek R1 и Kimi K2). Цены кластеров на 4/8 H100 ~ 15-25-75 млн. руб ~ 100-250 k$ - 1 млн $ что для компаний терпимо, а для стартапа есть аренда AI-кластеров. Есть обнадёживающие данные, что можно приблизится к качеству Опусу 4.5 за счёт проработанных промптов.

ohld Автор
21.01.2026 10:29Я думаю, самый легкий способ приблизиться к качеству Опуса 4.5 можно просто подождав годик, когда выйдет очередная опенсорс модель, обученная на миллионах логов общения с опусом + самый лучший обвес в виде генерации спеков, планирования и тп.
Но за этот год сама индустрия уже сделает шаг дальше -- и пока что эти шаги все еще большие, а не как обновления последних iPhone или iOS.
alexmasyukov
21.01.2026 10:29Никто из частных разрабов не сможет позволить себе железо, чтобы такое запустить локально. Сейчас для крайне тупой модели, в сравнении с Opus 4.5, нужно железо на 10к$, о чем тут говорить. Мак мини, который сейчас самый популярный для запуска локальных моделей, уже 2.5k$ для простейших моделей.

vaslobas
21.01.2026 10:29Никто из частных разрабов не сможет позволить себе железо, чтобы такое запустить локально.
Компьютер дома тоже когда-то казался фантастикой. Чисто даже из-за физических габаритов. А между тем куда все вылилось?

sidewinder1
21.01.2026 10:29Сертификации SOC, комплайенс GDPR, CCPA, Zero Data Retention не существуют зря

traiilway
21.01.2026 10:29Есть такое. Тут разве что в своих дата-центрах хостить и самим поддерживать такие модели.

MountainGoat
21.01.2026 10:29"У них" это не проблема потому, что существуют NDA, корпоративные договоры, законы об обработке коммерческой тайне и т.д. У очень немногих фирм еcть такие тайны, что ради их кражи тот же Anthropic рискнёт серьёзным судом. А у кого есть - те и свою серверную могут себе позволить.
"У нас" это решается тем, что у нас есть пиратство и ещё мы никому нахрен не сдались.

northrop
21.01.2026 10:29у нас есть пиратство и ещё мы никому нахрен не сдались.
При этом ст 146 УК РФ никто не отменял, и за нелицензионный AutoCAD/Windows/Office/whatever else принимают и крепят "домашних компьютерных мастеров" только в путь. Вот такое странное пиратство в РФ.

LeshaRB
21.01.2026 10:29Фаулер как-то сказал
„Любой дурак может написать программу, которую поймёт компилятор. Хорошие программисты пишут программы, которые смогут понять другие программисты.“А сейчас надо учиться писать промты так, чтоб их понял ИИ

sidewinder1
21.01.2026 10:29Уже не нужно, промпт инжиниринг для разработки устарел (не путать с промпт инжинирингом для разработки ИИ приложений)

xenon
21.01.2026 10:29А так же, хорошо бы "ИИИ-понятный дизайн" (ИИИ = ИИ Интуитивно).
Берем малоизвестную программу (ИИ о ней может иметь базовое представление или вообще только из промпта узнает). Задаем конкретный и глубокий вопрос. ИИ не может знать ответа. Значит, он будет галлюцинировать некоторым "разумным" способом. Например, предположит, что "тихий" режим в CLI программме включается опцией -q. А чтобы отключить фичу FOO надо в .env прописать DISABLE_FOO=1. Так вот ИИИ-понятная программа должна быть так разработана, чтобы ИИ галлюцинации помогли пользователю в самом деле достичь цели.

fogster01
21.01.2026 10:29Уже продолжительное время обдумываю концепцию агента, который за тебя ведет "Obsidian по твоей жизни", записывает и структурирует мысли, планы и события. И при этом тебе даже не нужно прикасаться к клавиатуре. И вот же я не одинок, Дэн уже так делает!)
Интересно, приведет ли нас в скором будущем прогресс к созданию нейроинтерфейсов для моментального общения с LLM без открывания рта и без жестов? Если это случится, то это буквально будет следующий шаг, когда каждый человек по подписке будет таскать с собой второй мозг. И мы уже не будем знать: он такой умный сам по себе, или ему LLM прямо сейчас подсказала?)
Вообще, первый раз наткнулся на канал Даниила лет 5-6 назад когда он парсил всякое и выкладывал интересные датасеты, а я учился в универе и мне как раз нужно было показывать "интересное" преподам.
Спустя время наткнулся на него когда я работал в крипте, и он как оказалось тоже. Подсветил мне несколько интересных ниш.
Буквально вчера прочитал его пост о Claude, и сразу купил подписку - вау-эффект был моментальный.
Автор возникает в рандомные моменты моей жизни и напоминает, что пора расти и двигаться. Спасибо Дэн!
ohld Автор
21.01.2026 10:29Спасибо большое за теплые слова!
Присылаю список сохраненных ссылок на тему Personal AI / Second Brain. Советую изучить, что делают другие, чтобы потом самому организовать так, как тебе нужно.
https://github.com/heyitsnoah/claudesidian
claude + obsidian template
https://www.youtube.com/watch?v=8V9tZwgjiRs
какой-то умный чел рассказывает, как юзает AI as a thinking partner
https://clawd.bot/
опенсорс AI бот с кучей интеграций и автоматизаций (для вдохновения)
https://github.com/danielmiessler/Personal_AI_Infrastructure
сбор идей по тому, как построить Личный AI
Удачи! <3
Goron_Dekar
А можно мне на нулевой вопрос ответить: как при этом оставаться анонимным, не светить ни аккаунтов, ни карточек?
ohld Автор
В этом случае поможет self-host: покупаете самую дорогую GPU, которую можете себе позволить. Хостите там самую умную опенсорсную LLM из доступных на данный момент. Запускаете опенсорс AI Coding Agent (типа opencode). И при правильной работе с контекстом и навыку работы с AI должно выходить сносно, но я не пробовал.
Ожидаем в этом году опенсорс ллм для кодинга качества почти Opus-4.5, тогда точно получится не хуже. Хотя остальной мир уже дальше по экспоненте улетит -- тут вопрос, насколько вам ок быть в догоняющих из-за мании оставаться полностью анонимным.
Goron_Dekar
Это не мания, это проблемы с юрисдикцией, санкциями и условиями пользования. Не хотелось бы лишиться инструмента только потому, что кому-то не понравилось, что я "из другого политического блока"
ohld Автор
В таких случаях я люблю решать проблемы по мере поступления. Если заберут доступ от чего-то важного, значит, уже появилось достаточно альтернатив.
Сейчас AI очень быстро развивается, возможно, через полгода самым переводым инструментом будет уже не Claude Code, а что-то другое -- и это отлично. Увы, нельзя купить что-то одно в надежде пользоваться им до конца (см. Github Copilot и другие умные автокомплиты).
Goron_Dekar
Это 5!
sunsexsurf
Прям просится шутка про макс, да? ))
Antra
Чтобы найти решение, надо сначала описать риск.
Проблема:
Допустим, вы готовы использовать Claude Code, как описано в статье. Используете его какое-то время, потом вдруг Antrophic вам блокирует доступ к своей модели (не к софту у вас на компе, вы за него не платили и т.п.)
Решение:
Настраиваете переменные окружения типа
ANTHROPIC_BASE_URL=https://api.z.ai/api/anthropic
И пользуетесь в той же среде тем же Claude Code, но моделькой возможно чуть более ггаллюцинирующей, но при написании спецификаций, а не просьб "сделай мне хорошо" прекрасно работающей.
В случае реализации риска "полная блокировка трафика из РФ зарубеж" конечно, сложнее. Тут либо на "внутриРФ" модель придется переключаться (благо есть проекты CCRouter, позволяющие Claude Code использовать другие API, не только антрофиковые), либо вообще на собственную (домашнюю).
AI MAX+ 395 128gb, Strix Halo - позволяют комфортно работать с gpt-oss-120b. Конечно, это ни разу не Optus 4.5, но при полном запрете коммуницировать с внешним миром и это неплохо (уж для меня точно пропавший доступ к Optus 4.5 станет не главной проблемой).
Можно и что-то понавороченнее использовать.
Если все-таки не столь радикально, и хочется еще больше свободы, при этом используя подход со спецификациями - какой-нибудь опенсоурсный OpenSpec.
Один и тот же подход к составлению спек, тасков и т.п. получите практически в люблм инструменте. Разница практически только в моделях.
А так - можно openspec:proposal выполнить в Claude Code, а openspec:apply в Antigravity. Или в Copilot. Или RooCode...
vaslobas
При таком раскладе проблемы с доступом к LLM уйдут далеко на второй-третий план.
Antra
Для меня да, я так и написал :)
Просто хотел показать, что с точки зрения "продолжить кодить" даже такой безумный риск можно худо-бедно "митигировать".
MountainGoat
Я сначала тоже так думал, потом понял что я сам себе так забаню на порядок больше опций, чем злые дяди. Сейчас я использую локальные рисующие модели, потому что они намного лучше облачных, и облачные кодящие, потому что они лучше локальных. Через месяц - будет видно.
Moog_Prodigy
Рисовалки требуют куда меньших ресурсов чем LLM, и ситуация сохраняется уже не один год. Так что за месяц вряд ли что-то изменится, за год - возможно, но надежды довольно призрачные. Все - таки слишком разные задачи. Распознавалки вон вообще на МК запускаются без всяких видеокарт уже давно.
bak
Сейчас есть два противоположных крупных политических блока, если не подходит один по каким-то причином берите модели от другого. Разница в качестве не значительная.
alexmasyukov
Люди уже год работают с Claude Code под VPN из России. Какой картой там и что оплачено, всем плевать. Знаю таких лично под 10 человек.
Некоторые даже оплачивают через МТС (не рекласа).
Kenya-West
Меняю политический блок на правильный. В принципе, процесс недолгий, максимум 5 лет.
OlegMax
Случилась ирония. Статья начинается с (корректного) посыла, что сейчас (топовые) LLM доросли до нормального программирования:
И тут вы советуете слабенькую модель, которая только бесить будет:
ohld Автор
какой был запрос у человека выше)
я всегда за то, чтобы заплатить за передовые технологии и не тратить время на развертку всего локально ради прайваси.
yellow79
Вовсе не обязательно самую дорогую GPU. У меня всё прекрасно работает на Macbook Pro M4 Max 36 Gb, модель 2023 года. Поставил LM Studio, качаю всякие Gemma, Qwen, Mistral, GLM, каждая хороша по своему. LLM специально адаптированны под Mac процессоры и их unified memory. Если просто початиться, то в LM Studio есть чатик, ну а для кодинга использую opencode. Решение достойное, но надо привыкать ставить правильно задачи, в Cursor с этим проще. Самый главный плюс LM Studio + opencode это то, что вся эта конструкция работает без интернета и для меня, как заядлого путешественника, это крайне важно. Из минусов то, что аккумулятор садится значительно быстрее
alexmasyukov
В США активно скупают Mac Mini на Max и максимальной памяти для этих целей.
Gerodot
Можно по цене RTX Pro 6000 просто купить пару Mac Studio на 512Gb объединенной памяти и шнурок Thunderbolt 5, на них спокойно идет DeepSeek V3 671b без квантования или Kimi 1T
Antra
RTX Pro 6000 стоит вроде как $10K Все-таки пару Mac Studio M3 Ultra c 512GB за такие деньги купить проблематично.
Хотя если скорость неважна, а 96GB VRAM достаточно, конечно, и MiniPC AMD Max+ 395 со 128 GB DDR5 вполне хватит. А для 512GB mac вне конкуренции, это правда. Но цена...
aladkoi
Если есть лишний миллион баксов на оборудование под llm, тогда , почему нет, можно и локально установить llm модель.