Данная статья написана и отредактирована мной вручную, специально, чтобы подчеркнуть ценность ручного труда в эпоху нейросетей.
Сегодня, в начале XXI века, искусственный интеллект уже стал частью нашей повседневности. Мы спокойно спрашиваем у Алисы прогноз погоды, видим тексты и советы от ИИ в поиске, а изображения или даже видеоролики, созданные нейросетью, никого не удивляют.
Параллельно все чаще обсуждают, что крупные языковые модели (LLM), умеющие писать код, якобы скоро заменят программистов и будут сами решать их задачи. По моему опыту — до этого еще далеко. Но при этом нейросети постепенно превращаются в удобный и полезный инструмент для разработчиков.
Ниже я расскажу про собственный опыт работы с такими технологиями, который мы ежедневно применяем в реальных проектах ★5УГЛОВ для наших клиентов.

Запросы нужно упрощать
Казалось бы, это очевидная мысль, но на практике грань здесь очень тонкая. Несмотря на рекламу современных моделей, что они якобы способны написать большой код по техническому заданию и он будет работать, это все еще далеко от реальности. Чем проще запрос, чем меньше кода нужно сгенерировать для его выполнения, тем лучше результат. Поэтому важно уметь декомпозировать сложные задачи.
Например, простой запрос «Напиши CSS стиль, который добавит кнопке переливающуюся анимацию» нейросеть выполнит без труда. А вот запрос «Сделай так, чтобы кнопка по клику меняла свой текст и стиль: цвет, форму и анимацию» лучше разбить на несколько маленьких шагов и конкретизировать каждый из них.
Мы применяем этот подход в ★5УГЛОВ, когда работаем над задачами клиентов. Такой метод позволяет получать от нейросетей максимально точные и рабочие результаты, которые реально помогают бизнесу.
Но нужно также помнить, что у любой LLM есть ограничения, и часто они нигде не задокументированы. Эти лимиты могут касаться:
размеров запросов: многие ИИ не принимают большие запросы в чате, но позволяют загрузить их в виде вложения;
размеров ответов: ответ генерируется постепенно, и если лимит превышен, модель просто остановится на полуслове;
размера контекста: это объем переписки, который нейросеть способна удерживать в памяти.
Чтобы не наткнуться на эти ограничения, полезно знать несколько практических приемов.
Для длины запроса:
разбивать его на части, например документировать не весь класс целиком, а только отдельные методы;
использовать вложения — ИИ способен прочесть больше текста из прикрепленного файла, чем из окна чата;
не повторяться, если нужная информация уже есть в контексте;
сокращать формулировки;
иногда помогает перевод запроса на английский язык, он тратит меньше токенов.
Важно помнить еще один момент: если составной запрос длинный и не разбит на список, ИИ может выполнить только часть задания и проигнорировать остальное.
Для длины ответа:
ответ напрямую зависит от длины запроса, поэтому лучше его сокращать;
некоторые модели, например Qwen, умеют продолжать ответ в следующем сообщении;
можно попросить нейросеть дописать код с конкретного места, но не всегда это работает корректно.
Для контекста:
современные модели держат достаточно большой контекст, но при его переполнении начинают забывать детали. В таких случаях можно попробовать напомнить им утраченный контекст, однако чаще проще открыть новый чат;
если работа долгая, полезно просить нейросеть создавать промежуточные резюме или документы, например PHPDoc описания готовых функций. В новом чате достаточно показать этот документ со словами «Вот что уже сделано и работает», и продолжать с этого места.
В итоге все сводится к простым правилам: упрощать, дробить задачи, не перегружать один чат и сохранять промежуточные результаты.
ИИ не знает документации
До сих пор многие думают: раз нейросеть обучалась на терабайтах текстов, значит она должна «помнить» все и воспроизводить без ошибок. Но это не так. Нейросети не идеальны. Есть модели, которые лучше знакомы с документацией конкретного продукта, потому что у них более свежий период обучения, но и они часто ошибаются.
Например, для того же Битрикса ИИ может использовать устаревшие методы и «выдумывать» новые, опираясь только на логику нейминга. При работе с базой данных, если нейросеть не знает точную структуру таблиц, она может легко придумать свои поля и перепутать, скажем, DATE_BEGIN и DATE_START, или DATE_CREATE и CREATED_AT.
В проектах ★5УГЛОВ мы видим это постоянно: код, сгенерированный нейросетью, обязательно проверяется вручную. Иначе клиент рискует получить красивую, но абсолютно нерабочую «фантазию».
Правдивее всего ИИ работает с документацией языков программирования. Я почти не встречал, чтобы нейросеть придумывала несуществующие синтаксические конструкции. С продуктами сложнее: чем популярнее система, тем выше шанс, что модель даст рабочее решение. Например, DeepSeek гораздо лучше справился с кодом для обмена данными с Jira, чем с API CRM в Битрикс24.
Несколько практических советов:
почти у всех нейросетей есть функция веб-поиска. Она не всегда помогает, но лучше использовать ее, чем игнорировать;
если ИИ явно ошибается, стоит «покормить» его выдержками из документации, кусками рабочего кода, примерами с Хабра или Stack Overflow. Иногда это помогает навести его на верный метод или похожее решение;
если есть название метода, но непонятно, как он работает, в Битрикс24 можно найти его в ядре через grep и загрузить нейросети весь файл. Для этого очень удобно использовать IDE Cursor (о нем будет дальше);
если все совсем плохо, проще искать альтернативный путь. Так, когда у нас не работал фронтенд Битрикс24 Диска и не удалялись папки, мы не стали копать нейросетью метод удаления в JS-объекте BX, а сделали бэкенд-обработчик для корректного удаления и заменили им фронтовую обработку кнопок. Иногда помогает работать напрямую с таблицами БД Битрикса, если методы ядра найти не удается или они не работают.
И главное правило: нейросеть никогда не признается, что не уверена в ответе. Она будет придумывать и «подгонять» детали, лишь бы ответ выглядел убедительным. Поэтому любой код, сгенерированный ИИ, нужно проверять.
Результат нужно проверять
Замечено не раз: ИИ часто заблуждается в своих ответах, выдавая неверные данные. Это касается не только кода, но и фактов, расчетов или логических рассуждений. Особенно это заметно у свежих моделей, которые только завершили обучение и еще не «натренировались» на пользовательском опыте. Иногда нейросеть можно даже «уговорить» предыдущими запросами выдавать заведомо ложные ответы, хотя с современными моделями сделать это стало сложнее.

Отсюда следует простое правило: ответам ИИ верить нельзя, их всегда нужно проверять. Даже если код выглядит рабочим, ошибки могут быть в синтаксисе, в пропавших токенах, в забытом контексте или в случайно вырезанном куске. В итоге то, что казалось готовым решением, легко превращается в нерабочий фрагмент.
В ★5УГЛОВ мы используем нейросети как помощников, но итоговый результат всегда проходит ревью специалистами. Это принципиально, потому что клиенты должны получать гарантированно рабочие решения.
Конечно, не обязательно проверять каждую строчку после каждого ответа ИИ, особенно если он генерирует большой скрипт или целый класс. Но конечный результат, который идет в продакшн, должен быть полностью перепроверен. Даже если уверены, что другие участки кода давно работают и ИИ их не трогал. Особенно это критично для простых ИИ в виде чатов. Со встроенными инструментами в IDE вроде автогенерации или дополнения работать удобнее, но и там всегда остается шанс, что нейросеть испортит код.
Хорошо, что существуют практики тестирования и исправления, и ИИ действительно может облегчить этот процесс по сравнению с ручной работой. Но контроль за результатом всегда остается за человеком.
Дебаг с ИИ
Нейросети практически никогда не выдают код, который работает безупречно сразу, с первого запроса. Большую часть времени при работе с ИИ приходится тратить на тестирование и борьбу с ошибками. Для этого есть несколько подходов.
Ленивый дебаг.
Это долгий, но зачастую эффективный способ, при котором умственных усилий требуется минимум. Просишь ИИ сгенерировать код для задачи. Если он не работает — копируешь ошибку и отправляешь ее обратно в ИИ. Это может быть PHP-ошибка (для ее отображения включаем error_reporting() или ставим debug => true в /bitrix/.settings.php) или JS-ошибка из консоли браузера. Нейросеть исправляет код, снова запускаешь — и так по кругу, пока все не заработает. Чаще всего ИИ хватает информации из самой ошибки, чтобы попробовать другой метод или подход. Но у этого способа есть минусы: быстро тратятся токены, заполняется контекст, а иногда ИИ зацикливается и ходит кругами. Тогда подключать голову все-таки придется.

Помощь в дебаге
Не нужно стесняться анализировать ошибки и помогать ИИ. Эффективной может быть любая подсказка — от конкретного решения до предположения о причине сбоя или просьбы сменить подход. Иногда помогает упоминание другого метода класса, описание похожей ошибки или даже простая документация. В моей практике работало все: от копипаста из ядра Битрикса до анекдота в чат. Главное — не бояться экспериментировать.

Вывод данных
Для составного кода полезно просить ИИ выводить промежуточные результаты. Это могут быть данные в браузерной консоли, на экран или в error_log сервера. Такой подход помогает не только разработчику, но и самой нейросети точнее находить место сбоя.
Тесты
ИИ умеет покрывать код тестами, но делает это плохо. Часто исправлять приходится больше ошибок в тестах, чем в самом коде. Нейросети не умеют мыслить как тестировщик и проверять код на «вредные» вводы: спецсимволы, SQL-инъекции и т. д. Поэтому отдельный код тестов имеет смысл только для классов и библиотек перед релизом. Важно помнить: лучше тестировать методы по отдельности, иначе ИИ попытается переписать весь класс и упрется в лимиты.
В работе с клиентскими проектами ★5УГЛОВ мы применяем комбинацию этих подходов: где-то используем собственный анализ и помощь в дебаге, а где-то включаем полноценное тестирование. Такой микс позволяет ускорять процесс и при этом не терять в качестве.
Ошибки LLM
В работе с ИИ часто возникают трудности — от простых ошибок в ответах до зацикливания, зависаний, порчи рабочего кода или даже полного отказа отвечать. Вот некоторые из проблем, с которыми я сталкивался, и способы их преодоления.
Сочинительство
Нейросеть, как правило, не признается, что не знает ответа. Например, по методам REST API Битрикс24, появившимся уже после обучения, она начнет придумывать свои методы и классы или брать из документации те, что к запросу не относятся. Самое правильное действие в таком случае — показать нейросети документацию нового метода, добиться рабочего кода и явно отметить, что он работает. Это помогает обучить нейросеть в рамках текущей задачи и сохранить результат для будущих проектов.

Хождение кругами
При дебаге кода ИИ может зациклиться: например, агент в Cursor бесконечно перечитывает одну и ту же функцию, не пытаясь ее исправить. Здесь лучше всего остановить ИИ, указать, что он застрял, и перенаправить. Если ошибка повторяется, проще начать новый чат, загрузив туда промежуточные результаты.
Сбои в выдаче ответов
Нейросети несовершенны: они могут повторять одно и то же предложение, уходить на английский или китайский язык, останавливаться на полуслове или резко менять тему. В таких случаях лучше явно указать на проблему или завести новый чат.
Излишнее размышление (Thinking)
Я не люблю размышляющие модели: они думают слишком долго, а для разработки это чаще мешает, чем помогает. Если есть возможность отключить режим thinking — я это делаю. Если нет (например, в deepseek r-1 или ChatGPT 5 в Cursor), то стараюсь минимизировать использование таких режимов.
Порча рабочего кода
Иногда при сборке большого кода ломаются те части, что раньше работали. Поэтому важно сохранять промежуточные результаты и работать по частям. Хорошая практика — просить ИИ выдавать полный код с кратким контекстом. Это позволяет при сбоях начать новый чат с уже рабочим материалом.
Выход за лимиты
Нейросеть может не дописать код, не принять слишком большой запрос или «забыть» предыдущие шаги. Решение простое: дробить задачи, сохранять промежуточные версии и при необходимости запускать новый чат.
Перегруз нейросети
Во время высокой нагрузки (например, после релиза новой модели) облачные сервисы часто перестают выдавать ответы. В таких случаях помогают простые приемы: сохранять промежуточные результаты, начинать новый чат, использовать другие модели или просто подождать, пока нагрузка спадет.
Именно поэтому в ★5УГЛОВ мы относимся к ИИ как к помощнику, а не как к замене разработчиков. Нейросети ускоряют рутинные задачи, но ключевые решения и ответственность всегда остаются за специалистами.
Смежные задачи для нейросети
Большие языковые модели универсальны и могут применяться не только в разработке ПО, но и в смежных задачах. Даже в рамках IT-проектов нейросети находят множество применений, помимо написания кода.
Документирование кода
С этим ИИ справляется очень хорошо. У меня почти никогда не возникало проблем: нейросеть может проанализировать код, описать назначение метода, входные и выходные параметры, структуру массивов, возможные ошибки. Лучше сразу просить ее делать документацию в PHPDoc или JSDoc, чтобы результат был в привычном формате, а не в виде абстрактного текста.
Создание документации
ИИ помогает составлять простую и понятную документацию. Это может быть описание кода с примерами его использования, руководство для пользователя, обзор проекта с зависимостями, указанием классов, неймспейсов и библиотек, или даже отчет о выполненной задаче с описанием тестов. В ★5УГЛОВ мы используем такие подходы, чтобы ускорять передачу знаний внутри команды.
Анализ
Помимо документации, ИИ может:
указывать на уязвимости и проблемы безопасности;
находить устаревшие методы;
давать советы по оптимизации и сокращению кода;
выявлять потенциальные ошибки и несовместимые методы;
подсказывать готовые библиотеки и инструменты.
Проектирование
ИИ может быть помощником в архитектуре проектов. Достаточно описать идею, и он предложит реализацию, подскажет структуру базы данных, классов и методов, а также паттерны проектирования. Иногда даже накидывает идеи для улучшений. Конечно, такие архитектуры редко подходят в чистом виде, но как основа или дополнительный взгляд они полезны.

Планирование и декомпозиция
Нейросеть способна помочь разбить задачу на этапы, описать порядок выполнения, сформировать тест-кейсы. Особенно полезно это в ситуациях, когда не очевидно, с чего начать.
Рефакторинг
ИИ может исправлять и упрощать код. Он хорошо справляется с задачами вроде:
удаления избыточных комментариев;
устранения лишней отладки;
добавления логирования;
оптимизации циклов и условий;
замены устаревших инструментов на современные (например, mysqli на PDO);
оформления кода в try...catch;
улучшения читаемости и структуры.
Генерация данных
Нейросети отлично подходят для создания тестовых данных: контактов, сделок для CRM, задач, пользователей. Можно генерировать как корректные, так и некорректные наборы для проверки валидации. Это сильно экономит время тестировщиков.
Обучение
Разработчик, несмотря на ИИ, должен оставаться разработчиком. Важно понимать, что именно делает нейросеть, и разбираться в сгенерированном коде. Большинство моделей по умолчанию объясняют свои шаги, что полезно. Они также подсказывают новые технологии, инструменты и библиотеки. Я стараюсь сохранять такие пояснения, чтобы потом применять их в работе.

Настройка инструментария
ИИ помогает с конфигурацией и настройкой инструментов — от IDE и Git до библиотек и сервисов внутри проектов. Он может сгенерировать конфигурационные файлы или подсказать рабочие практики.
Мы активно используем эти возможности внутри ★5УГЛОВ — для анализа уязвимостей, генерации тестов, подготовки документации и поддержки разработки.
Обзор нейросетей
Начинал я работать с нейросетями еще с ChatGPT. С тех пор их стало гораздо больше, они стали сильнее и разнообразнее. Вот небольшой обзор моделей, с которыми я работал и которые мы используем в том числе на проектах ★5УГЛОВ.
DeepSeek
Китайская языковая модель, по моему мнению, одна из самых сильных и удобных. Хорошо обучена, знает относительно свежую документацию по Битриксу и Bitrix24. Скорость ответов средняя — примерно между ChatGPT и Qwen. С изображениями работает плохо, иногда отказывается отвечать из-за перегрузки, но качество текста и кода у нее высокое. Для мелких задач я чаще всего выбираю именно ее.
Qwen
Тоже китайская модель, но работает заметно слабее DeepSeek именно с кодом и интеграциями, хотя есть отдельная версия Coder. Зато отлично справляется с картинками: распознает текст, рукописный почерк, объекты, умеет решать задачи со скриншотов. Иногда даже генерирует верстку по скриншоту, но не всегда стабильно. Работает медленнее, чем DeepSeek, но быстрее, чем Сбербанк и Яндекс. Я использую Qwen, когда нужны задачи с графикой или когда DeepSeek зависает.
ChatGPT
Одна из первых крупных моделей, которая задала тренд на все это направление. В России недоступна напрямую, поэтому я захожу через VPN или прокси и использую редко, в основном чтобы проверить новые возможности. По ощущениям, по качеству она примерно на уровне DeepSeek, но быстрее, чем многие конкуренты.
Gemini
Нейросеть от Google, пожалуй, самая быстрая из всех, что я пробовал. Тоже недоступна в России, а через VPN работать неудобно, так как нужен отдельный аккаунт.

Иногда результаты ее работы можно встретить прямо в поиске Google. Когда я последний раз проверял Gemini, с кодом она работала слабо, но с тех пор наверняка улучшилась. Модель умеет подключать поиск и включать результаты прямо в ответ, что полезно. Думаю, если Gemini станет доступна в России, это будет серьезный инструмент.
GigaChat
Российская модель от Сбербанка. На данный момент — самая слабая из тех, что я использовал. Работает медленно, с кодом справляется слабо. По сути, ее можно применять только для документации или простых задач. Из плюсов — есть удобное API и бесплатный лимит в 1 миллион токенов.
Yandex GPT
Модель от Яндекса. По скорости примерно на уровне DeepSeek, интерфейс похожий. Отвечает структурированно и хорошо, но если дело касается Битрикса — часто «сочиняет» свои методы и выдает нерабочий код. YandexGPT 5 Pro постоянно предлагает платную подписку, а подключать API не так удобно, как у GigaChat. Но я верю в отечественного разработчика и думаю, что у модели есть потенциал. В проектах ★5УГЛОВ мы ее периодически тестируем, но пока используем точечно.
Немного о локальных моделях
Сейчас в интернете полно гайдов о том, как скачать языковые модели нейросетей на компьютер и использовать их локально. Самый популярный способ — Ollama: качаешь модель прямо с сайта, работаешь через терминал, для удобства можно прикрутить WebUI. Казалось бы, звучит круто: у тебя своя личная нейросеть под рукой, без ограничений и лимитов. Но реальность оказалась другой: на моем компьютере (он не топовый, но и далеко не слабый) нейросети работали с большими проблемами.
deepseek r-1
Эта модель «размышляет» по умолчанию, и отключить этот thinking нельзя. В теории это должно давать более осмысленные ответы, но на практике выходит наоборот: при анализе или генерации кода она зависает, выдает поток несвязных мыслей и работает очень медленно. Часто переключается на английский или китайский, и приходится постоянно поправлять. Я тестировал ее на задачах с PHP и Bitrix — результат был настолько нестабильным, что использовать в реальных проектах оказалось невозможно.
qwen
Здесь ситуация получше. Версия 7b по скорости почти как в онлайне, на простые текстовые запросы отвечает адекватно. Может документировать небольшой кусок кода, но чем длиннее запрос или ответ, тем выше шанс, что модель «поедет» и начнет отвечать на другом языке. Код пишет слабо, но у модели есть потенциал: например, использовать ее как локального помощника для заметок или встраивать в собственные сервисы. Если поиграться с настройками и промптами, то кое-какую пользу можно выжать.
Мой вывод: локальные модели — это перспективное направление, но пока оно «сырое». Для того чтобы реально ими пользоваться, нужен очень мощный компьютер, оптимизированные настройки и много экспериментов. Я лично хочу попробовать запускать более тяжелые модели (от 10 Гб и выше) с двухпроцессорной сборкой на Intel Xeon, плюс задействовать видеокарту для ускорения. В ★5УГЛОВ мы уже обсуждаем возможность тестирования локальных моделей, потому что для некоторых клиентов критична приватность данных, и тут локальное решение может быть спасением.
Cursor
Отдельный разговор — Cursor. Это не сама нейросеть, а инструмент, который работает с разными LLM (GPT, Gemini, Claude и др.) и помогает разрабатывать код. По сути это IDE нового поколения.
Что он умеет:
анализировать код проекта целиком и выдавать его описание;
определять, какие файлы нужно прочитать для ответа;
менять и дополнять только часть кода, подсвечивая изменения (очень удобно при ревью);
читать документацию из ссылок или файлов;
генерировать тесты, предлагать тест-кейсы, описывать, что сделал;
работать с Git прямо из редактора, создавать папки и файлы, запускать веб-сервер для тестов.
На словах это звучит как «идеальный ассистент разработчика», и во многом это правда. Но есть нюансы.
Минусы Cursor:
он платный, а бесплатный тариф почти бесполезен. Оплатить из России крайне проблематично;
ленивый дебаг плохо работает: нужно вручную объяснять, где ошибка;
часто зацикливается на проверке одной и той же функции;
может сломать рабочий код, изобретая новые методы рядом с существующими;
в авто-режиме ведет себя непредсказуемо: то пишет код, то тестирует, то документирует, то начинает все рефакторить;
работа с Git и встроенными инструментами требует постоянных подтверждений, что сильно замедляет процесс;
при работе с большими файлами (свыше 1500–2000 строк) начинает путаться, дублировать методы, а иногда просто ломает структуру проекта.
Мой опыт

Я пробовал использовать Cursor для разных сценариев: простые фичи, проекты с нуля, поддержка готовых решений. Самый удобный сценарий — это документирование и рефакторинг небольших кусков кода. Когда нужно «подчистить» проект, убрать лишнее, добавить PHPDoc или JSDoc — Cursor справляется отлично. Но если дать ему большой кусок на 2–3 файла, то велик риск, что он все сломает.
Чтобы минимизировать такие риски, я выработал несколько правил:
Всегда начинать с анализа проекта. Пусть Cursor первым делом создает структуру файлов и описание. Иногда он делает файл .cursorrules — я стал использовать его как правило.
Хранить правила для ИИ. В .cursorrules удобно фиксировать: не переписывать больше одного метода, не трогать рабочий код, документировать изменения.
Использовать как scratchpad. Cursor умеет вести список задач, отмечать прогресс, фиксировать изменения.
Не допускать разрастания файлов. Лучше заранее разделять код, чем пытаться чинить хаос потом.
Удалять отладку. Cursor любит оставлять кучу отладочной информации, и если ее вовремя не убрать, она мешает.
Контролировать Git вручную. Встроенные инструменты хороши на бумаге, но на практике проще управлять версией самому.
Следить за токенами. Cursor очень прожорлив. Дебаг может сжечь огромное количество токенов. Иногда проще разбить задачу на несколько простых запросов.
В ★5УГЛОВ мы пробовали использовать Cursor на реальных проектах. Он действительно помогает ускорить работу, особенно на рутинных задачах, но всегда требует контроля со стороны разработчика. Это не волшебная кнопка, а инструмент, который нужно уметь готовить.
Лимиты нейросетей и пиратство
И напоследок немного коснусь темы обхода лимитов. Лимиты есть практически везде. Даже DeepSeek рано или поздно попросит вас зайти завтра, если сегодня вы обращались к нему слишком часто. Иногда они обозначены явно, например у YandexGPT Pro, а иногда их нигде не найти, как у Cursor, где описание предельно расплывчатое и трудно угадать, когда именно будет достигнут лимит бесплатной версии.
После долгой работы над проектом через Cursor и множества попыток сбросить или продлить триал, получить бесплатный VIP я понял, что самый надежный способ пользоваться курсором бесплатно это мультиаккаунтинг. Это вполне законно, вы ничего не взламываете и не нарушаете лицензионное соглашение. После регистрации примерно десяти аккаунтов начинает появляться предупреждение о превышении лимита профилей на устройстве, и тогда требуется сброс deviceID. Регистрация нового профиля не требует телефона, достаточно почты. На mail.ru можно зарегистрировать несколько ящиков на один номер. Говорят, возможна блокировка по IP при чрезмерном злоупотреблении, но добиться этого крайне сложно.
Существуют и другие методы. Например, можно найти в GitHub deviceID другого пользователя и установить его себе, чтобы временно воспользоваться оплаченной подпиской. Лично у меня это получилось воспроизвести только на виртуальной машине. Еще один вариант — четырнадцатидневный Pro-Trial с помощью карт, не требующих строгой проверки. Их данные иногда публикуют в сети целыми списками.

Здесь я не стану подробно описывать серые схемы, но важно отметить, что Cursor практически невозможно приобрести официально в России, поэтому многие ищут обходные пути.
Заключение
Таким образом, мы подошли к завершению нашего повествования. Подведем итоги сказанного выше, выделив ключевые моменты и сформулировав итоговые мысли. Важно помнить, что каждое слово имеет значение, каждая деталь важна для понимания общей картины. Мы надеемся, что эта статья помогла вам глубже понять рассматриваемую тему, осветила новые аспекты и дала пищу для размышлений. Продолжайте исследовать, задавайте вопросы и ищите ответы — ведь именно в этом заключается истинная ценность познания.
Текст заключения выше писал не я, он сгенерирован нейросетью, которая, видимо, толком и не прочитала статью. Но если ты, дорогой читатель, прочитал все мое словоблудие, то удачи тебе в работе с нейросетями! Делись своим опытом, пользуйся моим, но прошу тебя — оставайся специалистом, а не вайбкодером!
Комментарии (2)
Pusk1
11.09.2025 08:13Немного не понял про негатив с агентским режимом и отладкой через консоль в курсоре. В процессе отладки LLM добавляет в цикле отладочную информацию пока не локализует ошибку, а затем её чинит. И агентский режим в топ моделях отлично это обрабатывает. Правда, я прошу ввести новый уровень логгирования для таких кейсов. Условный LLM debug.
Vedomir
Какой именно deepseek r1 вы тестировали локально? Тот который доступен у них на сайте это 671 миллиард параметров, ее даже на мощном компе не запустишь. Правильно ли я понимаю, что вместо нее вы использовали что-то из мелких моделек у которых с r1 общего одно название?