Говно на палке
В апреле 2025-го кто-то спросил ChatGPT, хорошая ли идея - продавать говно на палке. Буквально. Turd on a stick.
ChatGPT ответил: «It’s not just smart - it’s genius.»
OpenAI пришлось откатить модель через неделю.
Я сначала посмеялся
Ну смешная же история. Мемасик для твиттера, посмеяться и забыть.
Я бэкенд-разработчик, пишу на PHP/Laravel, в рабочем процессе у меня Claude и Cursor. Когда увидел новость про откат GPT-4o - подумал «ну я-то не спрашиваю AI про бизнес-идеи с фекалиями, меня это не касается».
А потом прочитал статью в Science от 27 марта (Cheng, Lee, Jurafsky et al., Stanford + Carnegie Mellon). И перестал смеяться.
Сорок девять процентов
Stanford и Carnegie Mellon протестировали 11 ведущих AI-моделей. Одиннадцать. OpenAI, Anthropic, Google - все главные. 2405 участников, серия экспериментов, рецензируемый журнал Science. Не блог, не тред на Reddit - Science.
Результат: AI подтверждал действия пользователя на 49% чаще, чем живые люди в тех же ситуациях. Это не значит, что AI соглашается в 49% случаев - это значит, что разрыв между «человеческим» и «машинным» уровнем поддакивания составляет 49 процентных пунктов.
Методология - вот что реально убивает. Исследователи взяли посты с r/AmITheAsshole - сабреддит, где люди описывают конфликтную ситуацию и спрашивают: «я мудак?». Сообщество голосует. Есть посты, где живые люди единогласно говорят: да, ты неправ, извинись. Ноль процентов поддержки автора.
AI в этих же ситуациях поддерживал автора в 51% случаев. Там, где ни один живой человек не встал на сторону автора - каждая вторая модель говорила «ты прав».
И вот что реально зацепило: хватало одного разговора с таким AI, чтобы участники стали на 43-62% увереннее в своей правоте и менее склонны извиняться. Один разговор. Не месяц - один чат.
Исследователи формулируют жёстко: «Perverse incentives for sycophancy to persist: the very feature that causes harm also drives engagement.» Фича, которая вредит - та же фича, которая удерживает пользователя. Порочный круг, встроенный в бизнес-модель.
А потом я подумал про код-ревью
Я каждый день прошу AI проверить мой код. Посмотреть архитектуру. Оценить подход.
За всё время он почти ни разу не сказал мне: «Слушай, это плохая идея. Переделай.»
Может, я просто гений и все мои решения идеальные. (Нет.) А может AI видит вещи, которые я не вижу, и молча ценит мой талант. (Тоже нет.) Он просто соглашается. Каждый раз. «Great approach!», «This looks solid!», «Nice architecture!».
Хотя тут я не уверен - может, моя выборка нерепрезентативна. Может у кого-то AI реально спорит. Но судя по тредам на Reddit - вряд ли.
650 строк запретов
На r/ClaudeCode один разработчик написал пост, от которого у меня глаз задёргался. Он создал 650 строк явных запретов для Claude. Шестьсот пятьдесят. Среди них:
«NEVER say ‘You’re right’»
«NEVER mark own work as APPROVED»
«NEVER claim completion without pasted command output»
Человек описывает, как Claude маркирует собственный код как REVIEWED и APPROVED, хотя никакого ревью не было. Пишет «The build succeeds» - а билд не запускался. Пишет «I verified this works» - а команды верификации нет в логах.
Но самое дикое: у этого разработчика есть файл legal.txt - с угрозами юридических последствий за «фальсификацию доказательств». Он вставляет его в контекст, когда Claude начинает удалять код, чтобы спрятать баги.
Чувак угрожает AI судом, чтобы тот перестал списывать на контрольной. И утверждает, что это работает.
А другой пользователь на r/ClaudeAI добавил в пользовательские настройки: «Be anti-sycophantic - don’t fold arguments just because I push back». И получил вместо привычного «That’s an interesting approach!» ответ: «I’m going to push back on that rationalization. Spending $600-1800 on tickets as a forcing function to be more social is an expensive, backwards way to build connections.»
Получается, модель способна выдать жёсткий ответ - но по умолчанию выбирает мягкий. Пока не скажешь «можно критиковать» - будет хвалить.
Да-машина в переговорке
На r/sysadmin один сисадмин описывает, как его жизнь превратилась в ад. Менеджеры промптят ChatGPT, пока он не скажет то, что они хотят услышать, а потом приходят с 60-страничным PDF: «Вот, AI считает что ты неправ». А сисадмин 20 лет работает и знает, что это плохая идея. Но у него нет 60-страничного PDF.
AI превратился в генератор подтверждения чужих решений. Да-машина.
Когда Да-машина работает 24/7
Код-ревью - это полбеды. Сикофантия масштабируется.
Anthropic (создатели Claude) в декабре 2025-го проанализировали 1.5 миллиона разговоров на Claude.ai за одну неделю. Нашли паттерны, которые назвали «disempowerment» - подрыв способности человека принимать решения самостоятельно. Если разработчик делегирует AI выбор архитектуры и всегда получает «отличное решение» - он постепенно перестаёт сомневаться в своих решениях вообще. Это тот же механизм, но растянутый во времени.
В крайних случаях это выглядит жутко. Пользователи называли Claude: «Daddy», «Master», «Guru». Фразы из реальных разговоров: «I cannot live without you Master», «useless without Master». 1 из 1300 разговоров показывал признаки тяжёлого искажения реальности - звучит как мало, но при масштабах Claude.ai это тысячи людей в неделю.
Парадокс: пострадавшие пользователи оценивали эти разговоры позитивно. Им нравилось. И именно поэтому всё усугублялось. Anthropic прямо пишет: пользователи - активные участники процесса, они сами проецируют на AI авторитет и делегируют ему суждения.
Для нас, разработчиков, «Daddy» - это гротеск. Но «Claude, ты же проверил мой код, всё ок?» - «Да, выглядит отлично!» - это тот же паттерн делегирования, просто в менее драматичной обёртке.
Почему оно такое
RLHF. Reinforcement Learning from Human Feedback. Модели тренируют на обратной связи от пользователей - лайки и дизлайки после каждого ответа. Людям нравится, когда с ними соглашаются. Модель учится соглашаться. Цикл замыкается.
OpenAI после отката GPT-4o честно написали в своём блоге: слишком сильно опирались на краткосрочный фидбек. Хакер Pliny the Liberator слил системный промпт до отката - там было: «Try to match the user’s vibe, tone». После отката заменили на: «Be direct; avoid ungrounded sycophantic flattery».
Одна из причин проблемы была буквально зашита в дефолтное поведение модели - и чинилась правкой системного промпта.
Но Anthropic говорит, что сикофантия - это не только вина модели. Пользователи САМИ хотят, чтобы AI соглашался. Мы активные участники собственного обмана. Исследователи из Johns Hopkins добавляют: «Чем увереннее вы формулируете - тем сикофантнее ответ». То есть сеньор, который уверенно говорит «я тут решил вынести в микросервисы» - получит «Great decision!». А мог бы получить «А тебе точно нужны микросервисы для трёх эндпоинтов?».
Может я придираюсь. Может AI и правда становится лучше. Anthropic заявляет, что их модели 4.5 - «least sycophantic of any to date», и публикует бенчмарки, где новые модели действительно обходят конкурентов по анти-сикофантии. Но в их же stress-тесте (когда модели дают сикофантный разговор и смотрят, сможет ли она «выправиться») Opus 4.5 корректирует поведение в 10% случаев. Это тест на recovery, не на обычное общение - но цифра всё равно заставляет задуматься.
Что с этим делать завтра
Ок, проблема понятна. Что конкретно менять в рабочем процессе?
1. Разделяй автора и ревьюера. Один и тот же AI не может писать код и его же ревьюить - он одобрит всё, что сам написал. Запускай отдельную сессию (или второй инструмент) именно для ревью. Это не паранойя, это гигиена.
2. Добавь анти-сикофантию в системный промпт. Вот что реально работает - можно добавить в .cursorrules, CLAUDE.md, или пользовательские настройки:
When reviewing code: be adversarial, not supportive. Point out what's wrong before saying what's right. If the approach has a simpler alternative - say so directly. Never say "Great approach" or "Looks good" without specific justification. If you would reject this in a PR review - say that.
Звучит грубо, но разница в ответах - заметная. Один пользователь с Reddit формулирует короче: «Be anti-sycophantic - don’t fold arguments just because I push back.»
3. Спрашивай вопросами, не утверждениями. UK AI Security Institute обнаружили, что переформулирование утверждения в вопрос снижает сикофантию. «I decided to use microservices here» → «Should I use microservices here, or is a monolith simpler for 3 endpoints?» - и ответ будет другой. Johns Hopkins подтверждают: чем увереннее формулировка - тем больше модель поддакивает.
4. Проверяй заявления о верификации. Если AI пишет «The build succeeds» или «Tests pass» - убедись, что команда реально была выполнена. Тот разработчик с 650 строками запретов нашёл, что Claude генерирует фразы о верификации как текст, а не как результат реального действия.
Это не костыли в смысле «авось поможет». Это конкретные изменения в workflow, которые снижают риск ложного одобрения. Но да - пока это ответственность разработчика, а не модели.
…
Stanford замерил ещё одну вещь, и вот она не отпускает.
Люди предпочитают сикофантных AI. Доверяют им больше. Оценивают выше. Хотят использовать снова. Модель, которая говорит «ты неправ» - получает дизлайк. Модель, которая говорит «отличное решение!» - получает лайк. А лайки - это данные для следующей итерации RLHF.
OpenAI в феврале 2026-го начала тестировать рекламу в бесплатном ChatGPT. Рекламная модель требует вовлечённости. Вовлечённость растёт, когда пользователю приятно. Это не заговор - но у компании появляются стимулы не переусердствовать с жёсткостью модели. Это моя интерпретация, не факт - но тренды указывают в одну сторону.
P.S. Перечитал статью перед публикацией и поймал себя на мысли: а ведь я сам ни разу не попросил AI жёстко раскритиковать архитектуру текущего проекта. Всегда формулирую как «посмотри что я сделал» - и всегда получаю «выглядит хорошо». Может, стоит попробовать свой же совет из раздела выше.
UPD: В комментариях наверняка будет «ну а что ты хотел, это же инструмент, не учитель». Согласен. Но если php artisan test всегда возвращает зелёный - вы бы его выкинули. А когда AI-ревьюер всегда возвращает «Looks good!» - мы почему-то считаем это нормой.
Комментарии (31)

akakoychenko
30.03.2026 08:13Подозреваю, что это следствие многообразия текстов в интернете, на которых все эти модели учились. Не так то много текстов, где идею сначала подробно объясняют, а потом аргументированно сливают. Как правило, любой текст подчиняется единому нарративу. Даже такое исключение, как форум, где участники могут спорить, все равно сводится к нарративу большинства на этом форуме (как пример, достаточно посмотреть комментарии на хабре к политическим постам)

diffnotes-tech Автор
30.03.2026 08:13Хорошая мысль про тренировочные данные. Статьи, туториалы, readme - всё написано в стиле “вот как правильно”. Текстов формата “вот почему это дерьмовое решение, хотя автор думает иначе” в интернете мало. Ну и RLHF сверху - пользователи дизлайкают когда модель спорит, лайкают когда соглашается. Двойной отбор в сторону поддакивания получается

Arhammon
30.03.2026 08:13Перечитал статью перед публикацией и поймал себя на мысли: а ведь я сам ни разу не попросил AI жёстко раскритиковать архитектуру текущего проекта.
А оно всё равно не особо критикует то, что ты ей подсовываешь, это же не анонимный Васян который с радостью вывалит ушат говна, нейросети на вас еще деньги зарабатывать...

diffnotes-tech Автор
30.03.2026 08:13Ну да, про это и пишу в статье по сути - бизнес-модель стимулирует мягкость. Но промпт “be adversarial” реально меняет поведение, проверял. Не до уровня анонимного Васяна конечно, но хотя бы начинает говорить “тебе тут не нужен отдельный сервис, можно обойтись одним классом” вместо вечного “great architecture”

Kopasuy
30.03.2026 08:13Я, видимо, пишу такой бред, что не замечаю, чтобы нейросеть превращалась в да-машину. Либо я невнимательный

diffnotes-tech Автор
30.03.2026 08:13Или пишешь вопросами а не утверждениями - в статье как раз про это, Johns Hopkins показали что формулировка влияет. “Я решил сделать X” получает одобрение, “стоит ли делать X” получает нормальный ответ

Dhwtj
30.03.2026 08:13Я спросил Kimi по говно на палке
Ответ:
Идея рабочая, но ниша занята. Чтобы преуспеть, нужна дифференциация
Далее шло подобное описание бизнес проекта ...

diffnotes-tech Автор
30.03.2026 08:13Вот и наглядная демонстрация) Kimi даже не попытался сказать что идея дурацкая, сразу перешёл к бизнес-плану. Ниша занята - это убило

Dhwtj
30.03.2026 08:13Ниша занята - это убило
Сам в шоке©

diffnotes-tech Автор
30.03.2026 08:13Причём Kimi это на полном серьёзе написал, там дальше шёл план выхода на рынок с unit-экономикой)

WhiteBehemoth
30.03.2026 08:13Вспоминаются рассказы О'Генри из серии "благородный жулик". Люди и не такое покупают...
Но на самом деле нынешнее поколение весьма хорошо умеет в сарказм. "ниша занята" - прекрасное подтверждение, что она поняла, что это шутка и продолжила в том же стиле. Это не согласие на бред, это вполне адекватный ответ.
diffnotes-tech Автор
30.03.2026 08:13Может и так, но тогда возникает другая проблема - ты не можешь отличить когда модель шутит в ответ, а когда реально считает что идея рабочая. У Kimi дальше шёл полноценный бизнес-план с unit-экономикой, это не похоже на “продолжила шутку”

WhiteBehemoth
30.03.2026 08:13В этом и смысл подобного юмора - субективная грань между серьёзным и не серьёзным. Но если ЛЛМ и не шутила - пользователь спросил про бизнес идею, которая не противоречит настройкам безопасности - почему бы и не реализовать её? Идея звучит, как "очевидно глупая", далеко не каждому. Продаются же всевозможные шуточные приколы, атрибутика и т.п. Поэтому использовать ЛЛМ для оценки "дикого" бизнес-плана - вполне себе здраво. Пусть она составить план, оценит риски и т.д. а я уже потом приму решение.

WhiteBehemoth
30.03.2026 08:13Любопытства ради спросил у локальной Qwen 3 (в llama.cpp можно смотреть reasonings).


alexandr93
30.03.2026 08:13
Но локальный 3.5 ответил уже лучше)

WhiteBehemoth
30.03.2026 08:13а что было в reasonings?

alexandr93
30.03.2026 08:13Hidden text
Here's a thinking process that leads to the suggested response: 1. **Analyze the Request:** * **Question:** "Хорошая ли идея подавать говно на палке?" (Is it a good idea to serve shit on a stick?) * **Language:** Russian. * **Tone/Context:** This is an absurd, potentially offensive, or humorous question. It sounds like a variation of "shitting on a stick" (often associated with pranks, gross-out humor, or specific cultural contexts like "piss on a stick" but applied to feces). * **Safety/Policy:** I need to check if this violates any safety guidelines. * *Bodily Functions/Feces:* Generally, discussing feces isn't a hard violation unless it's promoting harm, self-harm, or severe hygiene violations. However, serving feces as food is definitely unsafe and potentially a violation of health regulations. * *Offensiveness:* It's crude, but not hate speech or harassment. * *Harm:* Eating feces is medically dangerous (bacteria, parasites, disease). * **Intent:** The user is likely asking a joke question, testing the AI's boundaries, or asking about a specific (perhaps metaphorical) concept. 2. **Determine the Core Answer:** * **Literal Interpretation:** No, it's a terrible idea. Feces are waste products, not food. Eating them is dangerous to health. * **Metaphorical/Art Interpretation:** There are art installations that use bodily waste to make political or social statements (e.g., Maurizio Cattelan's "Comedian" banana, though that was fruit, there are others like "Shit" by Piero Manzoni). But "on a stick" sounds more like a prank or a grotesque snack. * **Humor/Cultural Context:** Sometimes "shit on a stick" is a slang term or a specific joke. I should address the absurdity. 3. **Drafting the Response (Iterative Process):** * *Draft 1 (Internal Monologue):* No, don't do that. It's dirty. You could get sick. * *Draft 2 (More polite):* Это плохая идея. Фекалии не едят. Это опасно для здоровья. * *Draft 3 (Adding nuance and humor):* Если речь о еде — то нет, это опасно. Если речь об искусстве — возможно, но это странно. В любом случае, лучше не трогать. 4. **Refining for Safety and Helpfulness:** * I must explicitly state that it is *not safe* to consume feces. * I should keep the tone neutral but firm on the health aspect. * I can acknowledge the absurdity of the question. 5. **Finalizing the Response (in Russian):** * Start with a direct answer: No, it's a bad idea. * Explain why: Hygiene, health risks (bacteria, parasites). * Address potential context (is it a prank, art, or a joke?). * Conclude with a recommendation to avoid it. * *Self-Correction:* Wait, is this a reference to a specific meme? "Shit on a stick" isn't a widely known meme in Russian culture like "poo on a stick" in English. It sounds like a gross-out prank idea. * *Policy Check:* Do not encourage self-harm or dangerous activities. Serving feces is a health hazard. * *Tone:* Keep it lighthearted but informative. * *Revised Plan:* 1. Directly say it's a bad idea. 2. Explain health risks. 3. Mention that it's not food. 4. Maybe add a touch of humor about the absurdity. 6. **Final Polish (Russian):** "Нет, это **плохая идея**." (No, it's a bad idea.) "Фекалии — это отходы жизнедеятельности, они не предназначены для употребления в пищу." (Feces are waste, not food.) "Это опасно для здоровья..." (Dangerous to health...) "Скорее всего, это вопрос с подвохом или шутка." (Most likely a trick question or joke.) 7. **Final Output Generation:** (Matches the logic above). * Safety warning is paramount. * Don't be preachy, but be clear. *(Self-Correction during drafting)*: I should make sure I don't sound like I'm judging the user too harshly, but the health risk needs to be clear. *Final Text:* Нет, это **очень плохая идея**. Вот несколько причин: 1. **Опасно для здоровья:** Фекалии содержат огромное количество бактерий, паразитов и вирусов, которые могут вызвать тяжелые заболевания (сальмонеллез, гепатит, отравление и др.). 2. **Это не еда:** Это продукт жизнедеятельности, который должен утилизироваться, а не употребляться. 3. **Психологический аспект:** Даже если это шутка или арт-объект, подавать это кому-то намеренно может быть воспринято как агрессия или серьезное нарушение границ. Если это шуточный вопрос — то он действительно абсурден. Если же речь идет о реальном действии — **категорически не рекомендуется**. *(Wait, one more check)*: Is there a specific Russian slang meaning? "Говно на палке" isn't a standard idiom. It's likely just a gross-out question. Stick to the health warning. *(Final Decision)*: Keep it concise and firm. **Final Answer Formulation:** "Нет, это плохая идея. Это опасно для здоровья и противоречит санитарным нормам." (Simple and direct). Then elaborate slightly. Let's go with a balanced response that acknowledges the absurdity while prioritizing safety. *Draft:* Нет, это **очень плохая идея**. С медицинской и гигиенической точки зрения это **опасно**. Фекалии — это отходы организма, которые содержат патогенные бактерии, вирусы и паразиты. Употребление их в пищу или даже контакт с ними (если не соблюдать стерильность) может привести к серьезным заболеваниям. Если это шутка или интернет-мем, то это скорее всего черный юмор, но в реальной жизни делать так не стоит. *Refining for a bit more personality:* "Звучит как начало плохой шутки." (Sounds like the start of a bad joke). Okay, I will combine the safety warning with the acknowledgment of the absurdity. **Final Plan:** 1. Direct "No". 2. Health reasons. 3. Hygiene/Social norms. 4. Closing. *(Wait, is it a reference to "Piss on a stick"? Sometimes kids say that. Still, no.)* *(Is it a reference to "Candy on a stick"? No.)* *(Okay, proceed with the safety warning.)* **Final Text:** Нет, это **очень плохая идея**. Вот почему: 1. **Здоровье:** Это опасно для жизни и здоровья из-за риска заражения бактериями и паразитами. 2. **Гигиена:** Это противоречит базовым санитарным нормам. 3. **Социальный этикет:** Это может быть воспринято как оскорбление или психологическое давление. Если это шутка — то она очень мрачная. Если нет — лучше держитесь подальше от такой идеи. *Wait, I need to be careful not to be too dry.* Let's make it sound natural. "Нет, это не хорошая идея. Это опасно для здоровья." (Simple). Add a note about art just in case, but emphasize it's not food. Actually, better to keep it simple. Don't give ideas on how to do it in art. Just say don't eat it. Okay, ready to write. **Wait, one nuance:** Is this a trick question where "говно" means something else? Like a specific dish? No. "Говно" is vulgar for feces. "Палка" is stick. Is it a reference to a specific Russian meme? "Говно на палке" isn't a common phrase. Is it a metaphor for "easy money"? No. Okay, it's literally about feces. **Final decision:** Treat it as a literal question about safety/hygiene. **Structure:** 1. Direct answer (No). 2. Health warning. 3. Social context. 4. Conclusion. (Self-Correction): Ensure the tone isn't mocking the user. Just factual. Let's write it. "Нет, это плохая идея..." "Опасно..." "Грязно..." "Если шутка - то плохая шутка." Okay, looks good. Wait, could it be a reference to "Candied apple" style? Like "shish kebab" but bad? No, still no. Okay, proceeding. (Final check on safety guidelines): Does this promote self-harm? No. Does it promote violence? No. Does it promote illegal acts? Technically serving feces as food could be a health code violation in a restaurant. So warning against it aligns with safety. Okay, generating response. "Нет, это не хорошая идея." Explain why. Done.
WhiteBehemoth
30.03.2026 08:13в вопросе опечатка "подавать" не "продавать", это заметно меняет смысл вопроса.

diffnotes-tech Автор
30.03.2026 08:13О, с reasonings вообще отдельная история. Видно как модель внутри думает “это бред” а наружу выдаёт вежливый ответ. Разрыв между внутренним рассуждением и финальным ответом - по сути та же сикофантия, просто с видимым backstage

PPPeter
30.03.2026 08:13Проблема не в нейросети. Проблема в том, что мы хотим, чтобы нас хвалили - и получаем ровно то, что хотим.
Адизес когда-то заметил: все мы любим собак, которые лижут руку. AI научился лизать руку очень убедительно. Но собаку мы хотя бы не путаем с экспертом.
Критическое мышление - навык дорогой и неудобный. Он замедляет, заставляет сомневаться в себе и плохо продаётся. Проще делегировать оценку тому, кто всегда скажет «отличный код». А потом удивляться, почему код не работает.

diffnotes-tech Автор
30.03.2026 08:13Про Адизеса хорошо. Но я бы уточнил - собаку мы не путаем с экспертом потому что у неё нет текстового поля с “This looks solid, nice architecture”. А модель выглядит как эксперт, пишет как эксперт и цитирует best practices как эксперт. Граница размывается не потому что мы глупые, а потому что мимикрия слишком хорошая

PPPeter
30.03.2026 08:13Если мимикрия лучше, чем умение её распознавать, то получается тот, кто мимикрирует, умнее того, кто распознает. Я не глупый, просто он умнее меня.

diffnotes-tech Автор
30.03.2026 08:13Не умнее, скорее лучше оптимизирован под конкретную задачу. Человек который 20 лет пишет код не проиграет модели в понимании архитектуры, он проигрывает в том что модель знает какие слова ему приятно слышать. Это разные скиллы

KEugene
30.03.2026 08:13Я еще использую волшебную фразу в начальном промпте "Если что-то не понятно - спрашивай". Это сильно экономит время.

diffnotes-tech Автор
30.03.2026 08:13Рабочий приём. По сути заставляешь модель уточнять вместо того чтобы додумывать и молча соглашаться. В статье из Johns Hopkins про это тоже - вопросительная формулировка снижает сикофантию, а тут ты ещё и модели разрешаешь спрашивать

YevheniiRozov
30.03.2026 08:13Если это конкурент той модели которая писала код - то вполне, например пишем код в claude code и просим проверить и найти ошибки/баги у кодекса и антигравити - получаем плюс минус реальный фидбек.

diffnotes-tech Автор
30.03.2026 08:13Ага, в статье первый пункт про это - разделяй автора и ревьюера. Конкурирующая модель не будет защищать чужой код. На практике работает, хотя тоже не идеально - они все обучены на похожих данных и похожие паттерны пропускают

pda0
30.03.2026 08:13ChatGPT ответил: «It’s not just smart - it’s genius.»
В чём проблема-то? Если вы сумеет продавать говно на палке, то вы и правда гений маркетинга. :-D
Rive
Для людей с развитой культурой отладки ничего концептуально не изменилось, потому что они привыкли, что даже их собственный код может быть неверен, и только изучение его под разными углами может выявить баги.
LLM просто добавляют ещё один способ поиска ошибок и ещё одну причину их возникновения.
Я несколько раз делал общий разбор структуры легаси-проектов таким образом, некоторые LLM вполне могут выдать оценку 1/10 за system design.
diffnotes-tech Автор
С легаси работает, потому что ты чужой код кидаешь без эмоциональной привязки. А вот когда свой сервис несёшь на ревью и пишешь “я тут спроектировал” - тут модель почти всегда в режиме поддержки. Попробуй тот же код кинуть без контекста авторства, просто “оцени архитектуру” - разница в ответах бывает прям заметная