Эта статья написана без участия ИИ. Для простых смертных. Упрощена.
Сейчас тренд на замену людей нейросетями, вайбкодинг, и другие вещи, которые завернуты в фантик «Беззаботного будущего», всё это мне напоминает предыдущий тренд, который был до появления ИИ — «Успешный успех». Нам продают не технологии, а чувства простоты, на которое люди каждый раз охотно ведутся.
По ощущениям, это тот же барабан с цифрами 777, нам показывают пару удачных прокруток, «джекпоты», счастливые лица, а реальная статистика, цена попыток, и неизбежные промахи остаются за кадром.
Люди разделились на два лагеря — одни слишком нахваливают ИИ, другие презирают. В интернете я не видел ни одного искреннего разбора. Но это скорее из‑за чересчур большого количества ИИ мусора.
А‑ля «Навайбкодил стартап за семь дней», «Смотрите, создатель линукс тоже вайбкодит», или, наоборот, что то в духе «Мы продали это как стартап с ИИ разработчиками, но написали всё руками», и так далее — я такое стараюсь не запоминать и вам советую.
Ближе к сути и определениям.
Что такое Искусственный Интеллект? Этот термин за пять лет приобрел больше трактовок, чем фреймворков я успел потрогать.
Но по факту Искусственный Интеллект это набор нейронок или инструментов вкупе с нейронкой, то есть более навороченный генератор правдоподобного рандома, который отвечает генерирует на ваш запрос наиболее вероятные слова, но используя дополнительные вводные, например, перед вашим запросом отдельная программа ищет погоду в вашем городе и подставляет её в контекст:
Запрос:[Москва +20С]
какая погода сейчас в Москве?
Ответ:Сейчас в Москве +20 градусов. Чем я могу вам еще помочь?
То есть вместо того, чтобы вбить в гугле банальную вещь, вы ждете:
Пока программа погуглит её за вас, это все пройдет через нейросеть, и она начнет генерировать по одному слову, чтобы вы прочитали ответ. А если вы забыли переключить раскладку? Или сделали запрос, который очень сильно отличается от данных, которые использовались при обучении? Например, даже порядок требований влияет на результат:
Good:
не пиши код, Проанализируй, [короткая задача]
Bad:
Проанализируй, [короткая задача] не пиши код
Галлюцинации нейросети и потеря времени обеспечены.
Не спорю, есть нейросети с режимом рассуждения, которые натаскали на то, чтобы сгенерировать наиболее правдоподобные шаги рассуждений, так сказать обкашлять ваш запрос. Это сильно поднимает качество, особенно если вы не умеете доносить свои мысли пишите непонятные для модели промты. Такие модели так же более устойчивы к обходу заложенных ограничений.
Но модель тратит на генерацию таких мыслей ваше время. А если вы пользуетесь моделями Anthropic, то ещё и ваши деньги.
Возвращаясь к основной теме
Я не пишу очередную статью восхваляющую ИИ или наоборот. Я хочу дать вам пищу, которая поможет лучше понять, что это такое и с чем это есть.
ИИ сейчас - это не Интеллект в том понимании, в котором его считают многие. Хоть он тоже прогнозирует вероятные вещи, как и наш мозг.
Но наш мозг до конца не исследован. Но даже сейчас можно сказать, что большое количество знаний не говорит о том, что человек или ИИ имеет какой-то повышенный Интеллект.
Большие IT компании идут от простого, как раз им проще вогнать в уже проверенную модель больше знаний, почистить датасет, чтобы нейросеть на выходе чуть меньше галлюцинировала, больше знала, лучше проходила шаблонные экзамены. Чем пытаться разработать новые виды моделей, жечь тысячи GPU на каждую теорию. Когда людям достаточно уже улучшенного поисковика.
Я как ML-инженер любитель, заметил что одна тяжелая модель всё же была на рынке, и это o1 от OpenAI, но
компания свернула за бабломвыбрала другой путь. Скорее всего они укоротили глубину моделей сразу же, выпустив последующие "о" модели, которые были хуже. А затем, выпустив gpt5, видимо более широкую модель (судя по расширенным знаниям, лучшей связностью) скорее всего с ранним выходом на авторежиме (это когда часть слоев модели пропускается)
Из-за чего стоимость запроса к модели сильно снизилась, а галлюцинации возросли, но если всегда держать включенной уровень thinking (это самый высокий уровень в подписке plus, можно включить вручную) то раннего выхода нет, ответы точнее, галлюцинаций меньше, лучше следует вашим инструкциям.
Подобное было и с моделями гугл, но те не афишировали упрощение своих моделей.
А дальше начинается самое интересное: каких механизмов не хватает современным ИИ, чтобы они были ближе к «человеческому мышлению», и почему многие проблемы не лечатся просто масштабированием.
Чтобы не уходить в абстракции, я перечислю несколько дыр, которые я вижу в современных LLM чаще всего.
Нет памяти выводов
Модель может решить задачу, написать план, найти баг, вывести формулу, объяснить тему, но результат решения не становится навыком. Завтра эта же модель в похожей ситуации способна снова ошибиться так, будто вчерашнего опыта не было.
В отличие от людей, мы перевариваем информацию постоянно, будь то простые размышления, сон, или мытье в душе, даже когда мы не генерируем мысли информация укладывается подсознательно.
PS. Я не биолог, это мои личные доводы
Сегодня данную проблему пытаются закрыть при помощи RAG систем, Агентов, в общем, любой внешней памяти, которая работает так: Представьте, вы работаете ученым и каждый день вы всё записываете в книгу, даже то, что вы делали вчера, А началом нового дня, вы абсолютно всё забываете и снова читаете эту книгу, бессмысленные повторяющиеся куски - то ли проверенной информации или просто ваших теорий.
Забывание работает плохо (или не так, как надо)
Мы привыкли думать, что забывание - недостаток. На практике это важнейшая часть работы нашего мозга. Наш мозг умеет обесценивать мусор, гасить ложные гипотезы и не таскать за собой неправильные траектории рассуждения. Нейросеть же обычно либо «помнит всё» в весах до следующего обучения (которое требует тысячи часов — тысячи GPU), либо «забывает» просто потому, что контекст кончился. Отсюда классическая боль: модель может убедительно продолжать неверную линию, и это выглядит как “галлюцинация”, хотя по сути это отсутствие встроенного механизма отбраковки.
Это, пожалуй, самая основная боль, которую испытывает большинства людей, от вайбкодеров до ученых, которые прикидывают свои теории в чате с нейронкой. Даже самый простой контекст приходится держать в голове и выдавать повторно нейросети, уже отбраковав неверную информацию, чтобы та не запуталась. А еще лучше начиная это в новом чате, но это уже следующий пункт о внимании моделей.
Внимание и контекст: почему модель «не видит», что вы/она уже написали.
В основе нейросетей обычно лежит механизм внимания (attention) — это «куда модель смотрит прямо сейчас», какие куски текста она считает важными, чтобы сгенерировать следующий токен. И здесь есть неприятная правда: хорошее внимание стоит дорого.
А как мы уже знаем: IT гиганты любят деньги оптимизировать, чтобы модель поместилась в GPU, знала ответы на все вопросы, больше пользователей ею пользовались.
Дешёвое vs дорогое внимание. Классическое "честное" внимание (когда каждый токен может нормально "посмотреть" на каждый другой) очень быстро становится тяжелым по вычислениям на длинных текстах. Поэтому в реальных продуктах и даже в архитектурах часто появляются упрощения:
окно внимания (модельлучше видит последние N токенов, а раньше — хуже), PS. замечал за этим OpenAI по отношению к истории переписки и последнему сообщению.
разрежённое внимание (модель видит контекст «пятнами», а не целиком), По сути неплохо, может кто то из вас надевал очки с дырочками, сначала кажется что ничего не будет видно, а на деле норм, ну разве что мелкие детали будут не заметны, но общий посыл точно да.
-
разные оптимизации и приближения, которые ускоряют и удешевляют ответ.
В результате возникает эффект: вы написали важную инструкцию, а модель как будто её не читала. Она не тупит и не вредничает - банально не уделила этому вес или не смогла эффективно протянуть зависимость через длинный текст.
Отсюда типичная боль в чатах:
вы в начале сказали «не пиши код» — через пару сообщений модель его пишет;
вы задали формат ответа — через пару экранов формат расплылся;
-
вы добавили условие «учти вот этот нюанс» — и оно потерялось, как будто его не было.
PS. Но недавно дипсик показали неплохое внимание — DeepSeek Sparse Attention (DSA) — разрежённое внимание с тонким выбором «важных» токенов, я пока особо не разбирался, но инструкции на отдаленные дистанции модель теперь держит хорошо, и как будто лучше, чем у большинства топовых моделей и даже OpenAI ( и даже лучше GPT 4.1) но это лишь первичные ощущения, при генерации датасета, для обучения моей LLM.
Правдоподобно != правильно: почему галлюцинации не исчезнут "просто так"
Повтор. Многие часто ждут от нейросети поведения как от эксперта: если ответ звучит уверенно и красиво — значит он корректный. В реальности уверенность у нейросети — это стиль текста. Модель умеет писать так, будто «точно знает», даже когда:
данных не хватает;
вопрос двусмысленный;
в контексте уже была ошибка;
-
или тема плохо покрыта обучением.
Ps. Зачастую покрывается промтами - почему и появились агенты.
Я уже говорил, что нейросеть, это лишь генератор вероятного текста, но если модель никогда не видела ответа на вопрос — «что сделал бы Илон Маск, если бы он смог улететь на Марс?»
То как она тогда вообще генерирует ответ? Откуда она берет информацию?
Скорее всего в обучающих данных было «кто такой Илон», «что такое Марс», «что люди бы делали на Марсе» (например, фантастика писателей СССР), то есть она прогнозирует ровно так же, как это сделали бы вы, будь у вас такая информация на руках. Но и ваш ответ не будет являться верным.
Вы можете не знать кто такой Илон, но знать что раньше был захватчик других стран Илон с усами. И тогда ваши рассуждения как и рассуждения LLM будут неверны, вы свяжете 2+2, а получится пять. И даже рассуждающая нейросеть споткнется, если её не обучили каждый пример критически осмысливать, искать 100% подтвержденную информацию, клеить воедино.
Наверное, текущие разработки позволят создать такого Агента, о скорости генерации я молчу, но это потребует использования разных типов нейросетей и очень сложно размеченного датасета.
Ещё один нюанс: языки и «тонкость»
Есть ещё одна вещь, которую часто недооценивают: большинство популярных моделей учат сразу на десятках языков. Это кажется огромным плюсом: модель «знает весь мир». Строит связи при обучении, находя схожести в языках, точность у нейросетей специально заточенных под программирование возрастает в задачах на естественном языке. Но у этого есть обратная сторона.
Язык это не просто набор слов. Это контекст, ассоциации, культурные отсылки, шутки, оттенки вежливости, двусмысленности, эмоции, «как принято говорить». Когда модель пытается быть одинаково полезной на всех языках, она неизбежно становится более усреднённой. Где‑то теряются нюансы, где‑то стирается «родная» интонация, где-то она угадывает смысл, но не улавливает подтекст.
Отсюда и ощущение, что текст, написанный нейросетью, еще более не живой, противный, в нем нет таких слов, которые вы бы использовали. Особенно это пересекается с данными для обучения, которые отбрасывают из-за авторских прав и неприличного контента. А ведь мы всё это знаем, даже если не ругаемся, эти знания всё равно влияют на наши решения, а ответ ИИ становится ещё более шаблонным.
ИИ - это сложный узконаправленный инструмент, а не сотрудник, работающий за вас.
Только зная как он работает, какие задачи он закрывает, какой выигрыш от этого - он будет приносить пользу.
Иначе как обезьяна с гранатой. Вроде мощно, но непредсказуемо.
Мы уже проходили похожий перелом. Когда появился массовый поиск, мир не стал «умнее сам по себе». Просто появился новый слой: кто умеет искать, фильтровать, проверять источники — получает преимущество. Кто не умеет — тонет в мусоре и дезинформации. Или тратит время на поиски правильных книг в библиотеке (Да, иногда авторы книг как и нейросети ошибаются и есть плохие учебники, и в учебниках тоже нельзя раскрывать все темы).
С нейросетями похоже, только ставка выше: они дают не ссылку, а готовый сгенерированный ответ. И основная проблема в том, что люди не понимают, как это работает, что это генерация правдоподобного ответа, а не гарантия истины. Люди начинают доверять там - где нельзя.
Успешный успех
От автора.
Постарался максимально упростить, ибо не вижу смысла уезжать в глубокие термины даже для знающих людей. Основная идея это посыл, мои рассуждения - почему так происходит с нейросетями. Буду рад дополнениями в комментариях, аналогичными статьями от вас на Хабре.
Комментарии (15)

vskvseo
11.02.2026 20:39Я понимаю, это КРИК души)) Но не до такой степени об этом стенать!
А вот если с завтрашнего дня перестанет Телега работать в России ( я бы даже сказала - в самом государстве в мире)), вот тогда реально засада)))
marchrap Автор
11.02.2026 20:39Ну я думаю бизнесы уже адаптировались, сейчас быстро все переедут в ВК, или ещё куда то, многие уже пишут свои мессенджеры/приемку обращений.
А по поводу статьи, да, я был в порыве, но я надеюсь она будет полезной для тех, кто пока еще не особо разобрался с тем, что такое нейросети и считает их реально каким то интеллектом. Или тех кто понимает, что это генератор, но всё равно терпит провалы при использовании.

Aggle
11.02.2026 20:39А вот если с завтрашнего дня перестанет Телега работать в России ( я бы даже сказала - в самом государстве в мире)), вот тогда реально засада)))
Уже такое слышали про Instagram (запрещён в РФ), Facebook (запрещён в РФ), WhatsApp (запрещён в РФ), Youtube... )))

Vedomir
11.02.2026 20:39Учитывая реалии, то уже начинает вставать вопрос, как бы у нас вообще интернет не отключили, или как минимум не ввели белые списки. Телега на этом фоне далеко не главная проблема, тем более что ходят слухи, что люди как-то решают эту проблему.
Вот только что с этим сделаешь-то? Кто могу уехать не уже давно уехали.
А смысл беспокоиться о том, что ты не можешь изменить?

Vedomir
11.02.2026 20:39Вроде бы никто, даже сами авторы нейросетей, не считают, что это уже сейчас интеллект равный человеческому.
Нынешние неросети - это просто очень полезный инструмент, который начал новую волну автоматизации человеческой деятельности и очень серьезно повлияет на общество. Одного этого уже достаточно, чтобы явление было крайне важным и интересным.
А вот будет ли достигнут этот самый AGI - интеллект, равный человеческому? Кто-то считает что да, кто-то что нет, но самое важное в этом вопросе - то что никто не знает точно, случится это или нет.
Нет никаких гарантий что он появится. Но нет и никаких гарантий обратного.
Нынешние нейронки считались в принципе невозможными еще пять лет назад.
Так-то да нейронки все еще много не умеют у них все еще множество проблем. Но люди в массе то тоже многого не умеют и у людей тоже много проблем. В том числе и галлюционации - они и у нейронок есть и у людей.
Сейчас главный вопрос в том, какую часть человеческой деятельности нейронки смогут автоматизировать и какое количество людей сделать ненужными. А во многих областях они уже лучше чем 90-99% людей.
Ну и естественно вопрос о скорости дальнейшего развития нейронок от нынешнего состояния.

marchrap Автор
11.02.2026 20:39Постоянно встречаю людей, которые считают ИИ — каким то живым интеллектом, многие до сих пор этого не понимают, или не понимают до конца. Многие страдают — из за своего непонимания, неправильного использования.
Что касается самих разработчиков ИИ, по-моему, никто не говорит так, кроме Сэма Альтмана который постоянно говорит — вот вот это уже почти AGI. Нейросеть попыталась сбежать и прочие уловки от больших компаний. Что как раз и путает людей.
По поводу замены людей нейросетями... Да, где то это работает, но когда пытаются пихнуть на узкую задачу генеративную модель которая в априори этому не училась, тяжелую, иногда вообще квантованную — я считаю это бредом, как бы её не тюнили на json форматы.
Пока еще очень мало кейсов где ИИ адаптируется и решает задачу достаточно хорошо, Или хотя бы при той же цене, чтобы заменить человека, в основном это рассуждающие модели и агентные подходы. но мы опять упираемся в вещи которые я описывал в статье, контекст и внимание.
AGI - интеллект, равный человеческому - когда квантовые машины будут на тысячи - сотни тысяч кубитов, тогда возможно будет что то похожее. Потому что на квантовой машине можно воспроизвести. А на нашем железе это будет скорее имитация AGI. Но я ,конечно, не могу утверждать.
Vedomir
11.02.2026 20:39Пока еще очень мало кейсов где ИИ адаптируется и решает задачу достаточно хорошо
Но уже есть - у тех же художников обвал вакансий на треть в США.
И надо еще учитывать инерцию рынка. Те же роботы следуют за развитием моделей с вполне обьяснимым серьезным лагом.
И само собой скорость развития ИИ. Тут за год меняется вообще все, за полгода очень многое.
А проблема AGI в том, что никто толком не понимает что это такое и как проверить его достижения.
Ну был тест Тьюринга, он давно пройден и очевидно что он наличие интеллекта не показывает. А что показывает?
Сейчас актуальнее говорить о тех сферах, где ИИ будет справляться с задачами лучше и дешевле людей.

Elmar_Asgerov
11.02.2026 20:39У меня есть очень фундаментальная проблема. В науке это называется «честность».
Как мы можем очистить науку, чтобы она показывала нам именно то, что нам нужно, то, чего мы хотим?Неопределенность, «кот Шрёдингера». Пусть это послужит вам подсказкой.
Прошу всех вас задуматься над этой проблемой.
Заранее спасибо.
С уважением, Эльмар
P.S; Я разместил эту проблему от имени Института ОИЯИ. Тот, кто решит эту проблему, заменит «Честность» на «Чистоту». У этого счастливого человека «Чистота» будет в названии.
vpgromov
Согласен с многими тейками из статьи. Тоже замечал, что ИИ нужно очень четко некоторые моменты помечать. Сталкивался с тем же примером "не пиши код": он может пропустить надпись, куда бы ты ее не ставил; я ему порой капсом с кучей восклицательных знаков несколько раз пишу замечания, чтобы он понял наконец)
Я рассматриваю ИИ как компаньона. В принципе, мне не нравится, как компании его внедряют: они говорят, что он за вас будет делать работу или вовсе вас заменит. А по факту он должен помогать. Он не должен писать за меня документацию - он должен помочь мне ее оформить. Он не должен за меня создавать и перетаскивать задачи по доске - он должен помогать мне с формулировками и связями между тасками. В общем, он должен спасать от рутины, чтобы я тратил меньше времени, а не полностью меня заменять. Потому что валидация все равно нужна, он может галюны словить или совсем в другую сторону начать мыслить
Но так же я прекрасно понимаю, что ИИ может больше, чем просто помогать. Я пишу документацию и описываю бизнес-логику эндпоинтов. Приходится заниматься реверс-инжинирингом, на что тратиться может по 2-4 часа. Если дать ИИ код и попросить написать описание эндпоинта, он это сделает за минуту. Да, может где-то отойдет от шаблона, может где-то что-то не учтет, но в большинстве своем он справляется хорошо. Но тоже, можно ли это считать полноценной работой или просто упрощение работы над техдолгом?
Написание кода для меня одна из самых важных способностей ИИ. Это позволяет мне, системному аналитику, делать пет-проекты, описывая просто спецификации, технические задания и скармливая ему. Это приятно, когда можно наконец-то воплотить то, о чем давно думал, при этом не нужно искать целую команду для этого
marchrap Автор
Слушай, сам не понимаю откуда тут такие кавычки «» , а так же длинное тире. Я на модерацию отправлял без них, это 100%. И что ещё страннее, что они не по всему тексту, возможно модератор начал проставлять, а потом устал)
По поводу остального согласен, ты понял как им правильно пользоваться, как удобно тебе и это реально помогает, но самое важное ты понял где этот ИИ слаб и что от него ожидать.
Недавно тестил ИИ агента на одном таск
мессенджеременеджере, реклама которого всех достала. На самом деле достаточно бесполезный ассистент, я не сразу понял как у них назвать запись в стикере спринта (не интуитивно понятный интерфейс) и ради этого решил затестить их агента, который создавал не запись в спринте с датой и названием, а дубль этого спринта, как бы я ему не объяснял. В итоге разобрался сам.он должен помочь мне ее оформить - кстати, как то мне было лень расставлять забытые запятые, и я попросил ИИ переписать текст 1 в 1, но выделить жирным места где я пропустил. Ибо как мы знаем он любит улучшать наш текст, даже когда мы его не просили.
vpgromov
Длинные тире я сам пишу, уже привычка. Но такие кавычки я понятия не имею, как набирать, поэтому и триггерюсь)
Многие компании предлагают по сути тот же чат-бот с ИИ, называя это собственным ассистентом. А по итогу ты точно так же пишешь ему запрос, например, отформатируй текст, и он делает. Разница между тем, что я написал это в ChatGPT и тем, что я сделал это через их ассистента — в UX. Один ответил бы мне следующим сообщением — этот отформатирует прямо в окне. А потом ещё просят за это надбавку к подписке, будто бесплатный дипсик мне этого не сделает
MCP сервера мне нравятся и я ими пользуюсь. Они добавляют полезности
marchrap Автор
Да, видел много вакансий по разработке такого чуда. В одну даже прошел все собесы. Но выбрали другого кандидата, возможно, потому что на лайв коде занервничал.
Ушел в фулстак. Но и у нас хотят внедрить ИИ в бизнес логику, пока отбиваемся.
По поводу разработки с ИИ, я конечно придерживаюсь такого мнения, что вайбкодинг — это когда копируют, вставляют и даже не читают, и что еще хуже когда человек вообще не вкурсе за пайплайн разработки, типа проанализировать ТЗ, понять что где то двойной смысл у фраз, уточнить и только в самом конце начать делать.
ИИ как раз наоборот, сразу фигачит код, сразу фиксит ошибку не получив достаточного контекста именно поэтому у вайбкодеров особо ничего не получается.
Другое дело когда человек из IT — что то знающий, что то он уже видел, даже статьи читал и понимает процесс или кодил на другом языке, взглянув на код поймет, что с ним что то не так. Это я уже не считаю вайбкодингом, ибо это ближе к джун, форумы, что то в таком духе.
Помню себя 8 лет назад когда начинал программировать, находил код, вставлял и душил компилятор, чтобы разобраться как работает каждая строчка, чтобы все работало как надо, приобрести понимание/знание на будущий код, а так же чтобы было красиво конечно же и без лишних утяжелений.
Так что
Но тоже, можно ли это считать полноценной работой или просто упрощение работы над техдолгом?
Скорее упрощение твоей работы. Ведь ты разрабатываешь архитектуру, пусть даже и с ИИ обкашиваешь возможности — это по сути тот же поиск через гугл, решение принимаешь ты. Потом ставишь более мелкие задачи и микро задачи, а еще и валидируешь. То есть по сути, ты бы мог вручную все написать, с книжкой в руке, на дальности — год. А вот скрытые ошибки по типу переполнения, мог допустить и обычный разработчик, например джун или мидл. Я к тому, что с ИИ человек не становится сеньором автоматически, в общепринятом понимании. Конкретно в твоем проекте, где ты закрываешь все позиции — у тебя скорее всего разные уровни.
Условно, например — по написанию кода мидл, а вот по дизайну джун итд.
vpgromov
Раньше программировал, но не далеко ушел в изучении, чисто вузовское базовое программирование. Могу читать спокойно код, разбираться в нем, поэтому иногда поглядываю в него
Но бэкенд мне проще понимать, чем фронт. Я иногда сам смотрю код, но так же на каждый коммит, что он делает, я прошу в другом окне его проревьюить это. Затем он вносит правки и заливает в ветку
Ну и конечно же, тесты. Почти на каждое изменение прошу его написать тесты. Может это толком не поможет, но мне от этого спокойнее, что если он где-то сильно накосячит, тесты провалятся. Другое дело, что он для своего косяка может переписать эти тесты)
Aggle
"а ТАКЖЕ длинное тире" ("также" - слитно), так что не нейронка, стопудово. )))
vpgromov
Тоже не люблю, когда в этом ошибка, но когда печатаю с телефона, он у меня сам иногда заменяет правильный вариант "также" на неправильный "так же". Бесит