Сейчас про AI говорят из каждого чайника.
Скептики говорят, что AI — это всё хрень и очередной хайп.
Нормисы говорят, что AI в целом норм.
Компании говорят, что они уже используют AI, показывая красивые отчёты инвесторам и руководству.
Школьники и студенты решают домашку с помощью AI.
Айтишники пишут код с помощью AI.
Мотиваторы-пустозвоны спрашивают: «А ты уже внедрил AI?» — правда, не объясняя, зачем он вообще нужен.
AI сейчас везде. И именно поэтому хочется поговорить не о том, какой он крутой или плохой, а о том, к чему приводит его бездумное использование.
Я сразу опущу все социологические и биологические темы вроде «деградации поколения» и прочих апокалиптических прогнозов. Это отдельный большой разговор. Здесь хочется поговорить о более прикладных вещах — о работе, обучении и экспертизе.
Сразу обозначу свою позицию: я не занимаю крайних точек зрения. Я не против AI. Но я и не за его бездумное использование.
AI — это инструмент. Очень мощный. Но, как и любой инструмент, он может как ускорять и усиливать, так и ломать процессы, если использовать его без понимания. Надеюсь, мысли из этой статьи помогут кому-то более осознанно и аккуратно подходить к использованию AI в реальной жизни и работе.
Про терминологию
Перед тем как идти дальше, коротко про терминологию, чтобы не было путаницы.
В этой статье под AI я буду иметь в виду в первую очередь LLM-модели, вроде ChatGPT, Gemini, Copilot и прочих ассистентов, которые:
генерируют текст,
пишут код,
суммаризируют документацию,
помогают с решениями.
Я сознательно не говорю здесь про классический машин лёрнинг, компьютерное зрение, рекомендательные системы и прочие узкоспециализированные модели. Это отдельная тема и отдельный разговор.
Дальше по тексту я буду использовать слово AI — не потому что это самый точный термин, а потому что так его сейчас понимают большинство людей.
1. Вымирание экспертизы

Как по мне, вымирание экспертизы — это главная проблема во всей этой истории с AI.
Если эксперт использует AI, чтобы ускорить свою работу или закрыть какие-то рутинные задачи — это нормально и даже хорошо. Но если AI начинает использовать новичок, у него просто не с чем сравнить результат.
А если задуматься, что вообще такое экспертиза?
Это не просто знания из книжек или курсов. Экспертиза — это объём живых, динамических знаний, которые накапливаются годами, плюс понимание, где норма, а где ерунда. И, что важно, возможность этим знанием делиться.
Если нет экспертизы — нет экспертов.
Если нет экспертов — некому делиться знаниями.
Если некому делиться знаниями — новые эксперты просто не появляются.

И тут можно сказать:
Ну и что, зачем вообще эти эксперты?
Хотя бы затем, чтобы появлялись следующие эксперты. Без этого не будет ни новых знаний, ни развития. В какой-то момент даже обучать модели станет не на чем, потому что качественного человеческого контента просто не останется.
Есть люди, которые научились работать с кодом ещё до того, как AI стал массовым. Да, сам AI — не новая технология, он используется давно. Но мы сейчас говорим именно про момент, когда в широкое поле вышли ChatGPT, Copilot, Gemini и прочие ассистенты.
У этих людей есть внутренняя экспертиза. Она позволяет фильтровать откровенный AI-мусор и галлюцинации, когда модель начинает выдумывать несуществующие вещи. Эксперт просто знает базу. Он понимает, где решение нормальное, а где оверинжиниринг или откровенная дичь.
А теперь посмотрим на следующее поколение. Оно всё чаще не учится самостоятельно.
Возьмём стандартный учебный процесс: есть программа, теория, практика и домашние задания. Но что происходит, если домашка делается не самостоятельно, а с помощью AI? Цепочка ломается. Формально образование есть, а по факту — оно перестаёт работать.
И тут уже не важно, о чём речь: школа, университет, колледж или курсы по QA и программированию. Принцип один и тот же.
Часто говорят: «Раньше тоже списывали, гуглили, копировали с Stack Overflow». Да, списывали. Но есть принципиальная разница — стоимость усилия.
Чтобы списать или скопировать раньше, нужно было хотя бы: понять, что искать, найти подходящее решение, адаптировать его под задачу.
AI снижает этот порог почти до нуля: 10 секунд, два клика — и готовый ответ. Соблазн выше, усилий меньше, а ощущения «я что-то понял» — больше. Это меняет саму динамику обучения.
Если так пойдёт дальше, то через несколько десятков лет, а может и гораздо раньше, просто некому будет фильтровать AI-мусор. Старые эксперты уйдут, а новые не появятся. Некому будет элементарно определить, что именно нагенерировал этот AI и насколько это вообще адекватно.
Эксперт знает базу. Он чувствует границы. Новичок — нет. И AI этого разрыва не закрывает, а только маскирует.
Важно уточнить. Здесь речь не о том, что эксперты исчезнут полностью и станет «ноль». Речь о масштабе.
Если раньше носителей экспертизы было условно миллион, а стало сто — формально эксперты есть. Но по факту экосистема разрушена. Знания плохо передаются, обучение не масштабируется, фильтрация ошибок становится узким горлышком.
В природе это называют не «ноль особей», а вид на грани вымирания. Проблема именно в этом.
2. ИИ-слепота и vibe coding

Главная проблема vibe coding в том, что LLM почти всегда заточены на одно — выдать хоть какой-то ответ. Даже если этот ответ бредовый. Модель не скажет: «Я не знаю». Она скорее скажет что-то уверенно и правдоподобно.
Если у человека нет экспертизы, он перед этим слеп. Он просто не может отличить нормальное решение от ерунды. В итоге vibe coding выглядит как работа, но по факту это тупиковая история. Карьеру на этом не построишь.
Представьте человека, который строит вам дом. Он не знает, как это делать. Он не знает, какой фундамент нужен, какую крышу делать, какие нагрузки учитывать. Но у него есть AI, а AI «всё знает».
AI говорит:
Делай вот такой фундамент и вот такую крышу.
Человек делает. Зимой крышу проламывает снег. А весной фундамент заливает водой, и вы ходите по дому по колено в воде.
Что произошло? Виноват AI? Нет.
AI просто не знал контекста. Если бы он знал, где строится дом, какой грунт, какой климат и какие нагрузки, он, возможно, сказал бы, как сделать правильно.
Но этот контекст нужно задать. А чтобы задать контекст, его нужно понимать. А чтобы понимать — нужно самому разбираться в том, как строится дом.
Вот и получается замкнутый круг. Без экспертизы невозможно правильно использовать AI, а без правильного использования AI экспертиза не появляется. Мы снова приходим к тому, что экспертиза first.
AI реально может быть очень полезным. Он мог бы помочь построить дом, таскать кирпичи, заливать фундамент, считать нагрузки. Но чтобы понимать, какой кирпич класть, где и зачем, какую крышу делать и почему именно такую, нужен человек, который в этом разбирается.
То есть снова — нужен эксперт сверху. И снова мы возвращаемся к первому пункту.
Тут возникает интересный парадокс.
Тем, кому Copilot нужен больше всего — джунам — он часто бесполезен или даже вреден. Без базы они не могут оценить качество ответа и просто верят модели.
Тем, кому Copilot полезен — сеньорам — он в 90% случаев не нужен постоянно. Они и так решают задачу, а AI лишь иногда ускоряет рутину.
В итоге Copilot не делает из джуна мидла и не делает из мидла сеньора. Он просто усиливает того, кто уже понимает, что делает. И это важно честно проговаривать.
3. Отсутствие изобретений

Это тоже один из важнейших пунктов.
AI очень плохо что-то изобретает. И это не потому, что он «глупый», а потому что он ориентирован на те знания, которые в нём уже есть. Он может на основе существующих технологий что-то собрать, улучшить или скомбинировать. Но придумать что-то принципиально новое — с этим у него большие проблемы.
AI хорошо редактирует, помогает, ускоряет. Но он не придумывает новое. По своей сути AI — не изобретатель, а исполнитель.
И тут важно понимать очень тонкую грань между изобретением новой технологии и утилизацией уже существующих. Например, если вы сделали новую библиотеку, то, по большому счёту, вы ничего не изобрели. Вы просто решили конкретную проблему уже известными инструментами. Это полезно, это нужно, но это не изобретение.
А вот если вы сделали новый язык программирования — это уже другое. Например, тот же Go. Это не просто набор фич. В язык вложено огромное количество опыта: философия, подходы к конкурентности, синтаксис, нейминг стандартных функций. Всё это — результат многих лет реального инженерного опыта человека или команды, которые этот язык проектировали.
Такие вещи нельзя просто «сгенерировать». Их нужно прожить. Нужно самому набить шишки, понять, что работает, а что нет, и осознанно заложить это в технологию.
Если этого нет, получается что-то вроде PHP. Работает? Да. Изобретение? Вряд ли.
Именно на этом уровне AI и упирается в потолок. Он может помочь инженеру, может ускорить реализацию идеи, может убрать рутину. Но придумать философию, почувствовать ограничения и сделать из этого что-то новое — на это AI не способен.
И да, пример с Go — это всего лишь пример. Таких технологий тысячи. И все они были изобретены инженерами, а не сгенерированы моделью.
4. Отсутствие шаринга знаний

Тут тоже есть большая проблема.
Люди перестают читать форумы. Stack Overflow — самый простой пример. Он, по сути, уже мёртв. Когда вы в последний раз туда заходили? Вот и я не помню, хотя когда-то буквально не вылезал оттуда. У меня даже была ачивка за ежедневное посещение сайта в течение года или что-то вроде этого.
Люди перестают писать.
Люди перестают обсуждать технические темы.
Не потому что им лень, а потому что в этом больше нет необходимости.
Это легко проверить. Возьмём тот же Хабр. Раньше люди были реально голодны до знаний. В 2017 году статья про HTTP-протокол или REST API могла спокойно собрать 300–500 тысяч просмотров. Не потому что она была гениальной, а потому что информации просто негде было взять. Если ты находил нормальную статью — ты буквально держался за неё перед собесом.
Сейчас такая статья в лучшем случае соберёт 5 тысяч просмотров за полгода и утонет в общем потоке. И, если честно, в этом есть и плюс — мусора стало меньше. Но вместе с мусором уходит и реально годный контент. Мотивации писать ради 3 тысяч просмотров и пары комментариев нет никакой.
Нет шаринга знаний — не на чем обсуждать, не на чем дообучать модели.
Я сам это постоянно замечаю. Иногда открываю профильные хабы и вижу в основном статьи от компаний в стиле «как мы пофиксили один костыль другим, ещё более грандиозным костылём». Минимум просмотров и комментариев, но максимум плюсиков — потому что Хабр не запрещает компаниям плюсовать самих себя. И всё. Другого контента почти нет.
У этого, конечно, есть и плюсы, и минусы. С одной стороны, теперь сложнее продавать курсы с вопросами из гугла. С другой — это ведёт к оттоку пользователей с площадок, а значит и к демотивации создавать новый контент.
Тут дело не в том, что люди «обленились» или «перестали читать». Дело в том, что информация перестала быть дефицитом.
Раньше была реальная жажда знаний: нашёл нормальную статью — держишься за неё.
Сейчас конкретный вопрос закрывается за секунды через AI. Люди не голодны до инфы — она доступна мгновенно и точечно.
Это снижает ценность общего контента и мотивацию его создавать. Не хорошо и не плохо — просто новая реальность.
Возможно, я не прав. Это мои личные наблюдения за последние пару лет, в том числе за тем же Хабром. Но тренд выглядит именно так.
Технический контент просто перестал читаться, потому что AI закрывает этот пробел. Зачем мне тратить три часа на поиск нормальной статьи про pytest, если я за 10 секунд могу спросить у AI и получить ответ? Чтобы найти статью, нужно ещё правильно сформулировать запрос, потом надеяться, что кто-то в комментариях ответит на твой вопрос. А AI ответит сразу.
В итоге контент не читают. А раз его не читают — мотивации писать новый нет. Шаринга знаний становится всё меньше.
Можно сказать, что всё вышеописанное — это просто жалоба. Но нет. Я пытаюсь показать другое: отсутствие шаринга знаний приводит к тому, что моделям просто не на чем будет обучаться.
Текущие LLM обучены на общедоступных ресурсах: документации, форумах, обсуждениях, GitHub. Если этого контента становится всё меньше, новые знания просто не появляются. А значит, обучать будет не на чем.
Да, есть синтетические данные, когда AI обучают на данных, сгенерированных другим AI. Но тут мы снова возвращаемся к предыдущему пункту про отсутствие изобретений и потолок такого подхода.
И давайте скажем прямо: AI в том виде, в котором мы его знаем сейчас, стал возможен только благодаря десятилетиям открытого шаринга знаний. Если бы этого шаринга не было, обучать модели было бы банально не на чем. Это база.
5. Завышенные ожидания

Во многих компаниях сейчас внедряют AI, но ожидания от него сильно завышены.
Все эти посылы в духе «используйте AI везде, где можно» чаще всего либо ничем не заканчиваются, либо заканчиваются тем, что компания просто тратит кучу денег на AI-побрякушки. Инструменты покупаются, внедряются, о них красиво рассказывают, но по факту ими либо не пользуются, либо пользуются, но они ничего не ускоряют.
Зато очень удобно показывать отчёты инвесторам и говорить, какие мы модные и технологичные.
Важно понимать простую вещь: AI сам по себе ничего не ускоряет, если им не уметь пользоваться. Он не волшебная кнопка и не замена мышлению. Без понимания процессов и без экспертизы он превращается либо в игрушку, либо в источник проблем.
Я лично знаю примеры, когда людей увольняли просто потому, что компания решила использовать какую-то AI-приблуду, которая:
сама читает спецификации,
сама пишет код,
сама пушит его в репозиторий,
сама пишет тесты и сама их гоняет.
Звучит красиво. На слайдах вообще огонь.
Но у меня простой вопрос: у кого-то вообще есть хоть один стабильно успешный кейс внедрения такого инструмента в продакшене? Не демо, не PoC, не презентация для C-level, а реальная работающая система.
Если есть — поделитесь. Press F, Amazon.

Чаще всего всё упирается в то, что такие инструменты не понимают контекста, не чувствуют границ и не несут ответственности за результат. А ответственность в итоге всё равно ложится на людей, которых либо уже уволили, либо которым потом приходится всё это разгребать.
А плюсы вообще есть?
Важно: это не статья про «AI — зло» и не прогноз конца индустрии.
Плюсы у AI есть. И их много. Но они проявляются только тогда, когда AI — инструмент в руках эксперта, а не костыль вместо мышления.
Проблема не в самом AI, а в его бездумном использовании и завышенных ожиданиях. Именно об этом и идёт речь выше.
Конечно, есть. И плюсов реально много.
Но тут важно сразу расставить акценты. AI даёт плюс только в одном случае — если им пользуется эксперт. Человек, который понимает, что он делает, зачем и почему именно так.
Если эксперт делает одну условную единицу работы в час, то с AI он может делать две или три. Без потери качества. Это ключевой момент. Не новичок, который пишет лютую дичь, а AI ему радостно отвечает: «Да! Ты прав! Конечно!» — и в итоге человек просто слепой и уверен, что всё ок.
AI отлично снимает рутину.
Он может за секунды пересказать нудную документацию, в которой ты бы иначе сидел полдня, вникая и вычленяя главное. Может суммаризировать длинные обсуждения, таски, спецификации. Тут вообще вопросов нет — это реально удобно и экономит время.
AI может и должен помогать с ревью кода. Если у вас нет времени ревьюить полторы тысячи строк от джуна и каждый раз объяснять, почему размазывать бизнес-логику по всему проекту — плохая идея, это может сделать AI. А эксперт потом быстро пробежится и примет финальное решение.
То же самое с текстами и документами. Проверить, отредактировать, улучшить формулировки, найти ошибки — AI с этим справляется отлично.
И по факту всё, что перечислено выше, — это и есть текущая реальность AI. Именно там он реально помогает и даёт ценность. Всё остальное чаще всего либо жалкие потуги, либо очередная игрушка для C-level, чтобы выглядело модно и прогрессивно.
На практике люди часто даже не могут найти нормального применения тому же Copilot’у, потому что в 90% случаев он просто не нужен. А в оставшихся 10% — он полезен ровно настолько, насколько человек понимает, что именно он делает.
Заключение
Если эта аналитика из личных наблюдений поможет хотя бы кому-то более осознанно подходить к использованию AI — значит, я писал это не зря.
Комментарии (61)

netricks
02.03.2026 06:41Ситуация:
Сто процентов кода пишется с помощью ИИ. За время прошедшее с внедрения переработаны и перелопачены авгиевы коняшни того легаси, что контора генерировала пятнадцать лет. Изучена куча технологий и дисциплин, на каждую из которых без ИИ ушли бы месяцы...
Статья на хабре - в 90 проценах случаев ИИ не нужен.
У меня какой-то когнетивный диссонанс. Мир разделился на тех, кто не знает с какой стороны к этой приблуде подойти и тех, кто на вопрос, "чего бы ещё к этой приблуде прикрутить?" отвечает "Да!".

Arastas
02.03.2026 06:41А вы можете дать конкретные примеры, какие дисциплины вы изучили с помощью ии?

netricks
02.03.2026 06:41Да. Вот из недавнего. Архитектуру ecs систем с архетипами мы весьма подробно разобрали. Логику и историю эволюцию шейдеров кожи. Подробненько внедрились в практику применения библиотеки nanobind. Технологию работы диффузионных моделей для рисования картинок до винтиков разобрали. История нейросетей. Отдельные вопросы физиологии мозга. Также были разобраны общефилософские вопросы математического устройства физических формул, особенности культов Артемиды в древней Греции.
И это далеко не полный список.

AdrianoVisoccini
02.03.2026 06:41Изучена куча технологий и дисциплин, на каждую из которых без ИИ ушли бы месяцы...
Вы уверены, что дисциплины именно что "изучены"? В офлайн формате без ИИ много чего сможете по ним выдать? Не уверен.
За время прошедшее с внедрения переработаны и перелопачены авгиевы коняшни того легаси, что контора генерировала пятнадцать лет.
Вот такие вещи беспокоят частенько. А если компания это генерила 15 лет а теперь это всё переписано, то кто несет в себе экспертизу в том, как это работает? Представим что по какой-то причине у вас возникла ошибка и вы не можете использовать для её решения ИИ. Есть ли у вас тот человек, который скажет "скорее всего сломалось там и там, вот тут работает так, надо глянуть туда"? Как я понимаю, теперь для всех этот код просто новый, а решение любой задачи без ИИ превратится в прохождение онбординга по этому коду, сначала разобраться что и как там написано, потом проблемы решать. Не так ли?

netricks
02.03.2026 06:41Да, уверены. Я нейросеть допрашиваю не для того, чтобы из головы выкидывать.
Ой, как будто раньше кто-то понимал, как это работает.

AdrianoVisoccini
02.03.2026 06:41Да, уверены. Я нейросеть допрашиваю не для того, чтобы из головы выкидывать.
Ну просто невозможно изучить что-то быстрее просто по тому что вы используете нейросеть. Скорее всего вы пожертвовали либо шириной знаний либо глубиной усвоения. Третьего не дано. Буквально.
Другими словами, вы просто получили ответы на конкретно те вопросы которые вам были нужны и не получили ответы на те вопросы которые как вам кажется вам не нужны. Это не изучение.
Может я заблуждаюсь, просветите меня, но я не представляю себе что кардинально может измениться в кривой обучения благодаря условно говоря смене наставника или учебного плана. Неужели LLM открыло какой-то новый способ изучения, благодаря которому одинаковый объем информации вы можете потребить и усвоить быстрее чем раньше?
AndreySu
02.03.2026 06:41Неужели LLM открыло какой-то новый способ изучения, благодаря которому одинаковый объем информации вы можете потребить и усвоить быстрее чем раньше?
Открыло. Вы можете спрашивать и изучать то что вам интересно индивидуально, углубляясь имеено в детали которые вам необходимы. Это как обучение с экспертом, где раньше вы могли любое обучние проходить индивидуально с экспертом в определенной области? И да, любой человек может ошибваться в чем и любой эксперт не 100% прав, так же как и LLM.

SabMakc
02.03.2026 06:41Так и раньше поисковик можно было распрашивать сколько угодно.
Да, информация в не таком удобном виде была - но она была. А главное - были разные мнения, которые ты видел и оценивал.
И лично я сильно сомневмюсь, что повышение доступности информации в виде ИИ положительно скажется на обучении.
netricks
02.03.2026 06:41С поисковиком вы не можете информацию обсудить. А с нейронкой можете. С нейронкой разговаривать надо. От неё только тогда польза есть, когда с ней говорят. А как поисковик гугл то конечно лучше работает...

AdrianoVisoccini
02.03.2026 06:41ну да, только вот обсудить можно было всегда с кем-то, в этом нет ничего нового, просто ответ получался не в 2 ночи, Вот и вся разница.
А ещё, есть мнение что бесконечно отвечающий наставник это не плюс а минус. Когда ты человека реального спрашиваешь у тебя есть понимание что количество вопрсоов условно ограничено, нужно формулировать, разобраться там где можешь сам, не спрашивать херню и не дергать по мелочам а разбираться по настоящему. А когда у тебя есть человек который готов отвечать бесконечно то ты будешь на это полагаться, считая что ты что-то выучил
WhiteBehemoth
02.03.2026 06:41ну да, только вот обсудить можно было всегда с кем-то, в этом нет ничего нового, просто ответ получался не в 2 ночи, Вот и вся разница.
Человек - это всегда субъективно. И это диалог. И ограничения по времени и графику жизни.
Да, ИИ-чат - это эксперт-суррогат. Но объём данных в его распоряжении - колоссальный. И нет ограничений социальных рамок типа вежливости и т.п. Можно настроить под любой стиль общения.
А ещё, есть мнение что бесконечно отвечающий наставник это не плюс а минус. А когда у тебя есть человек который готов отвечать бесконечно то ты будешь на это полагаться, считая что ты что-то выучил
Типа в эпоху "до ИИ" мы учили все "раз и навсегда". Всё забывается со временем. И вообще, цитируя своих преподов из студенчества 90х годов "инженер не должен всё знать, но должен знать где и как искать ответ".

SabMakc
02.03.2026 06:41"В споре рождается истина".
Я не против разговоров. Я против глубоких разговоров с LLM.
С LLM сложно спорить - она или со всем согласна, или просто не обращает внимание на твои слова. А иногда эти факторы работают вместе - "Да, ты совершенно прав", но продолжает гнуть свою линию.
P.S. как раз чаты с ИИ мне очень сильно понравились как альтернатива поисковику. "Режим ИИ" у гугла - очень мощный инструмент. Но именно изучать новое я предпочитаю по статьям - для лучшего формирования целостной картины.

AdrianoVisoccini
02.03.2026 06:41Открыло. Вы можете спрашивать и изучать то что вам интересно индивидуально, углубляясь имеено в детали которые вам необходимы.
Ну во первых это не новое, если так раньше можно было с экспертом, во вторых, получение ответа и изучение это сильно разные вещи. Суть в том что в процессе изучения ты изучаешь сферу, а при получении ответа ты получаешь....ответ. Другими словами ты не разибарешься ни в чем, шаг влево шаг в право - пустота.

FixicusMaximus
02.03.2026 06:41LLM - эксперт? Не смешите. В таком случае все, что написано в интернете, это чистая правда.

Arastas
02.03.2026 06:41В этом случае у вас остается много unknown unknowns. В отличие от обучения по составленной экспертом программе, куда входит то, что эксперт считает важным для освоения предмета, а не то, что вам кажется нужным.

netricks
02.03.2026 06:41Да, есть важный момент, который даёт вам ЛЛМ, и который не даёт чтение книг и прослушивание лекций. Очень важный момент. Есть исследования, на тему запоминания информации при написании конспекта. Человек запоминает материал лекции лучше, если пишет не слово в слово, а сокращает, выделяет нужное, записывает своими словами. Почему, потому что при этом производится аналитическая работа, стимулирующая запоминание. ЛЛМ даёт вам не только материал, она даёт вам собеседника, готового в два часа ночи говорить с вами о культах Артемиды столько, сколько вам нужно. Это не просто шпаргалка - это качественный сдвиг. Любая тема. Любая с ллм изучается быстрее и лучше, чем без неё

SabMakc
02.03.2026 06:41А вы уверены, что в "спрошу в любой момент" участвует запоминание?
Доступность информации скорее негативно сказывается на запоминании - просто потому что в любой момент можно спросить снова, напрягать память нет необходимости.

AdrianoVisoccini
02.03.2026 06:41ну так один аспект улучшился, остальные ухудшились. Есть собеседник с которым вы можете обсудить - отлично. Но теперь вы исключаете то что лучше запоминается информация которую вы самостоятельно получили, а не та которую вам на блюдечке с голубой коемочкой выдали. И опять же, если вы осбуждаете только то что вам интересно, вы упускаете кучу всего что вам не интересно но оно влияет на ваше понимание и осознание области в целом.
Все ещё уверен что
. Изучена куча технологий и дисциплин, на каждую из которых без ИИ ушли бы месяцы...это просто громкие слова и если ваши компетенции в этой куче проверит, то окажется что там ничего нет

netricks
02.03.2026 06:41Так вы книжки то тоже читать не забывайте. Вот ничего и не ухудшилось

AdrianoVisoccini
02.03.2026 06:41вы буквально говорите что потратили ДНИ на то что надо было изучать МЕСЯЦЫ но на поверку оказалось что вы просто добавили обсуждение с ЛЛМ, при этом продолжая и книги читать?
Так может всетаки не так сильно скорость увеличилась? не в 30 раз?
netricks
02.03.2026 06:41Вы знаете, тут даже речь не про скорость. Вот например историю развития шейдеров кожи без ЛЛМ я бы даже копать не полез, потому как это огромный пласт раскиданной по интернету информации, которую человеку собрать - огромную работу надо провести (мало кто интересуется историей алгоритмов. Всё больше - конкретными решениями). То есть речь даже и не про ускорение, а про возможность углубиться в темы, которые без нейронки будут для вас неподъёмны

AdrianoVisoccini
02.03.2026 06:41а вот с этим я бы и спорить не стал, но изначальный то тезис был
Изучена куча технологий и дисциплин, на каждую из которых без ИИ ушли бы месяцы...

kmatveev
02.03.2026 06:41Это не просто шпаргалка - это качественный сдвиг.
Я подозревал, что нейронка пишет комментарии в этой ветке, и доказательства не заставили долго ждать

axelsvenn
02.03.2026 06:41если честно, то ллмки дали буст при изучении экзаменационного материала. например я кормлю параграф из матана ллмке и прошу дать пример из реального мира (ну чтобы понять на чувственном уровне формулу). и при этом ты можешь перепроверить сразу же его мысли просто смотря на математический текст. пока что этот подход не подвёл и экзамены успешно сдаются. но возможно это так только на несложных темах.

vityo
02.03.2026 06:41Не думаю, что без гугла, без аи и без людей коллег живых и в сети и без книг, или даже с чем-то одним или вместе взятым , нельзя сказать что выучил хорошо и надолго неважно что

panzerfaust
02.03.2026 06:41Понимаю вас, коллега. Я тоже на этой неделе дописываю статью по лимфодренажу в хоботочках долгоносиков. Месяц назад получил PhD за работу по лечению геморроя среднего уха с помощью CRISPR CAS9. А в пошлом сентябре подробненько внедрился в тему реализации машинного зрения на глиняных табличках Южной Месопотамии.

netricks
02.03.2026 06:41Я бы на самом деле не удивился. Правда, гемороя среднего уха не бывает, ибо геморой это про кишечник и только про него... Лимфодренаж в хоботочках - это любопытно. Анатомия насекомых вообще очень интересная штука

AdrianoVisoccini
02.03.2026 06:41геморой это про кишечник и только про него...
А вы точно разработкой занимаетесь?)

Astrowalk
02.03.2026 06:41Навеяно словом "когнетивный":
Сбрось обузу корысти, тщеславия гнёт,
Злом опутанный, вырвись их этих тенёт!
(Омар Хайям)

AlexKidd727
02.03.2026 06:41Насчет разграничения, кто эксперт и ему можно пользоваться ИИ, а кто не эксперт и ему нельзя пользоваться очень большой вопрос. Особенно по цензу наличия технического образования. Конечно, крепкая база знаний из ВУЗа полезна, но сама по себе корочка не делает экспертом, кому можно вайб-кодить

SabMakc
02.03.2026 06:41Речь о том, что для контроля результатов LLM нужна собственная экспертиза в этой области.
Речь не про образование, корочки и прочие аттрибуты.

pda0
02.03.2026 06:41Меня тоже некоторые моменты беспокоят. Например, новости, типа некая компания в момент создала при помощи ИИ внутренний продукт на миллион строк, с тестами, документацией и т.д.
В моменте я рад за них. А дальше? Если потребуется что-то изменить, а ИИ, создавший write-only код, не захочет делать этого, без нарушения обратной совместимости, которая поломает работу с накопленными данными - что тогда? Элитный вайбкодинг не поможет. Даже с документацией в таком проекте люди быстро не разберутся.
Почему write-only? Потому что предсказывая выход по входу ИИ по определению не дальновидны. Они решают текущую задачу. И только. Сообразить что понадобиться потом они не могут. А люди зачастую забывают или сами не могут внятно объяснить.
Пример, компилятор C от Claude Opus. Он сумел решить поставленную масштабную задачу. Но с тремя важными моментами:
Поддерживать и развивать этот код невозможно.
Собранный файл тормозил, потому что попробуй опиши задачу по оптимизации.
Внезапно не собрался hello world. (Потому что задача была пройти тесты. Задачи компилировать любой корректный код не было.)

santa324
02.03.2026 06:41Лиха беда начало.. Вы попробуйте попросить ИИ составить архитектуру кода, продумать как его дальше масштабировать и поддерживать, постараться код сделать легко читаемым и тп. И еще обосновать все это.
А потом экстраполируйте то что увидите на ИИ столь же превосходящий гпт 5.2 как 5.2 превосходит 3.5.

FixicusMaximus
02.03.2026 06:41Сейчас такая статья в лучшем случае соберёт 5 тысяч просмотров за полгода и утонет в общем потоке. И, если честно, в этом есть и плюс — мусора стало меньше. Но вместе с мусором уходит и реально годный контент. Мотивации писать ради 3 тысяч просмотров и пары комментариев нет никакой.
А не наоборот ли? Куча мусора, а душевных статей уже и нет почти

SabMakc
02.03.2026 06:41Речь не про душевность, а про технические статьи.
Эксперту, чтобы написать статью нужно очень много времени. Дни, недели, годы. С LLM эксперт быстрее - в разы, но не на порядок (вычитку результатов ни кто не отменял).
ИИ-слоп генерируется за несколько минут (а то и секунд). При этом ИИ генерит статьи относительно неплохо. По крайней мере очень убедительно.Но чтобы увидеть разницу надо самому достаточно хорошо разбираться в вопросе. И потратить много времени на внимательную вычитку.
Добавить сюда скорость работы ИИ, доступность ИИ (для не-экспертов в том числе) и получим ситуацию, что ИИ-слопа просто на несколько порядков больше, чем качественных статей. А статьи экспертов просто незаметны в потоке ИИ-слопа.
Поэтому и умирает экспертиза. И как будут на этом фоне появляться новые эксперты - большой вопрос. И еще больший вопрос - как эксперта отличить от ИИ для не-эксперта.
P.S. впрочем, я не сомневаюсь, что эксперты будут появляться. Если есть спрос - то будет и предложение. Их будет меньше, они будут дороже - но они будут.

FixicusMaximus
02.03.2026 06:41Речь не про душевность, а про технические статьи.
Дак с душою написано и усваивается лучше и в памяти хорошо откладывается, так как окрашено эмоциями. Сухую статью читать-то трудно, не то что запомнить, что там написано. Это, конечно, больше про образовательные статьи, а не научные.
Эксперту, чтобы написать статью нужно очень много времени. Дни, недели, годы. С LLM эксперт быстрее - в разы, но не на порядок (вычитку результатов ни кто не отменял).
ИИ-слоп генерируется за несколько минут (а то и секунд). При этом ИИ генерит статьи относительно неплохо. По крайней мере очень убедительно.Но чтобы увидеть разницу надо самому достаточно хорошо разбираться в вопросе. И потратить много времени на внимательную вычитку
Вопрос. На кой черт эти статьи писать? Зачем мне очеловеченный пересказ статьи в которой изначально зашиты пропаганда и бред с высокой долей вероятности? Это не мысли автора, это генерация llm. Я и сам могу ее об этом спросить. А вот к экспертам есть вопросы, по поводу их экспертности: если они ничего без llm не могут экспертного сделать, то какие они эксперты? Их экспертность под вопросом. Упрощать себе жизнь можно сколько угодно, главное в овоща не превратиться и не лишиться своего экспертного мнения. Мозг раскачиваются под нагрузкой, а нам предлагают протез сделать.
Добавить сюда скорость работы ИИ, доступность ИИ (для не-экспертов в том числе) и получим ситуацию, что ИИ-слопа просто на несколько порядков больше, чем качественных статей. А статьи экспертов просто незаметны в потоке ИИ-слопа
https://habr.com/ru/articles/977828/comments/#comment_29606958
Поэтому и умирает экспертиза. И как будут на этом фоне появляться новые эксперты - большой вопрос.
Как говорилось в хорошем фильме: "жить захочешь, не так раскорячишься"
И еще больший вопрос - как эксперта отличить от ИИ для не-эксперта.
Для этого Сталин и ввел логику и широкое образование, которое сразу же после него начали сворачивать.
P.S. впрочем, я не сомневаюсь, что эксперты будут появляться. Если есть спрос - то будет и предложение. Их будет меньше, они будут дороже - но они будут.
Вы еще не поняли? Тут вопрос не в деньгах, а в выживании. Так что будут 100%. Цитата выше из фильма тут тоже в тему.

KidsGood
02.03.2026 06:41"И еще больший вопрос - как эксперта отличить от ИИ для не-эксперта. "
никак...

santa324
02.03.2026 06:41Человеческий мозг имеет пределы, можно сколько угодно аргументировать что ИИ без человека эксперта это плохо, но это единственный способ преодолеть пределы человеческого интеллекта.
Есть способы и технологии контролировать результат, не контролируя процесс и внутреннюю реализацию. Я уверен что прогресс пойдет в эту сторону, разбираться что там накодил ИИ никто не захочет.
kadmy
02.03.2026 06:41С чего вы взяли, что что-то преодолели? А вот про код могу сказать, что тот же SOLID для ИИ гораздо важнее, чем для человека. ИИ — это, по сути, бредогенератор. Сначала они генерировали тексты, где слова были не связаны между собой. Потом 2–3 слова имели смысл, потом предложение. Вроде все написано на отличном языке, но по смыслу бред. Сейчас имеет смысл 500 строк кода. Не больше. Дальше начинается лютый архитектурный бред. Бред на высоком уровне. А так как без нормальной архитектуры любой проект очень быстро загибается, то и сгенеренные проекты неподдерживаемы. Что с ИИ, что без него, никак. Не поможет ваш контроль результата. И без человека ИИ нормально архитектуру приложения не строит. Выдает внешне всё красиво, а внутри монолит. Если вы пинаете ИИ и не даёте ему делать архитектурные ошибки, тогда да, он отлично разбирается и кодит. Но для этого нужно, чтобы архитектура была даже чище, чем для людей.

santa324
02.03.2026 06:41А где я написал что уже преодолели? это перспективы а не уже существующая реальность.

santa324
02.03.2026 06:41Сейчас действительно все выглядит так как вы написали. Но если ИИ явно просить продумать архитектуру прежде чем кодить, то результат уже не так плох. И не вижу никаких преград что скоро он и архитектуру будет продумывать лучше нас, контекста только дать ему побольше.

Imaginarium
02.03.2026 06:41Вот именно поэтому ИИ сделает как никогда важным и дорогим образование и "органические знания", назовем это так. Именно сейчас люди, кричавшие про бессмысленность высшего образования ошиблись фундаментально и навсегда.

TimsTims
02.03.2026 06:41Представьте человека, который строит вам дом. Он не знает, как это делать. Он не знает, какой фундамент нужен, какую крышу делать, какие нагрузки учитывать. Но у него есть AI, а AI «всё знает».
AI говорит: Делай вот такой фундамент и вот такую крышу.Ага. Меняем "AI" на "Прораб Василий" и получаем примерно такой-же результат в половине случаев. Всем хорошо известны, какие косяки допускают при строительствах домов. Т.е. утверждать, что "Люди-эксперты не допускают косяков" нельзя.
AI просто не знал контекста. Если бы он знал, где строится дом, какой грунт, какой климат и какие нагрузки, он, возможно, сказал бы, как сделать правильно.
Меняем "AI не знал" на "Василий не знал" что такое бывает с грунтом.
Да и вообще странно, будто бы новое поколение само весь дом будет строить. Вот никогда не строили - пошли спросили ИИ и построили. Ну да, ИИ виновато, что люди полезли строить дом, никогда его не строив.
Но этот контекст нужно задать. А чтобы задать контекст, его нужно понимать. А чтобы понимать — нужно самому разбираться в том, как строится дом.
Не согласен с изложенным. Новое поколоение вполне может привыкнуть "особенностям" поведения AI, и по сути всё что нужно - это правильно составить серию промптов. Одним из первых особенностей нужно изучить всю тему и прогреть ИИшку контекстом, задав ключевые вопросы "что важно при строительстве дома", "какие бы ты ключевые вопросы задал прежде чем думать над планом строительством дома", итд итп.
Вы в статье упоминается, что ИИ хорошо справится с проектированием дома, если ей зададут такой контекст. Но почему-то исключаете вариант, что новое поколение не будет выяснять такие тонкости и составлять базу знаний прежде чем например строить дом.

TimsTims
02.03.2026 06:41ПС: Ребят кто минусанул в карму - вы хоть отпишите, хоть с левого аккаунта - с какими утверждениями не согласны и почему? Я постарался максимально конструктивно продемонстрировать, что пример действует и на другие ситуации.
Суть проста: X является причиной Y, если при отсутствии или изменении X событие Y не произошло бы (или произошло бы иначе).
Допустим, кто-то говорит: Проект провалился из-за смены руководителя. Задаём вопрос: если бы руководитель не сменился, а всё остальное осталось прежним проект бы всё равно провалился? Если да - значит смена руководителя не была настоящей причиной и её нужно искать в другом. Если нет - значит смена руководителя действительно сыграла роль.
Вот касательно строительства дома - фундамент уплыл из-за того, что ИИ про это забыла спросить в каком-то случае? А будь там обычный строитель Вася, он спросил бы про фундамент и проводилась ли георазведка?
Конечно, есть строители которые спрашивают, есть те, кто не спрашивают (и потом мучаются). ИИшка тоже может спросить, может не спросить. Автор статьи делает однозначный вывод: Виновата ИИшка, ей нельзя доверять, люди тупеют. А я скажу, что виноват тот, кто заказывал: нужно по-максимуму думать своей головой, проверять и перепроверять за строителями вообще всё, всеми рационально доступными способами.
см. Казуальная модель.

LeVoN_CCCP
02.03.2026 06:41AI просто не знал контекста. Если бы он знал, где строится дом, какой грунт, какой климат и какие нагрузки, он, возможно, сказал бы, как сделать правильно.
Ключевое здесь - "возможно". А "возможно" и нет, но мы спишем это на недостаток ещё каких-нить изначальных данных, а не то, что АИ нельзя использовать для ВАЖНЫХ вещей.
Люди перестают читать форумы. Stack Overflow — самый простой пример. Он, по сути, уже мёртв. Когда вы в последний раз туда заходили?
Окей, разделим. И раньше была куча людей которые "я напишу на СО, пусть там думают и подскажут", они и с АИ также делают. А пересели с СО на АИ потому что ответ появится за 30 сек, а не за пару дней или ... и тут мы переходим плавно к тому почему СО на самом деле умирает (я этого не наблюдал лично, но видел много статей которые вызывают доверие) из-за их модераторской жёсткой системы, когда твои вопросы закрывают с дубликатом как раз из-за обилия людей, упомянутых выше. Под такую ковровую бомбардировку бывает попадают и вопросы с нюансами, от чего площадка страдает больше.
Отвечая на последний вопрос - сегодня. А до этого в воскреснье и пятницу. Потому что было необходимо решить важные вопросы.
Ninil
На прошлом месте примерно 2 года назад с помпой объявили что будем внедрять MS Copilot. Купили 300 лицензий на полгода для пилота, собрали добровольцев (я был в их числе), привлекали внешних консультантов, которые провели серию вебинаров... Через полгода все тихо без каких либо анонсов и объявлений свернули. Я это заметил только потому что был в пилотной группе. Больше к этой теме не возвращались...
TimsTims
Эта история похожая, но эпичнее:
Peter Girnus (https://x.com/gothburz/status/1999124665801880032):
В прошлом квартале я внедрил Microsoft Copilot для 4000 сотрудников. 30 долларов за место в месяц. 1,4 миллиона долларов в год. Я назвал это «цифровой трансформацией».
Совету директоров очень понравилась эта фраза. Они одобрили это за одиннадцать минут. Никто не спросил, что это на самом деле будет do. Включая меня. Я всем говорил, что это "в 10 раз повысит производительность". Это не настоящее число. Но звучит именно так. Сотрудники отдела кадров спросили, как мы будем измерять десятикратное увеличение. Я сказал, что мы будем "использовать аналитические панели". Они перестали спрашивать.
Три месяца спустя я проверил отчеты об использовании. Его открыли 47 человек. 12 человек использовали его более одного раза. Одним из них был я. Я использовал это, чтобы кратко изложить содержание электронного письма, которое мог бы прочитать за 30 секунд. Это заняло 45 секунд. Плюс время, необходимое для устранения галлюцинаций. Но я назвал это "успешным пилотным проектом". Успех означает, что пилот не допустил видимой ошибки. Финансовый директор поинтересовался окупаемостью инвестиций.
Я показал ему график. График пошёл вверх и вправо. Это был показатель "внедрения ИИ". Этот показатель я придумал сам. Он одобрительно кивнул. Теперь мы обладаем возможностями искусственного интеллекта. Я не знаю, что это значит. Но это есть в нашей презентации для инвесторов. Один из опытных разработчиков спросил, почему мы не используем Claude или ChatGPT. Я сказал, что нам нужна "безопасность корпоративного уровня".
Он спросил, что это значит. Я сказал «соответствие». Он спросил, о каком именно соответствии. Я сказал "все они". Он выглядел скептически. Я назначил ему "беседу о развитии карьеры". Он перестал задавать вопросы. Компания Microsoft направила группу для проведения тематического исследования. Они хотели представить нас как историю успеха. Я сказал им, что мы "сэкономили 40 000 часов". Я рассчитал это число, умножив количество сотрудников на число, которое я сам придумал. Они это не проверили.
Они никогда do. Теперь мы на сайте Microsoft. «Глобальное предприятие добилось повышения производительности на 40 000 часов благодаря Copilot». Генеральный директор поделился этим в LinkedIn. Он набрал 3000 лайков. Он никогда не пользовался Copilot. Ни один из руководителей этого не сделал. У нас есть исключение. «Для стратегической концентрации необходимо свести к минимуму отвлекающие факторы в цифровой среде».
Я разработал эту политику. Срок действия лицензий истекает в следующем месяце. Я прошу добавить дополнение. Дополнительно 5000 мест. Первые 4000 мы не использовали. Но на этот раз мы будем "стимулировать внедрение". Принятие решения в силу подразумевает обязательное обучение. Обучение представляет собой 45-минутный вебинар, который никто не смотрит. Но ход выполнения будет отслеживаться. Завершение — это показатель.
Показатели отображаются на панелях мониторинга. Информационные панели включаются в презентации для совета директоров. Презентации для совета директоров помогают мне получить повышение. К третьему кварталу я стану старшим вице-президентом.
Я до сих пор не знаю, что делает Copilot. Но я знаю, для чего это нужно. Это делается для того, чтобы показать, что мы "инвестируем в ИИ". Инвестиции означают расходы. Вложение средств подразумевает приверженность делу. Приверженность делу означает, что мы серьезно относимся к будущему. Будущее — это то, что я сам сочту нужным. Пока график движется вверх и вправо.