Я, как и многие здесь, программист. Я учился программированию с 2003 по 2008 годы, хотя и до этого меня тянуло к технике, программированию и подобным вещам.

Перед тем как я расскажу о своих доводах, хочу прояснить несколько моментов.

Отправь СМС с текстом ИИ на номер 8008135 и ты сможешь поговорить со мной
Отправь СМС с текстом ИИ на номер 8008135 и ты сможешь поговорить со мной

Глава ноль: Определение пары терминов

Первая и очень важная вещь: глупость — это когда ты не знаешь, что должно быть там изначально.

Когда ты приходишь в дом и пытаешься повесить ключи на крючок, а крючка там нет, потому что его кто-то решил убрать - ключи летят на пол и ты выглядишь глупо. Это не очень обидно, и тебе даже станет весело, когда ты поймёшь, что не знал об изменении местоположения крючка. Но можно привести более серьёзные и обидные примеры. Например, когда ты стоишь в автосервисе и слушаешь лекцию о том, что автомобилю писец, потому что ты залил дизель в бензиновый двигатель. Ты не знал, что твой двигатель бензиновый. Теперь это — очень дорогая и обидная глупость. Каждый раз, когда ты себя чувствовал глупым, это происходило потому, что кто-то решил что-то о чём-то, а ты об этом не знал.

Вторая, не менее важная вещь: рабочим может называться только то, что работает само по себе, без надзора. Его не надо придерживать, подталкивать, нажимать и подклеивать, чтобы оно работало.

Да, большинство машин требует определённого ухода, например, смены масла или работы антивируса на сервере. Но это — рутинные действия по обслуживанию, которые известны. Если перед тем как напечатать страницу на новом принтере, тебе надо открыть новое приложение, нажать “Выход” трижды, потом запустить старую версию приложения, а после этого переоткрыть новое приложение, то это нельзя назвать рабочим приложением. Оно сломано.

Следующий момент. В дипломе у меня написано — инженер-программист. Слово “инженер” само по себе подразумевает, что я умею выдумывать, создавать, обслуживать и управлять различными программами и компьютерной аппаратурой. Я могу настроить что-то, создать что-то новое или удалить что-то ненужное. Неважно, что это: будь то драйвер для мышки на Windows 95 или распределённая система на Кубере — я могу с ней справиться. А если не знаю, как с ней справляться, то у меня есть необходимые инструменты, которые позволят найти инструкцию, выучить и понять её, после чего я таки разберусь с драйвером мышки или Кубером.

Далее — самый главный момент.

Компьютер — это устройство, которое умеет собирать, хранить, обрабатывать и передавать информацию. Обработка информации происходит путём выполнения чёткой последовательности команд, которые были записаны в компьютер.

Глава один: Что такое программирование

Программирование — это точная наука. Я не только могу точно сказать, что произойдёт при использовании какой-то команды, но и могу оценить надёжность той или иной системы с определённой вероятностью. Также в программировании есть несколько способов построения отказоустойчивых систем.

Мы можем создавать системы, где любой узел можно на лету заменить на другой узел. Также существуют системы реального времени — это компьютеры, которые выдают результат вычислений за определённое, физически ограниченное время. Такие используются в ракетах и самолётах. Телефонные станции работают на таких системах.

Существуют банковские системы, которые очень точно оперируют цифрами, чтобы внимательно следить за балансом и абсолютно точно его вычислять, обсчитывая своих клиентов так, чтобы те не замечали этого.

Компьютеры умеют повторять одно и то же действие без изменений бесконечно долго. И это то, почему нам так нужны компьютеры. Никто из вас не хочет сидеть перед Excel’ем и складывать цифры в столбик. На самом деле, само значение слова “компьютер” произошло именно из этого. “Компьютерами”, т.е. “высчитывателями”, называли в 50-х годах людей, которые складывали цифры для космических и военных служб в США.

Глава два: И вот, встречайте — ИИ!

2025 год. У нас есть т.н. “искусственный интеллект”.

Это — офигительная система, потому что это компьютер, который делает вещи не так, как их делает компьютер. По факту — это большая перемножалка матриц, которая добавляет рандомные числа в свои ответы и позволяет нам ворочать данные по-иному.

Только вот момент в том, что это умение добавлять нечёткости в ответы компьютера совсем нарушает само определение слова “компьютер”. Компьютер — это то, что должно всегда выдавать точный ответ.

Я вижу гигантские деньги, которые выливают в ИИ. Буквально, это та самая чёрная дыра из ОNN, в которую сливают доллары. Эта дыра перехайплена до безобразия. У нас есть NVIDIA. Они получали деньги с компьютерных игр. Потом пришли майнеры — и они получали деньги с майнеров. Теперь пришли ИИшники — и они безостановочно гребут деньги с ИИшников. H200 — это карта от NVIDIA, которая стоит 35 000 долларов. Одна. Карта. А их закупают по 150 000 за раз.

Электроэнергия — это вообще швах. В США сейчас инвесторы ходят и готовы запихивать в глотки деньги тем, кто строит электростанции. Кстати, я не шучу. Я могу помочь. Если у тебя есть компания, которая может строить электростанции где угодно в мире за пределами РФ — пингани меня в телеге. 250 миллиардов долларов надо потратить до конца года.

Всё это надо для того, чтобы обслуживать ИИ.

И это — замечательно! NVIDIA не обрушилась. Рынок растёт и пухнет.

Вопрос просто вот в чём: а в чём смысл ИИ? Каково предназначение систем ИИ? Какой от них выхлоп?

Понимаешь, выхлоп есть очевидный. Они помогают обрабатывать большое количество информации достаточно быстро. И действительно, это круто. Мне не надо писать код руками. За меня его пишут боты.

Но проблема в том, что ни одна ИИ-модель не может и никогда вообще не сможет гарантировать 100% корректный результат. Поэтому для программирования компьютеров их можно использовать достаточно ограниченно. За примером сходи в соседний пост. Мы там как раз и говорим о том, что как ты эту шарманку не закручивай, рано или поздно у неё болт за шайбу залетит, и она начнёт фигачить почём попало. Понимаешь, по факту, твой ИИ-ассистент нельзя назвать рабочей системой. За ним нужен уход.

При работе с системами ИИ надо строго выдерживать баланс. Тебе нужно чётко понимать, сколько работы ты можешь отгрузить на ИИ и сколько тебе надо делать самому. Если ты вообще не используешь системы ИИ, то ты будешь слишком медленным. Если ты отгрузишь слишком много, то ты будешь проводить часы в попытках починить то, что ИИ наломал.

Где-то посередине есть баланс. Можно прилично ускорить рабочий процесс при использовании ИИ. Насколько ускорить — это вопрос последний. Но можно ускорить.

Момент в том, что если на ИИ полагаться чрезвычайно часто, то очень быстро можно скатиться в абсолютную глупость. Незнание разницы между rm ./* -rf и rm . /* -rf будет фатальным. Это не только сделает тебя глупым, но может стоить тебе работы. Непонимание и невычитывание команд, выдаваемых ИИ — это бич современной разработки. В прод идёт всё, неважно, как оно написано.

Я вижу это с немного другого бока. Я работаю в банковской разработке. Тут, когда ты приходишь и предлагаешь внедрить ИИ, на тебя смотрят вот так.

ИИ? В бухучёте? Лучше отправь СМС с текстом ИИ на номер 8008135
ИИ? В бухучёте? Лучше отправь СМС с текстом ИИ на номер 8008135

Глава три: Кому действительно нужен ИИ?

Система бухучёта работает по определённым алгоритмам, которые написаны в 1980-х годах. Её не будут менять. Её не нужно менять. Всё зависит от того, производит ли система в 2025 году те же самые ответы, что она производила в 1990-м.

Более того, сами системы ИИ бесконечно плохо умеют в любое нишевое программирование.

Что самое интересное — ИИ-системы очень хорошо справляются с определённым, очень ограниченным кругом задач. В частности — предсказание и обработка big data. Посмотри на замечательные модели Гугла по предсказанию погоды. Понимаешь? Предсказание. Мы уже не уверены в результате. Ответ на вопрос “Будет ли ураган во Флориде?” очень важен. Пока что ответ этот — 50% на 50%. Он либо будет, либо не будет. Мы не знаем.

Но, добро пожаловать в LLM и обработку Big Data. Теперь мы можем дать чуть более чёткую, но всё же неопределённую оценку. Отлично!

Обработка текстов с LLM — это круто. “Перепиши мне этот текст, и замени все тыкания на выкания.” Отлично! “Перепиши этот текст в старинном стиле.” Запросто! Потом мне просто надо сесть и вычитать этот текст. Но сойдёт.

Понимаешь, LLM хорошо обрабатывают вещи, в которых не нужен чёткий результат. Можно было открыть Word и заменить все “ты” на “вы” путём автозамены. Результат был бы отвратительным. Но, спасибо LLM-кам, теперь у нас есть возможность поменять “ты” на “вы” с результатом в 99,95% правильного выхлопа.

Переводы? Запросто, если тебе не нужен точный перевод. LLM-ка будет использовать неправильные оттеночные слова и идиомы. Но она будет в разы лучше, чем моя любимая копипаста:

Почистите вашу мышь. Отсоедините ее поводок от компьютера, вытащите гениталий и промойте его и ролики внутренностей спиртом. Снова зашейте мышь. Проверьте на переломы поводка. Подсоедините мышь к компьютеру. Приглядитесь к вашей прокладке (подушке) — она не должна быть источником мусора и пыли в гениталии и роликах. Поверхность прокладки не должна стеснять движения мыши. (https://www.lib.ru/ANEKDOTY/mouse_driver.txt)

Такой перевод заменяет тебе часы в попытках понять, о чём текст. Но он не канает, когда нужен хороший художественный перевод фильма или качественный перевод стихотворения.

Глава четвёртая: Человеческий фактор

Самое больное место удара у нас будет в человеческом факторе. Представим на секунду, что у тебя свой бизнес. Тебе нужен программист. Ты выставляешь вакансию на каком-то сайте и настраиваешь LLM следить за резюме, отсеивая неподходящих кандидатов.

Если у тебя работают три программиста, и ты ищешь четвёртого — то ты его долго не увидишь. А если у тебя есть десять тысяч программистов, и на каждую вакансию появляется по 1500 резюме в день, то ты не сможешь нанять без ИИ.

Тут момент в том, что надо понимать: на любой “нет”, который ИИ может выдать в отношении резюме человека, у самого человека есть вполне разумное оправдание или причина. То есть, у тебя не получится просто нанять с помощью ИИ. Тебе надо будет приготовиться к тому факту, что с кандидатом надо будет говорить вживую.

И там ты узнаешь, что ИИ без задней мысли пропустит к тебе самого большого урода, с которым ты бы никогда не захотел работать в жизни. Или наоборот — замечательный человек, который не знает по памяти, чему равен квадратный корень из интеграла сорок второй степени, может пролететь на интервью с ИИ.

Вывод

То, что тебе говорят: ИИ — это золотая жила, в которой невозможно проиграть.

Что на самом деле: ИИ — это ещё одна технология, которую надо учить, знать и уметь применять.

Любая идея, какой бы прекрасной она ни была, будет испорчена, если её использовать слишком мало или слишком много. ИИ повсюду — это глупость. ИИ только в окошке ChatGPT раз в месяц — это отставание.

Не следует вестись на каждый маркетинговый ход. Лучше — проси графики продаж и заработков тех компаний, которые тебе заливают о том, что ИИ должен быть везде.

Комментарии (158)


  1. xVICTORINOXx
    30.07.2025 03:05

    Понравилось. Понравилось, что после прочтения у меня зарождавшееся ощущение белой вороны начало проходить. То, что из каждого утюга все кричат прт ИИ наплминает фильм Идиократия, когда поля поливали энергетиком, а не водой и, собственно, ничего не росло. А когда спросили почему так - потому что реклама вбила в голову, что там же электролиты! Зачем они растениям никто не знает, но раз так орут из всех щелей - значит правильно.

    Фундаментально, есть ощущение, что должности, которые должны занимать инженеры, конструкторы и it архитекторы занимаются техниками, которые умеют что-то одно настроить, но не очень понимают, зачем и как глобально это должно работать. Есть конвейер, где он что-то узко настраивает, но без возможности понимать и видеть всю картину и в итоге есть технология, которая применена уже где надо и не надо, но работает чаще всего не так, как хотелось бы.

    Сейчас больше продумывают не саму технологию и целесообразность еë применения, а исключительно способы еë монетизации.


    1. Nurked Автор
      30.07.2025 03:05

      Ой, не сыпь мне соль на рану.

      Люди раньше имели профессии и гордились произведёнными продуктами. Сейчас такого делать нельзя, ибо его тут же надо монетизировать, выложить в инсту и собрать себе фолловинг, потому что всем нафиг не сдалось тот факт, что ты умеешь правильно паять или варить сталь. Всем нужен "эспожур" и всё.

      На самом деле - это не так. Тут больше как ошибка выжившего. Мы просто видим, что весь мир - это ИИ, хайп и постоянные советы от индусов о том, как кверить чатгпт лучше.

      Но я работаю с банками в США. Я знаю, что компании, которые пожирнее, они держат у себя хороших программистов, и под ними держат свои школы, чтобы этим программистам доучивать джунов до миддлов и синьёров.

      Да я сам сейчас себе учу человека 22х лет от роду.

      Не всё так плохо, но это если НЕ судить по состоянию главной страницы Хабра, Реддита и ХакерНьюзов.


      1. sic
        30.07.2025 03:05

        Было бы интересно, как Вы работаете с (надеюсь на, а не просто с) банками в США, чтобы понимать историю. Без истории ничего не сказано по делу. Да раньше было лучше, айтишников больше ценили, каждый третий грезил о месте в управляющих гугла, каждый десятый метил в полусне в список форбс, но об этом не заводили блогов, потому что народ смешить можно вещами и попроще. Не потому что rm rf в голове, не потому что на 100% безошибочность, да и вообще без конкретной причины, - просто так сложилось. А когда хорошо относятся, хорошо платят, грех не помечатать о чем-то большем, человек так устроен. Здесь ИИ несколько сбоку.

        Вкатуны - да, важны. Именно они дают такого же уровня мечты руководителям компаний, что мол сейчас самородков за три копейки накопаем, и они нам будут по бентли в месяц делать, и ведь не все уйдут, кому-то понравится, а почему нет, кто строго доказал, что это невозможно?

        А ИИ просто инструмент, и в руках вкатуна который кодит по принципу plug and pray - опасный мусор. В руках заржавевшего сеньора, который не доверит никому важнейшее раскладывание записи по байтикам - ерунда. А остальные пользуются, насколько область применимости позволяет и об этом много не орут. А мы будто бы выбор совершаем, плоская отвертка или крестовая? Ну плоской можно раскрутить и что-то что под крестовую заточено, с теми или иными потерями, а крестовая вообще блин не всюду лезет, но стоп... именно реклама вбила в голову, то что нам нужно без конца выбирать (я выбираю плоскую отвертку! а вы?). А если выбираешь неправильно, то будут последствия. Осталось только узнать, кто знает результат выбора наперед нас. Но мы, пожалуй, узнавать это не будет. Там по-любому будет Ктулху, известный (или малоизвестный тем более) политик, или вовсе тот, чье имя нельзя называть.

        Так что остается лишь некое копротивление. Холивар ради холивара. Давайте забьем на топик и будем обсуждать плоские vs крестовые отвертки. "А я рабтаю уже 13 лет на ведущую строительную компанию, и мне ни разу не помогла плоская отвертка!". "Еще в 80 году пытались сделать очередной прорыв, и создали много саморезов под плоскую отвертку, но ничего не получилось, а значит не получится и сейчас!". Почти ничего по сути не поменяется.

        Лишь потому что фанатиков, которые выбрали конкретную отвертку на всю жизнь, их ноль с половиной человек, а из них большинство, те которые выбрали свой лучший досуг так, -искать, где что-то подобное обсуждается и влезать туда с шокирующими фактами. "А мой друг как-то пытался изолятор на ЛЭП подтянуть, кстати, крестовой отверткой, так у него рука дернулась и его вообще в секунду зажарило!". "Ну точно, с плоской такой фигни бы не было!", вторят ему.

        А мораль, да ее почти нету. Не нравится крестовая отвертка, планируйте как обойтись без нее. Не нравится плоская, - планируйте как обойтись без нее. Не нравятся обе - переходите на гвозди.


      1. Wwyn
        30.07.2025 03:05

        А мне понравилось это:

        "Если перед тем как напечатать страницу на новом принтере, тебе надо открыть новое приложение, нажать “Выход” трижды, потом запустить старую версию приложения, а после этого переоткрыть новое приложение, то это нельзя назвать рабочим приложением."

        Как ты точно описал вход в приложение самого крупного банка в Германии. Вход занимает больше минуты.


    1. notwithstanding
      30.07.2025 03:05

      Мне казалось, из каждого утюга кричат от том же, что и автор поста, причем более аргументированно, с опорой на исследования. Видимо, мы в разных информационных пузырях.


  1. fornick
    30.07.2025 03:05

    зачем такой длинный текст? в последнем абзаце вся суть текста. зачем генерировать такие куски текста , лишнего , который можно одним абзацем высказать?


    1. mSnus
      30.07.2025 03:05

      Чтобы был повод запостить снова бородатый анекдот про "гуртовщиков мыши". Жаль, что не нашлось повода для "дятел оборудован клювом"!


      1. Wesha
        30.07.2025 03:05

        Скрытый текст


    1. Donkeyhot_kgd
      30.07.2025 03:05

      Было бы смешно, конечно, если бы эта пафосная простыня оказалась генеренкой )


  1. Hardcoin
    30.07.2025 03:05

    Но проблема в том, что ни одна ИИ-модель не может и никогда вообще не сможет гарантировать 100% корректный результат.

    А ты можешь?

    Пост, похоже, от человека, который надеется, что ИИ остановились в прогрессе. Не остановились.


    1. NeriaLab
      30.07.2025 03:05

      LLM уже давно остановились. На них сейчас делают "обвесы", "тюнингуют" если совсем попроще, примеры: RAG, MCP, Agent и т.д., но по факту - результат один и тот же. Кардинальных изменений уже не будет


      1. olku
        30.07.2025 03:05

        Будет. А2А протокол, когда агенты начнут между собой общаться независимо от человека. Самоорганизацию по модели насекомых прикрутят. Технически мы готовы.


        1. NeriaLab
          30.07.2025 03:05

          То есть, если я правильно понял, "мы готовы к очередному бреду LLM"? Что-то мне это напоминает - Как две Алисы поругались между собой )


        1. SabMakc
          30.07.2025 03:05

          А2А протокол уже есть - это просто общий чат с несколькими LLM (основное применение LLM - это чат с ними, они хорошо заточены на это дело).
          Тем более с появлением MCP проще некуда вызвать "соседа", специализирующегося на своей теме.

          Но что-то "великого прорыва" на этом поприще не произошло...


      1. SabMakc
        30.07.2025 03:05

        RAG, MCP, Agent - это новые возможности для LLM, а не изменения в LLM.

        Кардинально LLM - это просто "T9 на супер-стероидах".

        Так что да, кардинально LLM останутся примерно такими же. Но знания, заложенные в LLM растут, растут "навыки" использования инструментов и т.д. Уменьшается вес моделей, повышается скорость вычисления, появляются новые алгоритмы работы и обучения.

        Так что прогресс есть и он существенен.

        Но да, человека (специалиста) LLM не превзойдет (по глубине знаний) - просто потому, что обучается на данных от человека (или компиляции этих данных). А по "ширине" знаний LLM уже впереди - просто потому, что обучается на данных всего человечества, а не в какой-то своей области.


        1. Soprin
          30.07.2025 03:05

          Да какие навыки ) языковая модель делает одно предсказывает слова всё, остальное туда пилят другие модели и алгоритмы которые работают а не сама модель, она ничего не понимает и не осознает, улучшение может идти за счет сбора данных они так получают не просто данные а сами диалоги общения создавая еще большую иллюзию


          1. SabMakc
            30.07.2025 03:05

            "а если не видно разницы, зачем платить больше?"
            Да, все так. Но если LLM решает мои задачи - то так ли нужно это осознание и понимание?

            Я даю ИИ код - на выходе тесты. Не факт что я бы написал лучше и уж точно я бы писал дольше (ладно, с учетом подбора промта я бы написал быстрее - но это больше вопрос моего опыта работы с ИИ и однотипности задачи - выигрыш по времени не сразу получился).

            И возникает очень философский вопрос - а на сколько человек осознает и понимает это все?


            1. sic
              30.07.2025 03:05

              Вопрос не философский, а практический, но экстремально сложный. Какими метриками мы можем оценить то же качество покрытия тестами? Чтобы на каждый иф было две ветки, чтобы на каждый иф и сложный цикл были разные варианты выхода из этого цикла?

              Да ну нафиг. Я потому свой проект и заделал, чтобы не слушать коллег, которые любят деньги получать не делая ничего полезного; вот тут написал юнит тест на твой код. Нафига? У меня и так все работало. Я как бы не просто наугад пальцами по клавиатуре стучал. Ходили блаженные, "ну я своими тестами хуже не сделаю", а так-то все понятно, мозг включать не хотим, ответственность не берем, хотим символы стучать на клавиатуре за зарплату.

              Ну и пусть дальше это делают (пока могут) (а не долго-то из-за ИИ как раз), а я такой фигней вообще больше не занимаюсь, только хорошие интеграционные тесты и сценарии. Логированием не брезгаю, отладкой тоже, продукт стабилен.

              Получу свои минусы здесь и останусь довольным.


              1. SabMakc
                30.07.2025 03:05

                Так давно уже есть инструменты оценки качества покрытия кода тестами.

                Лично для меня тесты, в первую очередь, дают не "У меня и так все работало." (сразу после написания оно и работает, да и то бывают нюансы), а уверенность, что с течением времени ничего не сломается.

                Можно смело заниматься рефакторингом, доработками и т.д.

                Да и интеграционными тестами все покрывать не очень хорошо - не зря же придумали пирамиду тестов (хотя хочется иногда, это да).

                Но вообще, вопрос-то не в тестах был, а в осознании и понимании у LLM. И лично я считаю, что качественная иллюзия у LLM не мешает мне эту LLM использовать - пока она мне приносит пользу.
                Требовать более глубокое понимание у LLM? А как мы поймем, что все, это уже не иллюзия, а реальное понимание? Тем более, если мы сами не знаем четко, что такое осознание и понимание у человека.


                1. Kahatanna7
                  30.07.2025 03:05

                  Юнит тест никогда не показывает, что твой код работает или сломался. Юнит тест показывает, проходит ли твой код условия теста.


                  1. SabMakc
                    30.07.2025 03:05

                    Любой тест так делает.

                    Что юнит, что интеграционный, что ручной тест - все они проверяют просто факт прохождение теста. Более того, даже работа с ПО не показывает, работает ли ПО. Это просто показывает работу отдельного сценария использования в очень конкретных условиях.

                    В чем вопрос-то? Теперь тестировать не надо? Или только тесты не пишем?

                    Знаешь, а ведь вполне может быть, что ты - обыкновенный овощ, и тебя давным-давно благополучно сожрало какое-то травоядное чудовище, желудочный сок которого способен вызывать совершенно правдоподобные галлюцинации у перевариваемой пищи.


                    1. Kahatanna7
                      30.07.2025 03:05

                      Вопрос в том, что если это всё равно система договора себя с собой, что "если код проходит тест, то считается рабочим", то разница между "и так работает, значит код рабочий" не особо критична.


                      1. SabMakc
                        30.07.2025 03:05

                        Разница - в долгосрочной уверенности. То, что сейчас код работает - это хорошо. Но важно не "сейчас работает", а "потом не сломается". О чем я и говорил выше:

                        Лично для меня тесты, в первую очередь, дают ... уверенность, что с течением времени ничего не сломается.


      1. PrinceKorwin
        30.07.2025 03:05

        LLM уже давно остановились

        Давно это когда? Нет, честно. Ту скорость развития которую получили нейронки нельзя просто так обнулить одним голосовым предложением.

        Можно сказать - замедлились. Но что бы остановились это не так.


        1. NeriaLab
          30.07.2025 03:05

          Хорошо. Давайте подискутируем, я всеми лапками "За" (одна голова хорошо - две лучше). Хорошо. Тогда в чем они не остановились? Где прорывы и в чём?


          1. PrinceKorwin
            30.07.2025 03:05

            Двигаться вперед можно и без прорывов.


          1. Onyix67
            30.07.2025 03:05

            Мне интересно, а что тогда для тебя кардинальные изменения? И что, для прогресса обязательны кардинальные изменения? Что должно произойти в этой сфере (помимо призрачного AGI), чтобы ты посчитал это прогрессом? С таким же успехом можно сказать, что прогресс ии остановился ещё со времён выпуска chatgpt-3. то что за прошлый и этот год каждая новая модель OpenAI/Google/Anthropic выходила с результатами бенчмарков, лучше предыдущих - не считается за развитие?


            1. NeriaLab
              30.07.2025 03:05

              Не считается. Что они по факту показывают? Что одна моделька быстрее другой? Ну квантизовались, а дальше что? Давайте по существу - промт-инъекции как были, так и остались. Как отравление данных было, так и осталось. Как не понимала контекст, так и не понимает. Как логика отсутствовала, так и отсутствует. Вы понимаете вопрос - в чем прорыв?! Ничего принципиально нового не появилось. Ткните меня мордочкой в последние "прорывы LLM"


              1. Onyix67
                30.07.2025 03:05

                Вы отвечали на коммент, где написано про прогресс, а не прорыв. Или вы считаете, что прогресса тоже нет?


              1. Onyix67
                30.07.2025 03:05

                Возьмём Opus 4, который с одного промпта может сгенерировать полноценное десктопное приложение с обширным функционалом (да, с ошибками, да не идеальная оптимизация). Год назад ни одна модель такое делать не умела (могли писать мелкие скрипты и небольшие программки с кучей косяков). Это не прогресс?


                1. NeriaLab
                  30.07.2025 03:05

                  То есть: генератор текста научился генерировать ... текст? Мда...


                  1. Pigtank
                    30.07.2025 03:05

                    А программирование должно программировать. Невероятно.


                  1. aaaaaaaaaaaaaaaaaaa1a
                    30.07.2025 03:05

                    ну вот из совсем недавнего: ИИ модельки взяли золото на международной математической олимпиаде


                    1. Wesha
                      30.07.2025 03:05

                      «Вчера спортсмены из Камеруна взяли двадцать три золотых медали на Олимпиаде в Сиднее. Полиция Сиднея просит обладающих сведениями о местонахождении камерунцев позвонить по телефону 911.»


          1. acc0unt
            30.07.2025 03:05

            o1, первая reasoning-модель, вышла меньше года назад. И при этом уже устарела.


          1. xsevenbeta
            30.07.2025 03:05

            Хорошо. Давайте подискутируем, я всеми лапками "За" (одна голова хорошо - две лучше). Хорошо. Тогда в чем они не остановились? Где прорывы и в чём?

            Если сравнивать нейросети 2022го (первый chatgpt) и 2025го (3-4ый грок), то разница будет просто колоссальная. Нейросети и близко не могли делать то, что они делают сейчас. При этом пока вообще не видно каких-то кризисов в индустрии и пока не видно, есть ли у этого какой-то потолок. И не видно чтобы какой-то кризис идей был - сейчас вот сильно вкладываются в то, чтобы создать т.н модель мира.


            1. SabMakc
              30.07.2025 03:05

              не видно каких-то кризисов в индустрии

              Проблем достаточно. И главная - это очень дорого. ChatGPT так и не стал прибыльным, хотя и самый популярный.

              Рынок LLM называют пузырем - слишком много расходов, слишком много обещаний и слишком мало реальной пользы.


              1. xsevenbeta
                30.07.2025 03:05

                Проблем достаточно. И главная - это очень дорого. ChatGPT так и не стал прибыльным, хотя и самый популярный.

                Рынок LLM называют пузырем - слишком много расходов, слишком много обещаний и слишком мало реальной пользы.

                LLM это уже то, чем очень многие люди пользуются на ежедневной основе - как в жизни, так и в работе. А будут пользоваться ещё больше, когда распробуют и научатся. Оно уже приносит огромную пользу.

                О дороговизне: когда делали ядерную бомбу - на расходы особо не обращали внимания. Тут перспективы такие, что просто нельзя не вкладываться. Иначе тебя обойдут и получат преимущество другие государства/другие корпорации.


                1. SabMakc
                  30.07.2025 03:05

                  Недавно где-то видел результаты опроса, что пользователи откажутся от LLM, если подписка станет обязательной. А большинство пользователей того же ChatGPT не платят (видел оценки в 500млн активных пользователей в неделю и всего в 15,5млн подписчиков - конверсия около 3% получается).

                  Так что да, многие используют - спору нет. Станет плата обязательной - много кто перейдет на подписку. Еще больше людей просто перестанет использовать. Но это все и близко не окупит инвестиции.

                  Я не спорю, что перспективы есть. И польза есть. Но хайп очень сильно раздул ожидания. И в этом очень большая проблема.


                  1. MountainGoat
                    30.07.2025 03:05

                    Еще больше людей просто перестанет использовать.

                    С чего вы это взяли? с того ,что когда людей спросили, по сути: "Вы хотите платить?" они сказали "Нет, не хотим!" ?

                    Опросы, проведённые по дурацки, дают дурацкие результаты.


                    1. SabMakc
                      30.07.2025 03:05

                      Нет, они ответили "да" на "откажутся ли они от ChatGPT, если плата станет обязательной?".
                      Другое дело, что тут не раскрыто, а на сколько глубоко эти люди используют ChatGPT - сложно понять, от чего именно люди откажутся. Многие ChatGPT используют просто как замену поисковику.

                      Но речь была не о качестве опроса, а о том, что ChatGPT очень мало приносит денег, при очень высоких затратах на железо и его обслуживание.


                      1. Kahatanna7
                        30.07.2025 03:05

                        YouTube более половины времени своего существования приносил только чистый убыток. Но постепенно начал окупаться за счёт рекламы. Возможно OpenAI выберут такой же подход. Хочешь ответ на свой вопрос? Посмотри рекламный ролик или плати подписку, чтобы убрать рекламу.


                      1. SabMakc
                        30.07.2025 03:05

                        YouTube более половины времени своего существования приносил только чистый убыток.

                        Это ложное утверждение.

                        Нашел статью 2014 года где говорится, что прибыли нет, но сервис где-то на уровне самоокупаемости.
                        "Родился" сервис в 2005, сейчас 2025й год, даже если на безубыточность сервис вышел ровно в 2014, то это явно меньше половины его жизни.

                        Ну и кроме того, расходы на LLM, думаю, сильно выше расходов на хранение и доставку видео. И масштабируется LLM явно хуже, чем хранение контента.

                        P.S. с LLM прямо напрашивается монетизация в виде "подсовывай в ответы незаметную рекламу". И к этому, более чем уверен, рано или поздно придем.


                      1. Kahatanna7
                        30.07.2025 03:05

                        Ну окей, около половины. Даже если только 8 лет убытков - это миллиарды долларов. Но окупаемость пришла. Что до "подсовывать рекламу" - тут скорее согласен, правда пока не вижу конкретную модель реализации, если конечный пользователь задаёт вопросы, например, из категории общих знаний. Учебник по физике ему не разрекламируешь. А ещё хуже, когда ChatGPT используют в качестве друга-собеседника. Тут так или иначе окупаемость нулевая.

                        На счёт хранения данных - сомнительно. И в LLM, и в видео хостинге основной объём занимают данные. А данных в YouTube, по утверждению Gemini - эксабайты. Текстовые данные априори занимают меньше места, чем видео.


                      1. SabMakc
                        30.07.2025 03:05

                        Учебник по физике ему не разрекламируешь.

                        А репетитора - вполне себе.

                        А ещё хуже, когда ChatGPT используют в качестве друга-собеседника.

                        Помимо скрытой рекламы вполне можно сделать платные "подарки". Начиная от стикеров и заканчивая "купи более крутую подписку, лимиты вышли" или "хочешь пришлю фотку - только дай денег".

                        C LLM основная проблема не в данных (даже если брать обучающие материалы), а в вычислительной сложности. Что обучение, что инференс требует просто колоссальный вычислительных ресурсов.

                        И с ростом пользовательской базы линейно растут и потребность в вычислениях. Для YouTube получилось извернуться - кеширующие сервера в сетях у пользователя. Экономия на глобальном трафике (кеш близок к потребителю), экономия на месте под видео (хранятся только популярные видео).

                        С LLM так не получится.

                        P.S. интересно, а если найти доходы и расходы YouTube - то как эти цифры будут соотноситься с доходами и расходами OpenAI? Может расходы OpenAI уже превзошли "8 лет убытков YouTube"?


                  1. xsevenbeta
                    30.07.2025 03:05

                    Были периоды, когда у меня вообще не было даже просто потребности платить за нейросети. Я, например, платил за ChatGPT, но перестал после выхода grok, потому что бесплатный grok отвечал гораздо лучше платного cGPT.

                    Когда у меня был пет проект (бот-аукционер), то я платил за клод и он мне писал функции на С++, который я вообще не знаю. Но отменил подписку после выхода Gemini CLI.

                    Сейчас наверное снова буду платить, потому вышли Grok4, новый Claude и GPT5.

                    Т.е, пока конкуренция слишком большая чтобы нейросети делать исключительно платными. Ну и возможно часть диалогов пользователей необходима для дальнейшего развития.


                    1. Wesha
                      30.07.2025 03:05

                      С++, который я вообще не знаю.

                      «В наше время этим не гордились!» ©


                    1. SabMakc
                      30.07.2025 03:05

                      Уже есть движение по закручиванию гаек и повышению цен.
                      Как понимаю, это связано с тем, что мощностей просто не хватает на всех.

                      Но это не меняет того, что в этой сфере слишком много расходов, слишком много обещаний и слишком мало реального профита.
                      А инвесторы - не бездонные мешки с деньгами.


                    1. Kahatanna7
                      30.07.2025 03:05

                      Как самые прибыльные игры - Free to play, так и нейросети будут прибыльными за счёт дополнительных сервисов. Вместо подписки для всех могут сделать подписку на эксклюзивный функционал. И она окупит бесплатных пользователей


            1. arielf
              30.07.2025 03:05

              При этом пока вообще не видно каких-то кризисов в индустрии...

              Кроме того, что на ней никто ничего не заработал, кроме разработчиков графических карт.


              1. Wesha
                30.07.2025 03:05

                на ней никто ничего не заработал, кроме разработчиков графических карт.

                Комментарий про золотую лихорадку и продавцов лопат.


      1. Hardcoin
        30.07.2025 03:05

        Это так для тех, кто не следит за ситуацией.


      1. Proscrito
        30.07.2025 03:05

        Эволюция не требует кардинальных изменений. Она работает с небольшими.


      1. VNAg
        30.07.2025 03:05

        Ну как остановились. Растёт размер контекстного окна, например. Появляются новые архитектуры, позволяющие оперировать информацией в смешанном пространстве встраиваний (текст, звук, видео). Ответы становятся точнее благодаря "рассуждениям". Мне кажется пока что это не похоже на застой. Наверное дальнейшее развитие будет связано с симулированием процесса осмысливания текста. Если рассматривать его как набор инструкций, по которым мозг с правильной подготовкой может это делать, будущие модели ИИ, вероятно тоже смогут это делать, подобно человеку.


        1. Nurked Автор
          30.07.2025 03:05

          Да нет, они вбухались в эту стену быстрее чем в закон Мура. Модель с рассуждениями просто делает чуть больше шагов перед выстрелом себе в ногу. Если обыкновенный Клод вставал, то сколько-бы я не насиловал после этого O-1, мне не удавалось получить ничего нового.

          То, что помогало - это самому лезть в документацию, узнавать что да как, кормить эти данные в ЛЛМ-ку и перезапускать шарманку.


          1. sic
            30.07.2025 03:05

            Мир такая история, не сказал бы, что прям понятная, хорошая или плохая, или еще что, но вы говорите, будто бы как претензию, что за целый (!) год в ИИ нет прям сногсшибательного прогресса, а взять тот же биткоин, за последние сколько там лет, его вообще нет (!), а стоимость, графики у Вас такие же. Как говорят инвесторы, это все заложено в график.

            Но и так же очевидно: ИИ >> биткоин.


            1. NeriaLab
              30.07.2025 03:05

              ИИ и крипта - это диаметральные понятия и сравнивать их так же бессмысленно как и сравнивать LLM с работой человеческого мозга


              1. sic
                30.07.2025 03:05

                Они непосредственно связаны одной компанией - безусловным бенефициаром и косвенно как единственные своего времени популярные инвестиционные области для неизбирательных инвесторов. Все остальное - ближе к лирике.


                1. Wesha
                  30.07.2025 03:05

                  для неизбирательных инвесторов

                  (Восхищённо:) А ловко Вы слово «лох» зашифровали!


      1. SWATOPLUS
        30.07.2025 03:05

        Ну так нужно работать в сторону развития MCP. Делать так, что бы инструменты давали более понятный выход для модели. Делать корпуса верифицированных знаний на которые модель может полагаться. Создавать механизмы верификации, например, для программирования запуск приложения в песочнице с отслеживанием побочных эффектов. Создание инструментов для кросс-валидации разными моделями. Текущие модели уже дают хороший результат, сейчас нужно как раз над обвесами работать.


    1. FireLynx
      30.07.2025 03:05

      есть вообще подозрение, что стали деградировать.

      Попользовала я Claude 4, да пришлось вернуться к Claude 3.5. Когда же он перестанет быть доступен, будет, похоже, грустно.


      1. SabMakc
        30.07.2025 03:05

        Вероятно не деградировали, а переключились на более быструю модель из-за нагрузки )
        На сколько понимаю, они давно уже не справляются с нагрузкой - надо не в часы-пик работать.


  1. VADemon
    30.07.2025 03:05

    Компьютер — это то, что должно всегда выдавать точный ответ.

    Но... был же аналоговый компьютер :) Привыкли тут к дискретным цифровым вычислениям.


    1. aikus
      30.07.2025 03:05

      Да даже на цифровом компьютере были, есть и будут параллельные алгоритмы, у которых результат часто зависит от результатов гонки.


  1. sidewinder1
    30.07.2025 03:05

    У меня есть коллега - молодой профессионал. Неоднократно Microsoft-сертифицированный специалист, сильно загруженный несколькими проектами одновременно. Пишет терраформ модули со скоростью молнии и без использования т.н. ИИ. Он вообще не использует ИИ. И этот коллега не знает разницы между rm ./* -rf и rm . /* -rf