Если коротко, то нет, потому что ИИ не мыслит, он просто выдает первый ответ, который пришел в голову. Это как общаться с человеком, который всегда говорит первое, что пришло в голову, не думая. ИИ конечно обладает намного большим массивом информации, чем человек, и это создает иллюзию его ума. Чтобы сделать такой ИИ умнее, можно отбирать только качественную информацию, долго обучать его с подкреплением, и т.п. Но этого всего сильно недостаточно. Не бывает такой базы супер качественной информации, которая научила бы ИИ, к примеру, программировать. Ведь такой ИИ все еще останется не думающим. А умение думать в программировании, даже в простой верстке страниц, очень важно, иначе он будет писать говнокод, а проекты с говнокодом будут жить недолго. Не бывает универсальной информации, которая подходила бы во всех конкретных случаях. Мыслительный процесс предполагает исследование, как минимум проверку на непротиворечивость, самокритику, сопоставление своих идей с другими фактами, моделирование будущего и управление будущим через принятие решений в настоящем. Человек этой способностью обладает, а ИИ пока еще нет, и не ясно, когда он это сможет сделать, сколько мощностей на это потребуется. Ведь даже простейший мыслительный процесс для ИИ будет равносилен 100 или более текущим его ответам. Получается, что он станет стоить раз в 100 дороже, чтобы он мог хоть сколь-нибудь подумать, поисследовать. Но и такого мысленного исследования тоже недостаточно. В науке не было бы принципа проверять все экспериментами, если бы даже ученые не ошибались в своих мысленных исследованиях или даже расчетах на бумаге. Это значит, что думающий ИИ должен будет хоть как-то проверять свои идеи на практике, получать хоть какой-то опыт. Чтобы научить ИИ программировать, его нужно будет посадить условно за компьютер и просить его писать программы, проверять их и исправлять ошибки. Но и в этом случае ИИ неизбежно будет писать говнокод, неизбежно будет допускать грубые архитектурные ошибки. Просто потому что, чтобы сделать минимально приемлемую архитектуру, необходим опыт, нужно условно написать большой сайт и месяцами его поддерживать, выполняя желания заказчика, наступая на грабли, анализируя свои ошибки, чтобы на эти грабли больше не наступать. Нет другого способа сделать хорошую архитектуру, кроме как получить опыт и наступить на все грабли. Справится ли с этим ИИ? Я думаю, даже если такой и появится, то он будет изначально писать говнокод, а затем исполнять желания заказчика еще большим говнокодом, пока проект окончательно не улетит в трубу. Поэтому запрос даже на средних разработчиков, но умеющих думать, никуда не денется. Пока ИИ может заменить только простую рутину, где есть четкая неизменная инструкция и думать не нужно, но он не может заменить те профессии, в которых требуется думать, получать какой-то опыт.

Какой там апокалипсис и Skynet, если ИИ даже думать еще не научился, и пока такой способности не видно на горизонте?


Программирующий ИИ уже пытаются сделать на основе ChatGPT - это тип программ называемый AI Agent, который пытается заставить ChatGPT программировать самостоятельно.
Он, как и ожидалось, требует очень много запросов к обычному ChatGPT и стоит дорого. Он не учится на ошибках, точнее даже сказать, он учится повторять свои ошибки, а не исправлять их. Память у него не резиновая, так что если он каким-то чудом не повторял ошибку давно, он про нее забудет. Он ничего, кроме говнокода писать не научится. Это я говорю на основе 1 года опыта попыток заставить его написать мне простые вещи, и на основе рассуждений из предыдущего поста. Сейчас он пишет говнокод еще и по той причине, что 95% всего кода в интернете - это говнокод, у него нет хорошей базы кода.

Я полгода назад писал обычный переводчик книги на ChatGPT. Даже такую простую автоматизацию нужно покрывать большим количеством сложных тестов, писать сложную систему попыток разных вариантов запросов, потому что он 1 раз из 20 отвечает неправильно. Напишешь 2-й вариант запроса, он станет неправильно отвечать 1 раз из 50 попыток. Напишешь вроде стабильную версию для одной книги, а на второй книге он снова ошибается 1 раз из 20 попыток. Не так просто заставить его всегда проходить все тесты. Даже не представляю, что нужно сделать, чтобы заставить ChatGPT написать одну простую работающую программу, а еще страшнее представить, что нужно сделать, чтобы он стал универсальным и мог писать много разных программ. По-моему, это мазохизм. Здесь нужно придумывать другие модели ИИ, а не насиловать старую в самых необычных позах, которые еще никто не пробовал.

Недавно я обучал одного джуна с 3-х летним опытом писать код по определенной архитектуре. После общения ChatGPT 4, я вижу огромную разницу: он запоминает почти все, что я говорю, думает, и довольно быстро учится писать код качественно. А ChatGPT 4 (лучшая языковая модель) - это даже не идиот по уровню интеллекта, а ниже идиота, такой шкалы для людей наверное нет.


Страшный сон программиста, когда ИИ заменит разработчиков, потому что он намного дешевле. Несмотря на то, что он пишет страшный говнокод, он все-таки кое-как выполняет свои функции, и клиенту этого достаточно... до поры до времени, пока говнокода не станет столько, что ИИ уже с ним не справится, а это произойдет очень быстро. И тогда клиент наймет разработчиков людей исправлять ошибки и дорабатывать что-то в этом страшенном говнокоде. Это будет ссущий кошмар.


Во избежание недоразумений, я ни сколько не буду переживать о том, что появится сильный ИИ, который может меня заменить, а наоборот я буду счастлив иметь в руках такой инструмент. Это даст мне огромные возможности, в том числе и в зарабатывании денег. Множество идей сейчас лежат на полке, потому что требуют много времени на реализацию. Но, к сожалению, я не вижу такого ИИ на горизонте.


На этом видео мнение от кандидата наук, работающего сейчас в сфере ИИ:
https://www.youtube.com/watch?v=2GAgMBsrpzs

Комментарии (32)


  1. Nalogovi4ok
    20.12.2023 04:52

    Надо создать ИИ для обучения ИИ????


    1. NikolayMakhonin Автор
      20.12.2023 04:52

      Это уже будет технологическая сингулярность :)


      1. Kromeshnaja
        20.12.2023 04:52

        Такое уже делал гугл и Майкрософт, очень успешно и это пока не сингулярность.


  1. icya
    20.12.2023 04:52

    Ближайшее будущее - период времени, которым очень удобно жонглировать в процессе гаданий. Предположим, это ближайшие 100 лет. За такой период времени я бы допускал вероятность создания сильного ИИ (который не обязательно будет полной заменой человека).

    Термин ИИ в статье слишком общий. Если для текущего уровня развития ML мы заменим ИИ на ChatGPT/Bard/etc, то тут я могу согласиться, что текущие версии LLM имеют очень мало шансов стать сильным ИИ в ближайшие 100 лет. В то же время, ИИ через 100 лет могут быть какими угодно.

    Во избежание недоразумений, я ни сколько не буду переживать о том, что появится сильный ИИ, который может меня заменить, а наоборот я буду счастлив иметь в руках такой инструмент. Это даст мне огромные возможности, в том числе и в зарабатывании денег.

    А почему вы думаете, что сильный ИИ это инструмент в руках человека (-разработчика), а не наоборот?


    1. NikolayMakhonin Автор
      20.12.2023 04:52

      Ближайшее будущее в этой статье - это 10-20 лет. На 100 лет я не готов делать прогнозы.

      Да, ИИ здесь не имеет строгого определения, и это здесь не так важно. В общем случае я называю ИИ все то, что может в какой-то степени заменить интеллектуальную работу человека. Я понимаю, что под это определение можно и калькулятор подвести, но мы говорим о достаточно сильном инструменте, который превосходит все предыдущие. Если изобретут машину умеющую программировать без нейросетей, то это будет сильный ИИ.

      А почему вы думаете, что сильный ИИ это инструмент в руках человека (-разработчика), а не наоборот?

      Потому что ИИ создает человек, и конечно человек будет стремиться создавать его таким, чтобы он работал на человека, а не наоборот. Если речь о том, что в какой-то момент человек потеряет власть над ИИ, то это уже тема для научной фантастики, мы не можем сейчас делать такие долгосрочные прогнозы на 100 и более лет вперед.


      1. PuerteMuerte
        20.12.2023 04:52

        Ближайшее будущее в этой статье - это 10-20 лет.

        Полагаю, если брать 20-летний временной период, то скорее да, чем нет. Технических препятствий, почему бы ИИ не заменил человека в большинстве профессий по генерации контента, в том числе и программировании, как бы и нет. Чтобы ИИ-программист мог не просто выдавать куски кода, смиксовав нарезку из его обучающей выборки, а делал это в контексте текущего проекта, нужно экстенсивное развитие: существенное увеличение контекста, который хавает нейросетка, улучшение обучающего датасета. Ну так над этим прям сейчас работают крупные компании.


        1. NikolayMakhonin Автор
          20.12.2023 04:52

          Программирование - это не генерация контента. Перечитайте первую часть статьи о том, что требуется для того чтобы создать ИИ умеющий программировать. Сейчас нет даже эффективной модели ИИ, которая теоретически в далеком будущем позволит это сделать. И огромный размер контекста тут ничем не поможет.
          Сами можете в этом убедиться, сейчас ChatGPT 4 поддерживает довольно большой размер контекста, а пишет все равно говнокод.


          1. PuerteMuerte
            20.12.2023 04:52

            Программирование - это не генерация контента.

            Почему? Это вполне себе генерация контента по формализованному или не очень формализованному описанию.

            Сами можете в этом убедиться, сейчас ChatGPT 4 поддерживает довольно большой размер контекста

            У него размер контекста - 15 килобайт. Для эффективного программирования нужны либо мегабайты, либо хотя бы дополнительный инструмент, который ему из исходников вытащит нужный контекст в рамках задачи.

            а пишет все равно говнокод.

            ...который в ряде случаев все равно приемлем, особенно если задачи простые. И это всего лишь универсальный инструмент, который под данную задачу и не затачивался. И сколько там времени понадобилось для перехода от гпт3 (которая вообще ничего толком писать не могла) к гпт4, около года? ИМХО, использовать ChatGPT 4 как аргумент, почему нейронки не могут писать код, это примерно как в начале ХХ века использовать самолёт братьев Райт как аргумент, почему самолёты никогда не смогут летать через Атлантический океан.


            1. NikolayMakhonin Автор
              20.12.2023 04:52

              Программирование - это инженерия. Инженерию нельзя свести к генерации контента. Это все равно что назвать научную деятельность генерацией научных статей. Инженерия предполагает обучение на реальном опыте, исследования, экспериментирование, прогнозирование будущего и т.п.

              ChatGPT 4 не справляется даже с простыми задачами, укладывающимися в его небольшой контекст. Проблема здесь не в размере контекста.

              который в ряде случаев все равно приемлем, особенно если задачи простые

              Здесь еще нужно добавить, что это касается простых проектов в целом, не предполагающих развития. Если проект предполагается большой, то читайте о проблеме экспоненциального роста сложности приложения, которая привела к необходимости создания качественной архитектуры и написания качественного кода. А в архитектуре ChatGPT полный ноль. Следование принципу "и так сойдет" может в конечном итоге убить большой проект до того как он себя окупит или вообще начнет приносить прибыль.

              Братья Райт создали самолет в 1903. Первый самолет пересек Атлантику в 1919, спустя 16 лет. Я здесь и не говорю, что программирующего ИИ никогда не будет, я говорю что его не будет в ближайшие 10-20 лет и обосновываю это не тем, что современный ИИ еще молодой и хромает на обе ноги, а тем что у самой модели ИИ нет и не предвидится тех важных способностей, которые позволили бы ей заниматься инженерией, а не просто генерацией текстов. Если появится какая-то другая модель ИИ, я изменю свое мнение. А сейчас это равносильно научной фантастике. Мы не знаем даже возможно ли создать такую модель с нашими текущими технологиями. Что тут вообще можно спрогнозировать?


              1. PuerteMuerte
                20.12.2023 04:52

                Инженерия предполагает обучение на реальном опыте, исследования, экспериментирование, прогнозирование будущего и т.п.

                Программирование - это не настолько инженерия. Исследования/экспериментирование в программировании связаны всего лишь с незнанием особенностей применения тех или иных библиотек/фреймворков, и это часть самообучения. К разработке отношения не имеет. Реальный опыт в программировании вполне укладывается в сниппеты кода, а прогнозирование будущего, это всего лишь следствие понимания своих решений.

                А в архитектуре ChatGPT полный ноль.

                Сегодня - да, не очень.

                Братья Райт создали самолет в 1903. Первый самолет пересек Атлантику в 1919, спустя 16 лет.

                ChatGPT от состояния "вообще ничего не могу" до "могу делать простые вещи" прошел за один год. Архитектурно там нет никаких препятствий идти дальше в этом направлении, просто нужно датасет целенаправленно расширять, добавляя не только текстовое описание к сниппетам кода, но и различные маркеры про их применимость и т.д.


                1. NikolayMakhonin Автор
                  20.12.2023 04:52

                  связаны всего лишь с незнанием особенностей применения тех или иных библиотек/фреймворков

                  Нужно не только знать как применять библиотеки, но еще и когда и какие, какие их функции использовать какие нет, прогнозировать будущее, ведь в будущем возможно придется использовать другую библиотеку, а код уже полностью завязан на использование старой, и выпилить ее уже никак не получается.

                  ChatGPT от состояния "вообще ничего не могу" до "могу делать простые вещи" прошел за один год.

                  и 1 млрд долларов

                  Архитектурно там нет никаких препятствий идти дальше

                  еще 10 млрд или 100 млрд - не проблема? там ведь рост не линейный, а логарифмический. Так что сразу триллион нужно закладывать чтобы получить что-то стоящее.


                  1. PuerteMuerte
                    20.12.2023 04:52

                    Нужно не только знать как применять библиотеки, но еще и когда и какие, какие их функции использовать какие нет

                    Нужно не только знать, как говорить слова, но и ещё когда и какие, какие использовать, какие нет, как их между собой связывать, чтобы предложения имели смысл, соблюдать правила языка.

                    Это всё умеет языковая модель.

                    прогнозировать будущее, ведь в будущем возможно придется использовать другую библиотеку

                    Пфф, а это и кожаные программисты в массе своей не умеют, что им не мешает выполнять свою работу.

                    и 1 млрд долларов

                    Ок, там инвесторы себе могут позволить, особенно учитывая ожидаемый профит.

                    там ведь рост не линейный, а логарифмический.

                    Там рост отнюдь не логарифмический. Качество работы языковой модели зависит не только от объема датасета, но и от его качества. Для того, чтобы учить нейронку лучше писать код, ей не нужно в десять раз увеличивать двухсотерабайнтый датасет, который учит её чатиться на разных языках. Ей нужно прокачивать куда более скромный в настоящее время обучающий датасет, который учит писать код.


            1. SergioT4
              20.12.2023 04:52

              У него размер контекста - 15 килобайт. Для эффективного программирования нужны либо мегабайты, либо хотя бы дополнительный инструмент, который ему из исходников вытащит нужный контекст в рамках задачи.

              Уже побольше, плюс контекст в токенах, а не в байтах.

              Читал что у человека может быть и меньше, тут вопрос в том чтобы создать систему которая бы смогла создавать несколько представлений о приложении и решая проблему, смогла разбить её на несколько шагов продвигаясь на необходимую глубину. Т.е. за один запрос проблему не решить, но если создать систему которая будет подготавливать правильный промпт, исполнять тексты и в случае проблем повторять цикл.

              Ну и на самом деле тут же видно две разные проблемы - первая это инструмент для улушения производительности мясного разарбочика.

              Вторая, это создать AI-friendly экосистему разработки.

              Зачем пытаться напрягать ИИ работой с использований способа удобного для людей, может быть стоит создать фреймворк/язык заточенный под сам ИИ.

              Его уже можно будет транспилировать в удобные человеку.


            1. ArZr
              20.12.2023 04:52

              И это всего лишь универсальный инструмент, который под данную задачу и не затачивался.

              Вот, например, статья, в которой говорится, что OpenAI нанимали толпы разметчиков кода. Так что говорить, что GPT не затачивался под написание кода - полная ложь.

              И сколько там времени понадобилось для перехода от гпт3 (которая вообще ничего толком писать не могла) к гпт4, около года?

              GPT-3, исходя из этой статьи, был выпущен в мае 2020. Так что нет, переход от GPT-3 к GPT-4 занял почти 3 года (и это на фоне того, что переход от GPT-1 к GPT-2 и от GPT-2 к GPT-3, если правильно помню, заняло как раз около 1 года, что немного заставляет задуматься).

              Почему GPT-3 не мог писать код - дает ответ вот эта статья. Так что увы, GPT-3 не мог писать код не потому, что он принципиально не мог этого делать, а потому, что в него тупо не залили сотни гигабайтов кода (как только залили - процесс сразу пошел в гору); при переходе от GPT-3 к GPT-4 в плане программирования никаких качественно новых свойств не появилось (в плане понимания программирования - уж точно, как показывает данная статья).

              ИМХО, использовать ChatGPT 4 как аргумент, почему нейронки не могут
              писать код, это примерно как в начале ХХ века использовать самолёт
              братьев Райт как аргумент, почему самолёты никогда не смогут летать
              через Атлантический океан.

              Некорректное сравнение. С самолетом братьев Райт куда правильнее было сравнивать вот эту модель (да, размер модели - крошечный, размер датасета - крошечный, но код хоть как-то пишет. И это было целых 7 лет назад). По сравнению с ней GPT-4 - это какой-нибудь Boeing (в плане потребляемых ресурсов - уж точно). Так что есть все основания полагать, что модели, в основе которых лежит трансформер, действительно никогда не научатся адекватно писать код; исправить положение сможет разве что полная смена подходов, что произойдет ой как нескоро (так как фундаментальная смена подходов - это очень долгий процесс, который очень часть может не приносить никакой практической пользы; куда проще клепать эвристики на существующие решения, фиксировать прирост качества в 0.1% и получать деньги от инвесторов).


              1. PuerteMuerte
                20.12.2023 04:52

                Вот, например, статья, в которой говорится, что OpenAI нанимали толпы разметчиков кода. Так что говорить, что GPT не затачивался под написание кода - полная ложь.

                А вы сами-то статью-то эту читали? Там написано, что ранее они скрапили гитхаб, а в последние полгода наняли около 400 разметчиков кода. Статья - январь 2023 года. Это говорит лишь о том, что активная работа по созданию датасета для написания кода сейчас только в процессе. Ну т.е. лжёте сейчас как раз вы, а не я. Давайте сперва подождём результатов следующей итерации.


          1. Apxuej
            20.12.2023 04:52

            Почему Вы считаете, что огромный размер датасета не поможет? Всё программирование подчиняется неким паттернам, многие из которых сеть уже ухватила, с более высокоуровневыми ей это только предстоит сделать - ведь размер самой модели, объём датасета будут только увеличиваться, а качество датасета улучшатся. Все прекрасно видели как развивалась модель от GPT до GPT4 и что для этого потребовалось. Не вижу причин, почему это вдруг перестанет работать, пусть даже это займёт значительно больше времени (пять лет вместо двух). Самые по-моему мнению тяжёлые барьеры с решением задач на логику и низведением сложных задач до группы более простых сеть уже преодолела (что для меня значит более 51% верных ответов). Кроме того, те робкие попытки создания моделей способных к авторефлексии, долговременной памяти, способности применять другие программы обречены, как мне кажется, быть малоэффективными. Вот когда всё это будет интегрировано в саму архитектуру сети, сама сеть немного подрастёт и пройдёт дистилляцию, тогда уже можно будет говорить о первом прото-общем ИИ. И случиться это не через 100 и не через 20 лет, а лет через 5, с учётом того, какие ресурсы сейчас идут в дело.

            Сами можете в этом убедиться, сейчас ChatGPT 4 поддерживает довольно большой размер контекста, а пишет все равно говнокод.

            Вы помните код, который способна была написать GPT2 в 2019 году?


      1. bert2000
        20.12.2023 04:52

        Автор, я во многом с Вами не согласен. Я в IT отрасли уже 30 лет и видел не одну не две и даже не десяток революций в IT, многие из которых поставили всё с ног на голову, и внесли в отрасль кучу моды.

        Я согласен пока что с тем что ИИ - это просто лингвистические модели (гуманитарные, чуете к чему я клоню?).

        Потому что ИИ создает человек, и конечно человек будет стремиться создавать его таким, чтобы он работал на человека, а не наоборот. 

        Это не так. Притом совсем не так. Нет, Вы правы в том что автоматизация (любая) производится людьми для "людей". (Откуда кавычки то а?)

        Так вот. Вы не разделяете людей видимо. Я сам молодым и наивным был ага. Я тоже верил чуть ли не в инопланетян. А зря. Так вот, к чему я всё это?

        Да, автоматизация "для людей", и она упрощает работу исполнителю. Что это даёт? Исполнитель меньше работает? Нет! Как бы не так! Просто часть исполнителей увольняют и всё. Раньше отдел был из 10 человек, теперь из 5и , а завтра из 2х. А через год его вообще нет, его функции (полная автоматизация) взяли на себя алгоритмы (и "роботы"). Я раньше не понимал почему люди так боятся автоматизации, пока сам через это не прошёл. Я пишу программы, которые не требуют в итоге участия "человека" (программиста / исполнителя) в своей работе. Они работают на 100% и развивать их можно очень и очень просто. И да, "меня легко заменить". Кем ? Чем? Да моими же программами. Они работают без моего участия.

        По итогу да, программы пишутся "для людей" и пока что людьми, но вы не понимаете для каких людей и для кого. Фактически при автоматизации бизнеса программы пишутся "изначально для исполнителей", но не с целью им помочь, а с целью их заменить. (Благими намерениями ...)
        Т.е. по-сути программы пишутся для бизнеса, для бизнесмена. Идеальный работник для бизнесмена - робот! Он не просит еды, не болеет, не бастует. Пашет 24/7 и не выпендривается. И ЗП ему платить не надо, а тем более больничных. Отпускных нет, налогов. Идеально!

        По поводу прогнозов на 10-20 лет и 100 лет... Вы все слишком далеки от реальности. Ещё раз, за 30 лет в IT я пережил не одну и не две революции, и даже не 10. Они тут каждый год. В IT год за 10. А потому и ИИ переобучат иначе, и он будет работать по-другому. Это лишь вопрос времени и обучающих.

        Hidden text

        Если лингвистические (гуманитарные) модели сменить на математические и интеллектуальные, то... то и результаты работы ИИ будут иные

        В общем я думаю вы доживёте вполне до эры, когда ИИ будет способен заменить 99% "программистов" (кнопкодавов с херовым кодом). Возможно первым делом ИИ научится рефакторить кучу говнокода, и заменит только этим навыком 80% быдлокодеров.
        Вопрос только в том, что ИИ пока что не умеет решать задачи, анализировать их, составлять ТЗ, "планы", декомпозировать задачи. Но всему этому его можно научить.
        Это как раз задачи в массе своей больше лингвистического плана, чем интеллектуального (математического / логического).

        Да, пока что ИИ "слаб", делает первые шаги. Но уже вторые и третьи нас всех сильно удивят и многих выкинут на улицу.
        Не надо питать тут социалистических иллюзий, о том что гос-ву и бизнесу на это не плевать.
        И да, автоматизация создаётся людьми, для "людей", и против людей. За счёт автоматизации (и вообще дорогих инструментов) давно достигается то самое "неравенство" и "конкурентное преимущество". Конкурентное преимущество как раз в том, что тот кто обладает и владеет технологиями и "роботами" несравнимо сильнее (и по итогу богаче) всех тех, у кого этого всего нет, и кто вынужден ту же самую работу производить руками , с приложением бОльших усилий (= ресурсов, времени и денег).
        Итог тут снова очевиден. У кого есть "современные" "инновационные" технологии делает всё быстрее и дешевле чем любые его конкуренты, молчу уж о "людях с улицы".

        Hidden text

        Можете не верить в теории заговоров и золотой миллиард, но конечной целью всего это станет именно экономическое уничтожение рабов, оставшихся "за бортом экономики". Людей заменят машины, и давно уже заменяют из года в год. А людям останется только либо выживать, либо искать себе некие "новые ниши". Но не все их найдут, к сожалению.

        В общем-то и раньше существовало множество полностью автоматизированных производств. Работающих без участия человека. Кто позаботился о тех, кого заменили роботы? В общем предлагаю снять розовые очки, и не думать что ИИ (любая автоматизация) делается прежде всего для людей. Сегодня нам в рекламных целях позволяют пользоваться ограниченными моделями ИИ, но уже завтра ИИ будет у "сильных мира сего" в их личных подвалах на их службе им, но не нам.
        Да. И это не 10-20 лет, и даже не 100. Это произойдёт гораздо быстрее. И мощности расчётные наростят под это, и алгоритмы создадут не только по лингвистическим моделям. И всё это вы увидите в ближайшие лет 5 от силы.
        Но да, появятся новые "мегаинженерные" специальности, типа оператора ИИ (уже есть, обязанность - обучение ИИ, ввод данных) и инженера по управлению ИИ (который будет писать для ИИ специальные промпты, притом сложные, что-то типа аналога ТЗ).

        А тех, кого заменит ИИ, послезавтра уже никто и не вспомнит.


      1. sshikov
        20.12.2023 04:52

        На 20 лет тоже в нашей отрасли иногда очень самоуверенно прогнозировать.


  1. Andrey_Epifantsev
    20.12.2023 04:52

    ChatGPT4 выдаёт гораздо более качественные ответы связанные с написанием кода, чем ChatGPT3.5. Он может писать небольшие функции и несложные алгоритмы. Так что можно ожидать, что количество через некоторое время перерастет в качество и ИИ сможет писать несложные приложения. А потом может и сложные.

    Память у него не резиновая

    Есть модели с контекстом в 100000 токенов. Хватит для написания средних размеров приложения или даже больше.

    я ни сколько не буду переживать о том, что появится сильный ИИ, который может меня заменить, а наоборот я буду счастлив иметь в руках такой инструмент. Это даст мне огромные возможности, в том числе и в зарабатывании денег.

    При условии, что те кто его создадут поделятся с вами. Как говориться "Если бы я знал как заработать миллион, я бы не стал писать книгу Как заработать миллион, а стал бы зарабатывать миллион." Если у меня будет инструмент, который заменит мне кучу работников за копейки, я не буду делиться этим инструментом с другими, я буду использовать его сам.


    1. NikolayMakhonin Автор
      20.12.2023 04:52

      Да, ChatGPT 4 создает заметно более качественный код, но он все еще остается говнокодом. Он может хорошо писать только такие куски кода, которыми и так уже завален весь интернет и учебники по программированию.

      Какие есть перспективы развития этой модели?

      Стоимость обучения ChatGPT 3 оценивается в 2-12 миллионов долларов. Стоимость графических чипов - 800 миллионов долларов (статья февральская, тогда еще не было ChatGPT 4).
      https://www.techgoing.com/how-much-does-chatgpt-cost-2-12-million-per-training-for-large-models/
      Создание ChatGPT стало возможным только благодаря большим инвестициям от Microsoft.

      Зависимость интеллектуальных возможностей этой модели от количества параметров и объема данных не является линейной. ChatGPT 4 обучали на в 100 раз большем объеме данных и имеет в 100 раз больше параметров чем ChatGPT 3.5. Но он не стал от этого в 100 раз умнее, может только раз в 5.

      Так что эта модель - это тупик, ей уже некуда развиваться.


  1. gun_dose
    20.12.2023 04:52

    Страшный сон программиста, когда ИИ заменит разработчиков

    Мой страшный сон, когда коллеги начнут говорить "а вот ChatGPT считает иначе, значит, ты не прав".


  1. ElVibrio
    20.12.2023 04:52

    Вопрос в том, что ускорение развития ИИ нелинейно. Возможно , вплотную к точке перегиба. Катастрофический прорыв произойдет не в момент появления самоосознания, а в момент, когда система сможет делать реверс-инжиниринг и коррекцию собственного кода.


    1. NikolayMakhonin Автор
      20.12.2023 04:52

      Ускорение развития ИИ нелинейно, оно может как сделать большой прыжок, так и застрять в развитии лет на 10, никто этого не может предсказать.


  1. Kromeshnaja
    20.12.2023 04:52

    Меня удивляет как люди легко путают веру и науку, вы просто верите в то что говорите, ваше мнение не основано ни на чём и сравнения ложны и манипулятивны. Когда вы что-то утверждаете, есть такая практика приводить доказательства иги аргументы, а в статье просто список верований отдельно взятого человека. Очень "интересно", спасибо.


    1. NikolayMakhonin Автор
      20.12.2023 04:52

      Разве то что я написал не является перечислением доказательств?
      Разве чтобы заниматься инженерией достаточно только генерировать тексты по шаблонам?
      Разве есть какие-то предпосылки того, что какая-то из современных ИИ моделей способна заниматься инженерией (пробовать идеи на практике, получать опыт, учиться на ошибках, обобщать огромный опыт как это делают опытные разработчики, чтобы изначально писать качественный код с хорошей архитектурой)?

      В комментах я уже отвечал почему GPT модели это тупик - они уперлись в денежный потолок. Нужна совершенно новая модель, о которой даже упоминаний нет.

      Если у вас есть контр аргументы к моим, то давайте обсудим.


      1. Kromeshnaja
        20.12.2023 04:52

        Разве то что я написал не является перечислением доказательств?
        Разве чтобы заниматься инженерией достаточно только генерировать тексты по шаблонам?

        • GPT не генерирует тексты по шаблонам

        • Для многих видов работ генерация текста по шаблонам достаточно, для этого есть классические решения.

        Разве есть какие-то предпосылки того, что какая-то из современных ИИ моделей способна заниматься инженерией

        • Есть не предпосылки, а реальные продукты тот же гпт и копилот, и альфакод от гугла сейчас способны решать множество задач

        (пробовать идеи на практике, получать опыт, учиться на ошибках, обобщать огромный опыт как это делают опытные разработчики, чтобы изначально писать качественный код с хорошей архитектурой)?

        • Такие системы сейчас разрабатываются и будут работать через 1-2 года.

        • Хорошая архитектура и код никого не волнует, главное чтоб продукт работал. IT Индустрия просела в качестве грандиозно за последние 7 лет, и ничего.

        В комментах я уже отвечал почему GPT модели это тупик - они уперлись в денежный потолок. Нужна совершенно новая модель, о которой даже упоминаний нет.

        • Это будет гараздо дешевле любого разработчика, посчитайте цены GPT 4 turbo и разработчика не из страны третьего мира.

        Если у вас есть контр аргументы к моим, то давайте обсудим.

        Сперва приведите хоть один аргумент, тогда обсудим, пока только список заблуждений.


        1. NikolayMakhonin Автор
          20.12.2023 04:52

          GPT не генерирует тексты по шаблонам

          Это фундамент GPT модели - генерировать шаблонный текст. И мой огромный опыт общения с ним это подтверждает - он учится на шаблонах и генерирует шаблонные тексты во всех областях, не только в программировании.

          "Для многих видов работ генерация текста по шаблонам достаточно"

          так он генерирует текст по шаблонам или нет или вы не уверены в этом?

          для многих рутинных задач - да, но это не может покрыть написание приложение в целом, только очень малую его часть.

          Есть не предпосылки, а реальные продукты тот же гпт и копилот, и альфакод от гугла сейчас способны решать множество задач

          GPT и copilot не занимаются инженерией

          Такие системы сейчас разрабатываются и будут работать через 1-2 года.

          Конечно люди будут пытаться что-то сделать, но это не значит что они сделают это. Вечный двигатель тоже пытались сделать. Нужно полагаться на какие-то объективные критерии чтобы предсказать произойдет что-то или нет. Аналогии не являются такими критериями.
          Системы автопрограмирования построены на многократных запросах к ChatGPT. Такая система не способна к обучению на своих ошибках, а напротив склонна повторять свои ошибки. ChatGPT - это предобученная модель, дообучать которую нельзя. Ей можно только скармливать контекст, и моя практика показывает, что с помощью контекста можно только корректировать или форматировать ее ответы, но не обучать ее, она все равно будет полагаться на шаблоны, на которых она обучалась и стараться пропихнуть их везде.

          Хорошая архитектура и код никого не волнует, главное чтоб продукт работал.

          "главное, чтоб продукт работал" - это и есть одна из целей хорошей архитектуры. Если архитектура будет плохой? то проект быстро зайдет в тупик, когда ничего уже не будет работать и не кому будет это исправить.

          Это будет гораздо дешевле любого разработчика, посчитайте цены GPT 4 turbo и разработчика не из страны третьего мира.

          Эту цену нужно умножить как минимум на 100, т.к. для разработки программ нужно думать, заниматься инженерией, а мыслительный процесс - это не один, а очень много ChatGPT запросов. Но и из этого ничего не выйдет, т.к. обучать ChatGPT контекстом нельзя, зато легко получить такой заговнокоденый проект, который потом никто не возьмется дорабатывать или за это попросят гораздо большие деньги чем ушло на ChatGPT.


          1. Kromeshnaja
            20.12.2023 04:52

            Это фундамент GPT модели - генерировать шаблонный текст.

            Нет, не фундамент, это бессмысленное утверждение. Фундамент GPT большие языковые модели если уж на то пошло.

            И мой огромный опыт общения с ним это подтверждает - он учится на шаблонах и генерирует шаблонные тексты во всех областях, не только в программировании

            Опыт и выводы нерелевантные.

            так он генерирует текст по шаблонам или нет или вы не уверены в этом?

            Перечитайте мое утверждение, вы придумываете связь между предложениями где она не была указана.

            Вечный двигатель тоже пытались сделать.

            С той разницей, что вечный двигатель - лженаука, а успешная генерация кода уже свершившийся факт.

            Нужно полагаться на какие-то объективные критерии чтобы предсказать произойдет что-то или нет.

            Достаточно посмотреть на текущее положение дел.

            "главное, чтоб продукт работал" - это и есть одна из целей хорошей архитектуры. Если архитектура будет плохой? то проект быстро зайдет в тупик, когда ничего уже не будет работать и не кому будет это исправить.

            Просто риторика без посыла.

            Эту цену нужно умножить как минимум на 100, т.к.

            Ты так сказал? Почему не на 200?

            для разработки программ нужно думать

            Может и не нужно.

            обучать ChatGPT контекстом нельзя

            Это не фундаментальная проблема. В рамках контекста всё можно, доп.обучение тоже возможно.

            зато легко получить такой заговнокоденый проект, который потом никто не возьмется дорабатывать или за это попросят гораздо большие деньги чем ушло на ChatGPT.

            Ты так сказал?


      1. bert2000
        20.12.2023 04:52

        Изучите пожалуйста, Николай, ТРИЗ. И заодно узнайте сколько ей лет.

        Разве чтобы заниматься инженерией достаточно только генерировать тексты по шаблонам?


        Смотря каким шаблонам. Инженерным? ДА!
        Паттерны проектирования (GoF) это что по-вашему? Не шаблоны? Они самые и есть.

        И если ими обучить ИИ то уволить можно будет практически всех программистов, даже опытных и прошаренных.

        Разве есть какие-то предпосылки того, что какая-то из современных ИИ моделей способна заниматься инженерией (пробовать идеи на практике, получать опыт, учиться на ошибках, обобщать огромный опыт как это делают опытные разработчики, чтобы изначально писать качественный код с хорошей архитектурой)?

        Вы своими вопросами вводите и себя и читателей в заблуждение.
        Фактически вы так рьяно "защищаете" ИИ уповая на то, что он тупой и бестолковый.

        Вы сами то с пелёнок в IT сразу пришли? А ходить умели с рождения?
        ИИ пока что "тупой" скажем так (прошу без обид, но так "красивее") потому что его учили "тупые" и "тупо". Как я выше писал - лингвистические модели.
        Как только вместо лингвистических моделей перейдут на паттерны проектирования, на изучение реальных статей об опыте, на крутой код (не с гита конечно). То вы тут же смените свой скепсис на ужас. Ужас того, как легко оказалось всех заменить.

        И, повторяюсь, фокус "удара" на "специалиста в IT" уйдёт в "профессионализм" "инженера-промптщика", который если что "не умеет промпты писать, гад!" потому у него код не пишется за 3 минуты. Ну а как он научится промпты правильные писать, так сразу весь код "и будет написан". Это нас всех ждёт уже завтра.

        Да и хайп вокруг ИИ такой, что любой, кто заявит, что у него в подвале свой ИИ, тут же получит кучу инвестиций. Если он пообещает ещё и заменить кучу программистов (молчу уж о простых воротничках), то его вообще впереди танкера, набитого баблом под завязку, поставят, и раскрутят по всем каналам, как лучшего иноватора и изобретателя 21го века.

        он учится на шаблонах и генерирует шаблонные тексты во всех областях, не только в программировании.

        Паттерны (шаблоны) проектирования банды четырёх, это тоже шаблоны. Этого достаточно в т.ч. в инженерии. Вы знаете что такое ТРИЗ? Вы считаете себя уникальным инженером? Вы уверены что Вас нельзя заменить (пусть для начала просто другим человеком)?

        для многих рутинных задач - да, но это не может покрыть написание приложение в целом, только очень малую его часть.

        К сожалению может. Абсолютно все приложения имеют примерно одинаковую архитектуру, описанную кстати давно, ещё полвека назад. Не надо забывать и такой науке как ТРИЗ, которая вообще "убивает" понятие изобретательства (как творчества), и фактически учит к "изобретениям" приходить как к обычным инженерным исследованиям. Что и вполне логично. Там тоже есть свои "шаблоны"/"паттерны". По итогу разработка приложений, да и любых инженерных задач на практике лишь рутина. Я знаю о чём говорю, я далеко не одно или два приложения спроектировал с нуля и запустил в продакт. Если разобраться все они (для меня) "типовые" и в них примерно одни и те же шаблоны, с немного разной реализацией "модулей" под конкретную задачу.

        Системы автопрограмирования построены на многократных запросах к ChatGPT. Такая система не способна к обучению на своих ошибках

        Так это и есть метод обучения. Если нейросеть слишком часто выдаёт неверные результаты, то прежде всего меняют способ её обучения. Ну не "понимает" учителя "ребёнок". Тут не ребёнок же виноват, а преподаватель - он не так преподносит знания. Меняют модель обучения и обучают заново, до получения заданного результата.

        "главное, чтоб продукт работал" - это и есть одна из целей хорошей архитектуры. Если архитектура будет плохой? то проект быстро зайдет в тупик, когда ничего уже не будет работать и не кому будет это исправить.

        Тут оба неправы. Ибо на мелких (пусть пет) проектах архитектура "не так важна" (потому их лепят убогие и криво, и таких проектов большинство) . А так, идеальная архитектура существует, и способна удовлетворить (без доработок) 95% приложений. Остальные 5% если надо будет докрутят инженеры. Главное помнить, что всё изобретено задолго до нас! История развивается по спирали вокруг времени. Время меняется, люди и технологии меняются, а задачи решаются всё те же. И конфликты тоже ровно такие как и столетия назад.


  1. nba0302
    20.12.2023 04:52

    До тех пор, пока модель ИИ не соединили с квантовыми технологиями - да, он тупит... Но квантовые вычисления также развиваются... И сейчас становится понятно зачем развивать и корпорации будут в это вкладываться :)


  1. AndreyItIs
    20.12.2023 04:52

    Не осознавать что это произойдет возможно не в кратчайшие сроки но уже скоро, наивно. Но при этом нужно понимать что все упрется в оценку труда разработчика. Предполагаю что компании будут покупать услуги ИИ и их цена будет немного ниже стоимости реального разработчика, эти услуги заполонят высокооплачиваемые рынки (развитых стран), на рынке труда останутся только профессиональны (супервайзеры ИИ департаментов). То же самое произойдет со многими профессиями (Дизайнер, редактор и т.д.). В странах где труд малооценен думаю еще долгое время будут использовать обычный человеческий труд программистов до момента пока ИИ не создаст свой максимально эффективный язык программирования не понятный человеку (до этого думаю еще далеко) с этого момента можно будет расчитовать на гуманность ИИ и на правильные решения правительств по пас вносу доходу на душу населения, так как предполагаю что к тому времени ИИ в виде автономных роботов будут выполнять и физическую работу людей и заменит людей примерно в 90% рабочих специальностей.


  1. qw1
    20.12.2023 04:52

    Название статьи не совсем корректно. В заголовке написано ИИ, а разоблачаются LLM и ChatGPT.

    Сейчас у OpenAI в разработке и другие подходы, кроме LLM, в том числе и на основе формальной логики. Они сами их боятся, и это один поводов для недавних конфликтов внутри организации. Постоянно всплывают слухи, что OpenAI готовит новый прорыв.