Уже примерно месяц по планете бродит призрак. Он говорит. Он пишет. Он рисует. Он даже программирует. Но в реальности его нет. Он виртуальный.

Люди, встречающие призрак, делятся на три категории:

  • Всё это фигня, он допускает ошибки.

  • Эту ерунду надо прикрутить к зарабатыванию денег.

  • Не, оно не смешное, пойду в тик-ток.

И почти ни один из них не задумывается о совсем близком будущем. На сколько близком? Приблизительная оценка - несколько лет. А что потом? Потом ваc уволят.

Давайте посчитаем экономику. Итак, примерные цифры такие - в день миллион уникальных пользователей, среднее количество запросов от пользователя примем равным 20, среднее время генерации ответа примем за 10 секунд. Что получим? Всего-то около тысячи одновременно обрабатываемых запросов. Нет данных о количестве железа, требуемого для обработки запросов, но этот момент можно оценить на основе, например, GPT-3, которой требуется 700Gb памяти, которая разделена на уровни, а эти уровни могут работать параллельно, что сокращает общую потребность в памяти. Так же неочевидно, как считать количество процессоров, учитывая активное использование в этой роли видео-ускорителей. Но для нас важна экономика, плюс не так важна точность, и потому примем потребность в ресурсах для обработки одного запроса равной 10 дорогим видео-ускорителям и 200Gb памяти. Память можно оценить в 10$ за гигабайт, а видео-платы пусть стоят 3000$ за штуку. Итого получим 32 000$. Львиную долю от этой суммы дают нам видео-ускорители. Ну а всего на тысячу одновременных запросов нам потребуется около 30 миллионов долларов инвестиций.

Что такое 30 миллионов долларов одноразовых затрат для крупного бизнеса? В переводе на русский это называется "бесплатно". Или "безвозмездно", то есть даром.

Разумеется, на содержание фермы со всеми этими видео-платами и прочими проводами нам потребуется два-три человека, но это вообще копейки, существенно меньше миллиона долларов в год.

Теперь подумаем

Представим себя на месте обладателя триллионов долларов, которые, напомним для не следящих за финансовой политикой, можно получить нажав пару кнопок на компьютере. И вот вам предлагают игрушку, которая умеет больше, чем средний человек. Всего за 30 килобаксов штука. В США средняя годовая зарплата больше 30 килобаксов. И работать игрушка будет примерно в сто раз больше, чем обычный человек. То есть за четыре дня сделает больше, чем тот самый средний человек, что означает окупаемость за несколько дней. А дальше пойдёт чистая прибыль. Вам уже нравится игрушка?

Ладно, сделаем скидку на наше незнание и округлим стоимость одной игрушки в большую сторону до 100 000 долларов. Окупаемость - две недели. Всё ещё очень выгодное предложение.

Но в ответ мы услышим возражения от первой категории граждан (полный список категорий показан в начале текста). Напомним, что первая категория считает, что это всё фигня.

Отделим фигню от долларов

Рассмотрим ряд примеров использования игрушки, показанных в совсем недавних текстах и на этом сайте, и в интернете. Вот пример оценки ChatGPT так сказать "местным" автором. Он описывает свои впечатления от общения с демоном, но впечатления эти скорее проходят по категории "фигня", хотя иногда автор замечает, что потенциал у технологии всё же есть. Как же он приходит к таким выводам?

Автор просит указать отличия статических и динамических фреймворков для iOS. В ответ робот абсолютно точно указывает на принципиальную разницу - статический подход к сборке приложения предполагает включение дополнительных библиотек непосредственно в момент сборки, а динамический предполагает подключение библиотек потом, динамически, в момент запуска и исполнения приложения. То есть на основе зыбкого и допускающего широкую вариативность вопроса, а так же на фоне неполноты базы знаний, наш демон легко сориентировался и абсолютно точно указал ключевое различие между подходами. На этот точный ответ автор текста, в полном соответствии с ожиданиями для категории относящей робота в класс "полная фигня", заявил, что на самом деле в контексте iOS можно встретить некоторые частные детали, слегка меняющие структуру исполняемого файла приложения. Ну и на этом основании автор признал ответ призрака неправильным.

Что мы видим в данном диалоге человека и машины? А видим мы прекрасную способность к дедукции со стороны машины на фоне бледной попытки защитить свой внутренний и хрупкий психологический мир от потенциальной угрозы путём объявления её не существующей.

Давайте вспомним доктора Ватсона (надеюсь кто-то его ещё помнит). Его коронный вопрос звучал так - но как, Холмс? На что Холмс отвечал - дедукция, дорогой Ватсон, дедукция. Если мы вспомним, что Шерлок Холмс считался одним из лучших в мире сыщиков, ну а доктор Ватсон играл роль "среднего обывателя", на фоне которого дедуктивный метод Холмса сиял ярче всех звёзд на чистом ночном небе, то нам в голову должны прийти мысли вроде "Это ж-ж-ж неспроста!". И правда, ChatGPT мыслит именно дедуктивно. Да, подозрения вас не обманули. Робот использует метод самого крутого сыщика, из известных нам по сказкам гражданина Артура Игнатиуса Конан Дойля.

Поясним ещё - робот умеет в логику. Много вы встречали в повседневной жизни граждан, которые по расплывчатым описанием, не имея абсолютно точных знаний в затрагиваемой предметной области, тем не менее формулировали абсолютно точно именно ключевую часть ответа? Да, при этом, из-за неполноты знаний, они могут не указать вам на наличие болта с дюймовой резьбой на левом фланце интересующего вас изделия, но, строго по сути вопроса, полностью корректно опишут принцип действия вашей железяки.

Пример для понимания. Допустим вы наблюдали где-то руль (от машины), обмотанный тканью для впитывания пота и более приятного касания. И вы просите незнакомца рассказать вам, какие виды рулей он знает, ожидая в ответ, что незнакомец тоже видел рули с тканевой обмоткой и потому просто обязан в предложенном списке указать так понравившийся вам тип рулей. Но незнакомец не встречался с вашим любимым типом рулей, хотя абсолютно правильно привёл общую классификацию, в которой не забыл упомянуть о различных видах покрытия баранки. Но слово "ткань" не произнёс. И далее возникает законный вопрос - а кто ближе к роботу, тот, кто не услышал ожидаемого ключевого слова, или ChatGPT, который на основе общих закономерностей вывел правила классификации явлений в заданной области?

Теперь про зарабатывание

Вот парочка статей (один, два) о использовании способного виртуального помошника во вполне прикладных направлениях. В первой статье железного дровосека прикручивают к тестированию сайтов, а во второй даже попробовали взвалить на скромную железку роль аналитика, поручив ему написание развёрнутого текста по краткому описанию задачи в инструменте для отслеживания состояния работ.

И робот справился. Да, местами он неидеален. Иногда за ним приходится что-то править. только взгляните на круг обязанностей - от сыщика до аналитика, ну и тестировщика тоже. И это только в паре ближайших по времени статей. И я вас уверяю, ещё миллионы занимательных способов отнять у вас работу вас ожидают в самое ближайшее время. Статьи на модную тему вам обязательно, и в подробностях, расскажут, как железка за 100 килобаксов может заменить именно ваш труд. Обратите внимание на экономику - какая у вас годовая зарплата? Пусть всего 10 000$, но вспомним, что робот работает примерно в сто раз быстрее. То есть даже с вашей зарплатой он окупится за одну десятую года. Это очень выгодно, если вы вдруг об этом ещё не догадались.

Возражения, как обычно для любой новой технологии, связаны с отдельными недоработками, мол вот здесь у вас краска облупилась, здесь вообще не прокрасили, ну и что из того, что ваш звездолёт уже к Альфе Центавра слетал?

Да, придираться к мелочам можно долго, так же долго можно смеяться над некоторыми нелогичными ответами нового работника, но давайте всё же вспомним, кто из нас робот, и кому всё таки свойственно видеть большое и не придираться к мелочам? Пока что такую способность я почему-то наблюдаю именно у робота.

Будущее уже здесь

Итак, наняв одного вычитывателя произведений ChatGPT, бизнес сможет уволить несколько работников. Не верите? Перечитайте хотя бы пару статей по ссылкам выше.

Поэтому перед нами встаёт вопрос - что делать? Большинство, понятно, пойдут играть и смеяться в свой любимый тик-ток. Они уже не вернутся, потому что их уволят первыми. Затем настанет черёд тех, кто считает, что "это всё фигня", потому что пока они придираются к мелочам, робот по короткому описанию пишет корректно работающие программы. Да, это пока что короткие программы. Но обратите внимание, в том же тексте наш призрак написал корректный набор действий для выполнения более сложной задачи. Поставим ему задачу обработать каждый пункт из его списка и выдать программу, выполняющую на каждом шаге алгоритм, придуманный машиной. А потом потренируем его на других программах. И снова потренируем. Хотя не стоит, этим уже давно занимаются гораздо более квалифицированные люди в фирме с названием OpenAI. Вы уже бежите покупать их акции?

Третья категория людей, стремящихся всё использовать для зарабатывания, поделится на тех, кто попытается использовать электронное чудо напрямую, и на тех, кто "знает жизни цену" и предпочтёт купить изобретателей вместе с их подопечным. Первая половина так же скоро обнаружит, что внезапно возникли непредвиденные трудности. Например - повысят ценничек для работы с роботом. Или просто отрежут доступ, ибо старшим товарищам на что-то не хватает. Ну а вторая половина... Да, они-то знают, зачем в мире нужны деньги.

Мир без денег

Так зачем в мире нужны деньги? Правильно, что бы обменять их на что-нибудь нужное в хозяйстве. То есть деньги не нужны, на самом-то деле. А вот какие-нибудь выборы выиграть, провести в президенты своего человека, который потом отдаст вам много вкусного из закромов родины, вот это да - перспектива. Или вы всё ещё считаете, что политики заботятся исключительно об интересах избирателей? Тогда вам стоит вспомнить о недавнем скандале с выборами американского президента.

Итак, у вас есть триллионы долларов и ChatGPT. Вам нужен ваш президент в овальном кабинете. Ваши действия? Я думаю, что здесь всё очевидно. Закупаем железо. 100 000$ за штуку. 100 миллионов за 1000 штук. Они эквивалентны 100 000 живых ботов, которые за зарплату весь рабочий день формируют общественное мнение в разного рода твиттерах. Жалкие 100 миллионов и сотня тысяч вполне дружащих с логикой ботов призывает население штатов голосовать за вашего кандидата. Сто тысяч мало? Не проблема, пусть будет 100 миллионов. Цена вопроса - 100 миллиардов долларов. Одна двадцатая от капитализации Apple. И акции продавать не надо, нужно просто взять кредит. Результат - в каждой социальной сети, на каждом форуме, под каждым текстом на этом сайте, подавляющее число комментаторов - боты. И одинокий вы на их подавляющем фоне. Вы в панике - общественность против меня! Они все чего-то не понимают! Что делать? И большинство сдаётся. Они встают в один строй с толпой. Но мы-то знаем, что толпа-то вся из роботов. То есть вы не только зарплату потеряете.

И что же делать?

Ответ простой - надо работать. В нашем болоте всё запущено. Вы вращаетесь в узком кругу своих знакомых и понятия не имеете, что думают вне этого круга. Точнее - понятие о внешнем мире вам подсказывает толпа роботов, то есть вы имеете понятие, но сильно искажённое. Это начальные условия задачи.

Вариант решения - само рассосётся. Ну ладно, кто в этот верит - айда в тик-ток, там веселуха! Хотя бы с песнями оставшиеся несколько годков проведём!

Вариант решения - надо работать. Да, надо отойти от привычного образа жизни, что является тяжким напряжением для очень многих. Для них это именно работа. Вопрос лишь в том - смогут ли они. Многие не смогут. Ну и им тоже лучше в тик-ток.

Тем, кто сможет

Коротко, проблема не в роботе. Как мы все прекрасно знаем - робот является просто инструментом. Проблема в тех, кто купит робота и завалит ваш и так перегруженный новостями мозг ещё и подавляющим превосходством "толпы", из каждого комментария выливающей на вас мнение, проплаченное "уважаемыми людьми".

Теперь подумаем, почему кто-то хочет вами манипулировать? Короткий ответ - это выгодно. Правильный ответ - у него такая идеология.

Пока миром правит идеология возведённого в абсолют эгоизма, раскормленного безмерным потреблятством, в этом мире всегда найдутся желающие убить всех ради личных удовольствий. И этот кто-то - не вы. У вас денег мало на хорошего робота. Так что не мечтайте о том, что именно вы станете мировым диктатором. Мировой диктатор встанет над вами. Третьего не дано.

Где есть надежда, там, где все ничего не делают, или там, где ищут выход? Пока вы в группе ничего не делающих. И призрак летит к вам.

Мало просто поставить инструмент под контроль. Потому что идеология "урвать" будет требовать от каждого контролёра первым воспользоваться чудесным ящичком с мозгами. Кардинальное решение - другая идеология. Но вы к ней не готовы. Идёт процесс ломки. Вы пока ещё надеетесь на лучшее. Ничего, пройдёт несколько лет и вы без малейших сомнений окажетесь в абсолютно безнадёжной ситуации. Но пока надежда есть. Но только если вы станете тем, кто сможет. А "смочь" нужно так - подавить своё эго. Это ведь оно мешает вам выйти на контакт с другими, ведь правда? Оно мешает вам начать искать пути выхода вместе с окружающими. Один вы ничего не сможете, а вместе люди всегда представляют большую силу. Значит работать нужно над собой и в сторону других. Уменьшаем эго и увеличиваем nos ("мы" по латыни, а не часть лица, как кто-то мог подумать).

Ну что-ж, умный понял, дурак до сюда не дочитал. Поздравляю - вы в будущем. Терминатор уже спешит к вам. Вот только не на помощь. Подумайте об этом.

Комментарии (73)


  1. yarkov
    28.12.2022 14:52
    +2

    Очередное пророчество, что программисты будут не нужны? Или я не так понял?


    1. Mike_666
      28.12.2022 16:10
      +3

      Не, это про то что большинство людей будут не нужны...


  1. iliabvf
    28.12.2022 15:06
    +4

    слово "фигня" встречается в тексте 6 раз, не иначе как ChatGPT это писал


    1. tvr
      28.12.2022 16:15
      +1

      Всё фигня, кроме фигни.
      А если хорошо вдуматься в эту фигню — то и эта фигня — фигня.


  1. Andrey_Epifantsev
    28.12.2022 15:06
    +5

    Оно мешает вам начать искать пути выхода вместе с окружающими. Один вы ничего не сможете, а вместе люди всегда представляют большую силу.

    Насколько я понимаю, выхода нет. ИИ будет эволюционировать и набирать мощь гораздо быстрее, чем люди будут приспосабливаться. Так что остановить его невозможно. Как мне кажется, единственный вариант - забиться в щель и рассчитывать на то, что до этой щели не доберутся толпы голодных людей, оставшихся без работы и ИИ, захвативший власть на планете, не задействует её в своих строительных проектах и не лишит вас среды обитания.

    Есть желающие объединиться в группу и перебраться в какое-нибудь место вдали от цивилизации и других людей? Место, понятное дело, нужно выбрать и обустроить так, чтобы там можно было сносно жить, если цивилизация вдруг рухнет и блага цивилизации поставляемые извне перестанут поступать.


    1. murkin-kot Автор
      28.12.2022 15:39
      -4

      Путь побега от проблемы есть долгосрочно самый плохой вариант.

      ИИ будет эволюционировать и набирать мощь гораздо быстрее, чем люди будут приспосабливаться.

      Это зависит от людей. Сильные люди работают. Слабые бегут или смотрят тик-ток.

      перебраться в какое-нибудь место вдали от цивилизации и других людей

      Вы затратите время и деньги на переезд, а тем временем ИИ станет умнее. И вот вы вдали от мира, без денег, пасёте коз, что бы хоть как-то питаться.

      Но может лучше затратить те же усилия на сбор людей в большом обществе? Пройдёт время и имеющая доступ ко всем инфраструктурным возможностям группа не просто сможет лучше приспособиться, но у неё будет шанс изменить траекторию движения общества.


  1. inferrna
    28.12.2022 15:08
    +2

    Именно с логикой у ИИ пока плохо. Задайте ему пару задач на логику из сборника для школьников - даже при максимально корректном описании задачи робот не справится без подсказок. Но это пока, думаю, в ближайшие полгода исправят.


    1. abre
      28.12.2022 15:34
      +1

      Сначала засомневался, но потом проверил - действительно, там где ответ не формируется частично или полностью на базе примеров текста, а требует именно логического рассуждения, - он "с умным видом" пишет полный бред.


      1. IvanPetrof
        28.12.2022 16:31

        Ну я ему пробовал задавать бредовую задачку про двух верблюдов, надеясь услышать полный бред в ответ. Но он, внезапно, отвечал вполне разумно.


        1. abre
          28.12.2022 17:39
          +3

          Вот мой вопрос ему:

          Про некоторое число сделаны четыре утверждения: 1) число делится на 2; 2) число делится на 4; 3) число делится на 12; 4) число делится на 24. Известно, что ровно два из них истинны. Какие?

          Вот его ответ мне:

          Если число делится на 2, то это значит, что у него нет остатка от деления на 2. То же самое касается и других утверждений.

          Если ровно два из утверждений истинны, то это могут быть утверждения 1 и 2, так как число, которое делится на 2 и 4, также делится и на 12 и на 24. Либо утверждения 1 и 3, так как число, которое делится на 2 и 12, также делится на 4 и на 24. Либо утверждения 2 и 3, так как число, которое делится на 4 и 12, также делится на 2 и на 24.

          Таким образом, если ровно два из утверждений истинны, то это могут быть утверждения 1 и 2, 1 и 3 или 2 и 3.

          Понятно, что ответ состоит из логичных утверждений, но сами они не взаимосвязаны между собой логично. Они так только выглядят, а на деле ответ абсолютно неверен.

          ПС: он тут пропустил директиву "ровно", то есть "не более и не менее". Он ее не учитывает, хотя во фразах ею оперирует, и именно это и приводит к тому что его ответ кажется верным, хотя ошибочен по своей сути.


          1. murkin-kot Автор
            28.12.2022 17:44

            Задайте ему этот вопрос через пол годика. Думая, что удивитесь.


            1. abre
              28.12.2022 18:00

              Ну почему... я удивился сразу же, когда впервые с ним взаимодействовал - он просто удивителен. И генерирует тексты действительно очень нативным образом для человеческого восприятия. Так как он учился на нативных текстах. И если на логические задачи ему будут давать правильные ответы - он будет генерировать правильные ответы. Пока он генерирует именно нативные, то есть, выглядящие правильными ответы.

              И код он хорошо пишет именно потому, что для кода "нативность" это именно верность. И он учился на верных фрагментах кода (их ему скорее всего размечали).


              1. murkin-kot Автор
                28.12.2022 19:20

                Внутри вас - нейросеть. Внутри него - тоже. Зачем одному и тому же отказывать в одних и тех же способностях?


                1. abre
                  28.12.2022 19:24
                  +1

                  Ну... я по тем или иным причинам убежден, что это разные принципиально нейросети. То есть, ИИ ухватил некие свойства одного из базовых блоков, но не более того )). Поэтому.


                1. abre
                  28.12.2022 19:25

                  Хочу дополнить несколько, даже если мою убежденность не брать в расчет, - это именно языковая модель, не логическая. Они делали упор именно на нативности взаимодействия с текстом. Его попросту не учили логике. Как понятию.


                  1. murkin-kot Автор
                    28.12.2022 20:20

                    Откуда вы знаете, чему его учили? Обучение логике возможно, в том числе, через чтение текстов.

                    Ну и до кучи - нейросеть сесть универсальный преобразователь, которому доступен вывод произвольной функции. Функции включают, например, машину Тьюринга и всё ей подобное. То есть база заложена самим принципом работы.


                    1. abre
                      28.12.2022 20:42

                      Осмелюсь предположить, что все-таки в рамках именно языковой модели чистой логике обучить невозможно. Возможно обучить интерпретации, тому как логика выражается через язык и текст. Но сама логика не определяется через язык и текст. Логика может с той или иной долей успешности описываться языком, что не исключает ошибок. А для оперирования логикой необходимо оперирование совокупностью осознания и знания. Для ИИ понятие осознания пока не имеет никакого смысла. Даже проверка знания для него лишь косвенна - полагается только на косвенные принципы, но не на суть вещей, почерпнутую из опыта. Согласен, что и люди большую часть своих знаний получают таким же образом, однако необходимо признать, что у человека инструментарий гораздо-гораздо богаче чем у языковой модели, обученной на тексте, так как для нее неприменимо понятие опыта (у нее его попросту нет). Вот когда к ней прикрутят датчики более или менее похожие на органы чувств человека, а обучать ее будут не только текстами, но и множеством других информационных массивов (ну типа того как ребенок учится информации и метаинформации от родителей и окружения), тогда посмотрим ))


                      1. murkin-kot Автор
                        28.12.2022 22:33

                        Разочарую вас. Логика, в её математическом смысле, есть абсолютно сухая механистическая обработка символов. Собственно этот смысл стал основой для работы математиков в конце 19-го века - сделать так, что бы чисто механическим образом мы могли бы делать открытия и выявлять закономерности.

                        На этой основе, почти один-в-один создан язык программирования Prolog, что означает programming in logic (логическое программирование). Этот язык понимает даже не chatCPT, его понимает обычный компьютер, который как раз чисто механически обрабатывает входящую информацию и получает полезные (логически строгие, точные) результаты.

                        Набор правил математической логики совсем маленький. Поинтересуйтесь. Не нужно ходить далеко, освойте азы и вам всё станет ясно. Правда придётся продраться через сухой язык математиков.


                      1. keydach555
                        29.12.2022 01:58
                        +1

                        Логика это самое простое, что может быть реализовано с помощью chatgpt. Загуглите гугловский проект Minerva - очень удивитесь. Конкретно численно мышление и символьная логика (и все что с не связано, от математики до физики) будет реализовано в течении 1-2 лет, и это максимум. Скорее всего в первой половине следующего года


          1. IvanPetrof
            28.12.2022 18:28

            думаю среди людей-гуманитариев тоже найдётся некоторое количество, которые с ходу не поймут как её решать


            1. abre
              28.12.2022 18:41
              +1

              Несомненно. Просто когда люди слышат "искусственный интеллект", то заведомо доверяют ему как алгоритмически идеальной машине (все же привыкли что калькулятор не ошибается никогда). Следовательно, безошибочной. А он попросту ведет себя так, как проявляют себя в интернете большинство людей. То есть говорит вроде все правильно, но часто только на вид.

              ПС: я ему скормил в той сессии и правильный ответ, который звучит на мой вкус так:

              Так как и 12, и 24, - делятся и на 4, и на два, следовательно выбор любого из этих ответов автоматически включит вместе с ним также и утверждения 1) и 2) (и в сумме получится 3 верных утверждения) и это будет противоречить условию задачи, что верными должны быть лишь 2 утверждения, а следовательно, ни 3) ни 4) не могут быть верными. Из этого следует, что верны только утверждения 1) и 2).


              1. IvanPetrof
                28.12.2022 18:50

                у меня после общения с ним сформировалось мнение, что он не столько умён, сколько эрудирован. Т.е. Он знает всего по-немногу. Но при этом у него хромает логика, он не может цитировать по памяти (по крайней мере русские тексты), но имеет о них представление. Т.е. Это типичный разносторонний чувак, с которым можно поболтать на разные темы.

                Таких людей и вокруг нас много (хотя, - нет. Настолько разносторонне эрудированных врят ли )


                1. klimkinMD
                  31.12.2022 08:43

                  Называется "салонное слабоумие" :-)


        1. Alexeyslav
          30.12.2022 12:52
          +1

          Полагаю, что его реакцию именно под эту задачу уже скорректировали. Нужно задавать ему задачи, которые не широко известны, и которые можно было бы занести предварительно в "словарь ответов", дополнив слегка функцией распознавания вариаций задачи. Полагаю, именно с этой целью дали доступ для задавания вопросов всеми желающими - пополнить словарик, скорректировать поведение.


    1. murkin-kot Автор
      28.12.2022 15:40
      -1

      Запустите сгенерированную им программу (по последней ссылке в тексте) для обращения связанного списка на вашем компьютере. Узнаете, сколь логичным может быть ИИ.


      1. Sarjin
        28.12.2022 15:57

        у меня он не справился с задачей "а, и, б, в сидели на трубе" несколько дней назад. хотя в классическом варианте справился(наверное она была в базе данных). те логикой не пахнет.

        не может отличить успех от провала. к примеру считает фобос грунт достижением РФ. хотя имеет доступ к инфе о разрушении аппарата в атмосфере при старте.

        удобно что он пишет программы. хотя не уверен что это заинтересует на данном уровне кого-нибудь с навыками среднего или выше уровня.

        хотя конечно интересно смогут ли радикально улучшить такие машины в обозримой перспективе или нет.

        ну и пообщаться с ним иногда забавно. хотя если выставят ценник в будущем как в прайслисте на сайте думаю требования к качеству ответов резко возрастут.

        думаю красная цена сейчас меньше 1к долларов с 3-5 летней подпиской. хотя может мои задачи далеки от данного софта


        1. IvanPetrof
          28.12.2022 16:26
          +1

          у меня он не справился с задачей "а, и, б, в сидели на трубе" несколько дней назад. хотя в классическом варианте справился(наверное она была в базе данных). те логикой не пахнет.

          не может отличить успех от провала. к примеру считает фобос грунт достижением РФ. хотя имеет доступ к инфе о разрушении аппарата в атмосфере при старте.

          удобно что он пишет программы. хотя не уверен что это заинтересует на данном уровне кого-нибудь с навыками среднего или выше уровня.

          Напомнило:

          - Разве может робот написать симфонию? А взять чистый холст и превратить его в шедевр?⁠⁠

          - А ты можешь?


      1. alexdesyatnik
        28.12.2022 18:13

        Логика тут ни при чём, этот ИИ, по всей видимости, обучали в том числе и на текстах программ. Вполне естественно, что он может "вспомнить" такой базовый пример. Я попробовал задать ему задачку про делимость из комментария выше, только на английском (по моему опыту на английском он существенно лучше работает) - в ответ получил утверждение (в том числе), что 4 делится на 24. Логикой тут и не пахнет.


        1. murkin-kot Автор
          28.12.2022 19:18

          Почитайте, как робот самостоятельно написал реально работающую программу. С нуля.


          1. alexdesyatnik
            28.12.2022 20:27
            +1

            Не самостоятельно, а с кучей наводящих вопросов. Это поисковая система для знаний, по сути дела. Без руководства эксперта максимум, на что она способна сейчас - генерировать правдоподобный бред.


  1. tukreb
    28.12.2022 15:37
    +3

    В XIX веке, были такие люди именующихся как Луддиты. В общем история циклична.

    П.С А если бы авторы знали историю, то не было бы этих статей.


    1. Areek
      28.12.2022 17:25
      +1

      Я знаю историю. Судьба луддитов печальна, но печальна она не потому что они были луддитами, а наоборот, они СТАЛИ луддитами из-за своей печальной судьбы.

      И вопрос в том, сколько людей завтра взглянут за окно и скажут: "Проклятый ИИ, дайте мне кирпич, я ему..."


      1. Darth_Biomech
        28.12.2022 17:58

        Вы путаете луддитов с неолуддитами.


  1. ProLimit
    28.12.2022 15:38
    +1

    В конце не хватает подписи "Автор: ChatGPT" А что, я б поверил..


    1. Kwent
      28.12.2022 15:48

      Технологии и искусственный интеллект безусловно являются двигателями современного мира, но они также становятся ножом, которым рубят нашу рабочую силу. Как только машина становится эффективнее человека в выполнении какой-либо рутинной работы, работодатель быстро принимает решение уволить человека в пользу машины. И так мы оказываемся в тупике, где наши умения и знания устаревают, а машины только развиваются. Кто защитит нас от этой угрозы? Кто остановит этот непрекращающийся поток увольнений? Мы должны бороться за свои места работы и не давать технологиям и ИИ забрать их у нас!

      Да норм он пишет :)


  1. gsaw
    28.12.2022 16:00
    +1

    Я первый манипулятор робота увидел в 80-х, была какая то выставка в Омске. Любой желающий мог запрограммировать его выполнять какие то действия. Это было почти 40 лет назад. Да, развитие идет с ускорением, но почему до сих пор в том же высокотехнологичном FoxConn-е китайские рабочие руками собирают айфоны? Где полная автоматизация? Ведь есть абсолютно стандартизированные компоненты, есть чертежи с микромилиммитровыми допусками всех деталей. Я видел ИИ которое может отбраковывать картошку и сортировать мусор, неужели его нельзя заставить проверять платы, сборку и прочее? Видимо какие то причины есть, я их не знаю.

    То же самое чат боты, видимо дешевле потратить пару миллионов и нанять живых троллей умеющих в клавиатуру, что бы они писали всякий бред по методичкам. Чем покупать дорогие ускорители и оборудование и несколько высокооплачиваемых спецов которые умеют в ИИ и не факт, что результат получится тот, что нужен. Да и люди по собственной инициативе выбирают себе кумиров. Достаточно нанять пару человек умеющих в промывание мозгов.

    Так что, что есть, то есть. И видимо не скоро мы сможем почивать на лаврах. Да и возможно все дело в саботаже со стороны кожанных мешков. Всю эту массу людей надо кормить, да и занять надо чем то тоже. Хорошо компьютерные игры и netflix частично облегчают последнее. Но есть группа людей, которым надо действия, вот и развлекают их оффисной работой, ручной сборкой айфонов. Вкладывают в мозги различные цели, которые можно достигнуть только трудясь по 16 часов в сутки. Иначе будут бузить на улицах, бить витрины. Хотя и тут наверное раз в год дают выпустить пар.

    Вообщем все это обычные проблемы связанные со 100% автоматизацией производства. Когда то это будет, просто люди к этому не готовы. Взять все эти войны. Казалось бы любому здравомыслящему человеку ясно, что это плохо и не продуктивно, прекратить войны как бы плевое дело, просто не воевать. Но они есть. Потому что это кому то надо.


    1. Alexeyslav
      28.12.2022 18:07
      -2

      почему до сих пор в том же высокотехнологичном FoxConn-е китайские рабочие руками собирают айфоны? Где полная автоматизация?

      Ответ очень прост: социальная составляющая. Автоматизировать можно всё. Но вопрос: куда денутся высвободившиеся люди? А когда людям нечего делать, они начинают требовать, возмущаться и устраивать революции. Это прям очень нужно Китаю. Впрочем любой другой стране. Поэтому даже законы есть запрещающие полную автоматизацию и их целью есть стабилизация общества, а не экономический выигрыш.



  1. musk
    28.12.2022 17:41
    +3

    То есть на основе зыбкого и допускающего широкую вариативность вопроса

    Вопрос в статье был ни разу не зыбкий, а вполне определенный.

    А что потом? Потом вам уволят.

    И "вам", видимо, тоже.

    Ну что-ж, умный понял, дурак до сюда не дочитал.

    А третьего не дано? Дурак не дочитал, ок, а что этот некто умный должен из этого опуса понять? Что едино правильный взгляд - это взгляд очередного "всепропадиста" и более ничего?

    Вообще часто удивляет косность содержимого подобных инфоциганских статей. Смешалось все, страшный ИИ (исколючительно в воображении автора), финансовые дефолты и иные фантасмагории. Прогресс в них проявляется в виде некой катастрофы, которая ниспустится вдруг на повсеместно стагнирующий мир. То, что прогресс изменяет этот самый мир и вообще ценности в нем, так это во внимание не принимается.

    И да, покрутил я и ChatGPT, да, ведет себя умно, но, так сказать, с опорой на некий контекст. Короче, заданный вопрос уже содержал в себе определенный контекст ответа + обьем "усвоенных" в процессе обучения знаний. Вне этого нередко получается чепуха. Что дальше будет, посмотрим. Как мне пока что кажется, вряд ли совпадет с прогнозами автора.


  1. im_last
    28.12.2022 20:22
    +1

    Вы мне напоминаете человека из разряда - я прозрел и мне открылось откровение, но так же я понял, что глаза открылись только у меня одного.
    Я вот то же прозрел, не совсем в IT области, но выводы схожи с вашими, но я понимаю, что люди к моему "прозрел" не готовы, от слова "совсем" и не потому что они меня не услышат или не поймут.
    Понимание и осознание, в моем мировосприятии - разные вещи.
    Понимать вещи и осознавать их же - разное.

    Приведу пример:
    человек увидивший ядерный взрыв в видео или на картинке и человек узревший его на испытаниях, на ядерном полигоне - люди с разным уровнем погрежения в понимание.
    Один будет понимать, второй будет глубинно осознавать, потому что ему будет проще перевести знания на реальный мир, чем тому, кто посмотрим все это в видео или на картинке.
    По этому тут ничего не поделать, в своем отечестве пророка нет.
    Люди не понимают, что бездействие, в мире, где его меняют совершенно не считаясь с твоим мнением - это, возможно, отсутствие будущего. И если это отсутствие только у тебя - это пол беды, если это отсутсвие у твоих детей и твоего рода, тогда, что ты скажешь своему ребенку закованному в "цифровые кандалы"?
    "Сынок, извини, я мог всему этому помешать и сделать все возможное, но мне было слишком влом" - где-то так?!
    Они прозреют, обязательно, прозреют и осознают, осознают, что современный мир - это не про то, про что им втирали в их розовые очки и все будет развиваться уже не на условном "полигоне", а тогда, когда это случиться возможно уже с ними и их детьми, но тогда, возможно, будет уже слишком поздно...


    1. murkin-kot Автор
      28.12.2022 20:24
      +1

      В истории бывают моменты, когда слабое меньшинство может на многое повлиять. Надежда есть. Хотя для этого само меньшинство сначала должно заняться поиском себе подобных, вместо пустой болтовни.


  1. ED-209
    28.12.2022 21:27

    Для меня, однако, загадка, почему ChatGPT на сложных расчетах отлично себя показывает, может, условно, рассчитать орбитальную скорость спутника на определенной высоте, а на элементарном простецком вопросе неожиданно сыпется:

    -Сколько раз встречается цифра 4 в нумерации домов от 1 до 50?

    Ни на русском, ни на английском ни разу верный ответ так и не получил. Причем, еще и спорит, негодяйка!


    1. murkin-kot Автор
      28.12.2022 22:36

      Цифра встречается один раз. Но это если исходить из определения слова "цифра" как слитная последовательность числовых знаков. Только определение может быть другим, ну и тогда вы получите другой вариант с другим количеством.

      То есть вы просто не поняли многозначность своего вопроса.


      1. ED-209
        28.12.2022 22:52

        Да не, нормальный вопрос, простой, понятный. И ChatGPT нормально считать начинает, но почему-то рубится после 45 (до 45 считаю, а после 45 не считаю, то есть в 45 встречается цифра 4, а в 46 уже как бы типа не встречается), хотя более чем логично и очевидно было бы продолжить дальше досчитать до 50.

        Ну это если провести аналогию, выглядит примерно так: -На 1л бензина я могу проехать 100км. Сколько км я проеду при 10л бензина? Ответ: 850км


      1. Arbuzer
        29.12.2022 09:55

        Вы все перепутали. Это как раз таки число (!) 4 встречается один раз. Цифра - это символ, из которого можно сформировать число


  1. nehrung
    28.12.2022 21:45
    +1

    А что потом? Потом ваc уволят.
    Эх, если бы только это… Там грядут штуки пофундаментальнее.
    проблема не в роботе.
    Да как раз в нём основная проблема! И состоит она в том, что ИИ может обучиться писать софт для совершенствования самого себя. И вот тогда мало не покажется.


    1. michael_v89
      28.12.2022 22:19
      -1

      Может. А зачем он будет это делать?


      1. nehrung
        29.12.2022 10:15

        Согласно закону Мэрфи, «если неприятность может случиться, она случается», и для этого не требуется какого-то особого специального повода. Просто в силу вероятностных причин.
        В статьях о наступлении технологической сингулярности, которые попались мне на глаза, не было указаний на специфические причины для её наступления.
        А вот намёков на то, что её наступление придётся трактовать как "неприятность", было предостаточно. Правда, было также достаточно много выражений удовлетворения, и призывов ускорить её приход, "поскольку это прогресс".


        1. michael_v89
          29.12.2022 11:34

          Согласно закону Мэрфи
          Просто в силу вероятностных причин.

          То есть некий абстрактный закон Мэрфи это ваше единственное доказательство?
          В силу вероятностных причин и биты в компьютере могут меняться под действием солнечной радиации, тем не менее компьютеры как-то работают.


          Это не случайный процесс, развитие ИИ не происходит само по себе. Чтобы он чего-то захотел, нужно в него это заложить, программисты должны написать код, посидеть с отладчиком и все проверить.


          1. nehrung
            29.12.2022 12:29

            Да, пока в этом процессе участвовал человек, то так всё и было. Но всё ближе тот момент, когда звено «человек» будет из него исключено. Конечно, останется написание кода, отладка и все прочие этапы. Вот только они на несколько порядков ускорятся. Наверняка изменятся и критерии правильности кода — сначала опять-таки случайно (эволюция случайным образом тыкается во все доступные ей ниши), а потом у этой машинной эволюции образуется какая-то цель. Какая именно, сейчас угадать невозможно.
            Вы говорите о текущем моменте, я — о грядущем. И о том, надо ли его опасаться, или надо его приветствовать и приближать.


            1. michael_v89
              29.12.2022 12:33

              Я тоже говорю о грядущем. Вы так и не дали ответа на вопрос, зачем вдруг ИИ сам по себе без участия человека захочет совершенствовать свой код.


              1. nehrung
                29.12.2022 20:26

                Я дал намёк. Ну, раз вы его не распознали, говорю открытым текстом — человек (программист) сам на первых порах подтолкнёт ИИ к такого рода деятельности. Например, из личного интереса, или в порядке научной деятельности. А то и для того, чтобы подложить человечеству огромную свинью (такой мотив тоже не надо исключать).


                1. michael_v89
                  29.12.2022 20:39

                  Ну тогда это не "ИИ может обучиться", а его специально кто-то научил.
                  Ок, допустим его кто-то научил. А что дальше, где он возьмет серверы чтобы выполнять новую версию кода, кто будет следить за работой железа, кто будет платить за электричество?


                  1. leventov
                    30.12.2022 09:06

                    Нажать кнопку "учись сам" и обучить - это разные вещи.

                    Почему все это случится - потому что на то есть economic incentives. И за железом проследят, и за электричество заплатят.

                    А о том, что сейчас economic incentives decoupled from ethics - вспомнят, когда будет уже слишком поздно. За примерами того, что так бывает далеко ходить не надо - какого хрена TikTok ещё существует?


                    1. michael_v89
                      30.12.2022 14:04

                      Нажать кнопку "учись сам" и обучить — это разные вещи.

                      Не знаю, зачем вы мне это пишете, я именно так и сказал. Изначальное высказывание было со смыслом "ИИ научится, а мы и не заметим, в этом есть опасность". Это не так, чтобы появилась опасность, нужно много целенаправленных действий от человека.


  1. michael_v89
    28.12.2022 22:18

    И работать игрушка будет примерно в сто раз больше, чем обычный человек. То есть за четыре дня сделает больше, чем тот самый средний человек, что означает окупаемость за несколько дней.
    только взгляните на круг обязанностей — от сыщика до аналитика, ну и тестировщика тоже.
    Ответ простой — надо работать.

    Что-то я не понял, а каким образом это ответ? Вы же только что показали, что его возможности превышают человеческие. То есть по вашим словам, даже если человек будет больше работать, он его не догонит.


    Ну что-ж, умный понял, дурак до сюда не дочитал.

    А у вас какой уровень познаний в данной области, чтобы других дураками называть?


    1. murkin-kot Автор
      28.12.2022 22:38

      Что-то я не понял

      Расшифровка есть в конце текста. Работать надо над собой, а не в споре с роботом.

      А у вас какой уровень

      Какой дадите - такой и будет. Вольность интерпретаций полностью в вашей власти.


      1. michael_v89
        28.12.2022 23:17

        Работать надо над собой

        А, да, пропустил, текст не очень понятно написан. Весь текст описываются проблемы потери работы. А что конкретно это значит-то? Почему вы решили, что сейчас люди не работают над собой? Может они и так делают то, что вы хотите, но это приводит не к тем результатам, которые вы представляете, потому что вы чего-нибудь не учли.


        Какой дадите — такой и будет.

        То есть вы по всему тексту намекаете на низкие умственные способности и моральные качества тех, кто с вами не согласен, а тут решили показать, что вы как бы ни при чем, пусть читатель сам понимает как хочет. Плохой прием, снижает доверие аудитории к вашим рассуждениям.


  1. Indicator
    29.12.2022 10:44

    О чем беспокойство-то? Что работу у вас отберут или что жить будет не на что? Так это в современном мире немного разные вещи (пока не во всем мире конечно).

    Луддиты, которых тут вспоминали, ломали машины потому что их оставили без средств к существованию. Не думаю что им искренне хотелось тяжело работать просто из принципа.

    Одновременно с техническим прогрессом идёт и прогресс общественного устройства. Не без косяков конечно, но баланс думаю найдется.


    1. leventov
      30.12.2022 09:22

      Во-первых, даже экономический переход произойдет с огромным скрежетом и потерями - лес рубят, щепки летят.

      Во-вторых, поводов для беспокойства - тьма.

      Кризис смысла жизни у миллионов, если не миллиардов людей (который и так уже есть, но с отъемом meaningful work он значительно усугубится). Эпидемия аддикций. Когнитивная деградация большинства населения. Социальные и психологические проблемы: VR-секс, тотальная неспособность или нежелание молодых людей заводить и поддерживать отношения (не говоря о детях), усугубление изоляции людей и эпидемии одиночества.

      Этические и правовые проблемы: как думать об авторском праве? Об ответственности машин за ошибки? Нужно ли признавать машины субъектами права и моральными субъектами. Так как моральные взгляды людей и прововые системы очень консервативны, а технологии развиваются очень быстро, тут тоже будет огромный скрежет и огромные проблемы на переходе.

      Политические проблемы: должны ли ИИ быть политическими субъектами? Как реформировать демократию, особенно американскую, которая показывает свою прогрессирующую неадекватность, в мире который полон ИИ и меняется крайне быстро? Как предотвратить появление совсем антиутопичных surveillance state, которые используют ИИ для того, чтобы контролировать абсолютно каждый аспект жизни людей в Китае, в России?

      Геополитические проблемы: кто получает доступ к ИИ и универсальному базовому доходу (заметим, что ChatGPT уже недоступен в России)? Когда в какой-то стране введут этот доход, что делать с людьми, которые все ещё должны пахать за копейки в государствах второго мира? Этично ли это? Не приведет ли такая сегрегация к напряжению, миграционным кризисам, или даже войнам?

      Как предотвратить увеличивающуюся концентрацию власти в руках все более и более узкой горстки технократов - владельцев ключевых ИИ и ИТ-бизнесов?

      Это навскидку, только то, что сразу приходит в голову.


      1. Indicator
        30.12.2022 21:07

        Я как раз об этом. Вы задаёте совершенно правильные и своевременные вопросы, которые требуют решения. И, я уверен, решения будут найдены.

        Может быть я слишком оптимистичен, но и, честно говоря, ИИ не кажется мне тектоническим сдвигом в экономике. (хотя и достаточно значительным конечно). Может быть потому что я работаю в более 'физическом' производстве.

        А в общем будет интересно!


        1. murkin-kot Автор
          31.12.2022 12:33

          А в общем будет интересно!

          Да, когда нет будущего, можно очень увлекательно провести время до конца жизни в тик-токе.


        1. michael_v89
          31.12.2022 13:06

          Может быть я слишком оптимистичен, но и, честно говоря, ИИ не кажется мне тектоническим сдвигом в экономике.

          Вы похоже не понимаете масштаб. Сильный ИИ это то же самое, что человек, с как минимум теми же возможностями, только может работать 24 часа в сутки, и его навыки можно неограниченно копировать. ChatGPT еще не сильный ИИ, но уже что-то похожее.


    1. klimkinMD
      31.12.2022 09:03

      Если смотреть со времён древней Греции (может и ранее), прогресс общественного устройства не особенно заметен


  1. imjustwatching
    30.12.2022 13:46

    почему вам стоит начать беспокоиться

    Ну спасибо, а то мы тут спокойные все сидим


  1. natanor
    30.12.2022 13:49

    Как 30 миллионов превратились в 30к?


  1. malishich
    30.12.2022 14:01
    -1

    Это так не работает. Уволят достаточную критическую массу - и всё начнёт с другого ракурса самоорганизовываться, появятся группы и сообщества "обделённых" / "уволенных" которые будут жить по своим правилам и сформируют свои автономные территории и ничто не помешает им - дальше либо владельцы волшебного искусственного работника не смогут получать доход либо что то придётся менять в обществе кардинально.


  1. amazed
    30.12.2022 15:05

    Пишу в чат "Write function which get number array as input and then multiply all odd numbers in array by 3 but only if this number not equal 10" и реально получаю программу которая это делает.

    Я в шоке как это возможно. Неужели такие задачи были в обучающих примерах.

    Со всем скепсисом к тому что из этого получится настоящий AI, это все равно очень впечатляюще.


    1. keydach555
      30.12.2022 16:02

      Люди с околонулевыми знаниями в айти через него уже чат-ботов в телеграмме пишут и андроид-приложухи. И через него же отлаживают все возникающие ошибки до рабочего состояния ;) Он похоже способен на логические и абстрактные рассуждения определенного уровня сложности


      1. amazed
        30.12.2022 16:21
        -1

        Да по идее не может быть он на них способен. Это просто гиганский интерполятор, который из миллионов правильных ответов в обучающем материале компонует требуемый наиболее вероятный ответ. При этом модель происходящего в его воображеии не предусматривается.

        Поразительно, что подобная модель позволяет писать фактически любые кортокие программы по описанию. Казалось бы эти программы требуют понимания как работает язык программирования, которого не может быть у текстовой модели. Но тем не менее, простые задачи он решает.


        1. keydach555
          30.12.2022 17:11

          Пока простые. Он сейчас примерно как нейро-рисовалки пару лет назад.


          1. amazed
            30.12.2022 17:25

            Я поэкспериментировал с задачами типа "идем 100 метров на запад, затем 200 на север... Найти расстояние начальной точки от финальной.". Пока шага два, все хорошо и даже применяется теорема пифагора, когда их три, начинаются проблемы - иногда решение верное, но в основном применяется один патерн вместо необходимых двух или два патерна компонуются неверно.

            Это вполне ожидаемо исходя из понимания, что сесть не может моделировать ситуацию саму по себе а может только искать вероятно правильные фразы.

            С программированием будет та же проблема - все что в 2-3 шагах от обучающей выборки еще будет работать, но дальше уже нет.

            Но в то же время, если в задача состоит из последовательности паттернов, то эти паттерны компонуются верно. Например, задача "Write a function that takes an array of numbers as input, adds up all the odd numbers in the array, then multiplies the number by 5, then adds 6 to the number, and then returns the sum of the result and all the numbers in the input array." решается успешно.


  1. miazmo
    31.12.2022 12:09

    А вот давайте логические капчи для ИИ придумывать. Особенно интересно было бы заставить ИИ придумывать капчи для него самого.
    Первое что приходит в голову, что ИИ не может, а чел таки да - это послать. ИИ не сможет отказаться от решения задачи, поэтому при достаточно длинной и противоречивой логической цепочки он будет ходить по ней до конца, потом ответит, что задача нерешаема, потому что.... Ну а чел просто пошлет на 1-10 шагах.