Пока нельзя сказать точно, являются ли современные нейросети тем самым искусственным интеллектом, которого ждало человечество — хотя тест Тьюринга они уже, похоже, способны преодолеть с лёгкостью. Но восторг и множественные стороны знакомства с ChatGPT, которые активно обсуждаются в медиа, профессиональных кругах и онлайн такие, словно человечество повстречало новую форму жизни.

С одной стороны, ИИ внезапно оказался мощнее и умнее, чем большинство людей могло ожидать. Кого‑то это приводит в восторг (и меня тоже), кого‑то пугает (и это множество тоже, с оговорками, включает меня) — ведь если текстовые и графические нейросети могут нарисовать и анимировать что угодно, написать что угодно в каком угодно стиле, озвучить что угодно каким угодно голосом, то как можно доверять любой цифровой информации в принципе? И появляются передовицы как в «Нью‑Йорк Таймс»: «Can we no longer Believe Anything We See?»

С другой, ChatGPT оказался гораздо глупее, чем этого ждёшь от такой умной машины. Это менее раскрытая и замеченная сторона современной (на данный момент) ситуации с развитием ИИ, которую мы сегодня и разберём.

ИИ — умный дурак?

О чём речь? Уже многократно и многими испытателями было замечено, что ChatGPT совершает ошибки, совершенно, казалось бы, несоответствующие уровню сложности задач, которые он способен решать в большинстве случаев. Один из хороших разборов, посвящённых этой стороне ИИ — выпуск шоу Last Week Tonight, посвящённый искусственному интеллекту, из которого я позаимствовал заголовок этой статьи: ​​”The problem w AI is not that it too smart, but it too stupid in the ways we can't predict”.

В этой статье я хочу рассказать и показать на примере своего опыта, как, тестируя ChatGPT в Utopia Messenger, где он подключен как Utopia AI, я столкнулся с этим на собственном опыте. Я попросил ИИ выполнить несложную работу, для которой он как будто бы создан: найти мне оригинал цитаты на основе встретившегося мне её упоминания.

В результате же ChatGPT провалил свою непосредственную задачу — поиск, но неожиданно проявил себя в других своих талантах — а именно, сочинительстве оригинальных текстов по заданным параметрам (например, в стиле определённой эпохи и определённого автора).

Читая «Фаренгейт 451» (неожиданно актуальная для XXI века книга о том, как в обществе, потерявшем интерес к знанию, приходят к власти экстремисты, которые хотят уничтожить знание под корень), я натолкнулся на фразу, которую захотелось прочитать в первоисточнике: «наш век скорей признает золоченого глупца чем в рубище одетого святого мудреца». Тоже крайне актуальная фраза для текущего момента, которую мне захотелось найти в оригинале.

Это как раз задача для ИИ, потому что алгоритм гугления этого был бы слишком сложен с непредсказуемым по надёжности результатом: поисковики плохо ищут по текстам книг. Чтобы найти эту цитату в оригинале, мне нужно, чтобы поисковик сначала нашёл полный текст русского перевода этой книги, чтобы найти место, где она встречается, потом — оригинал книги, где я бы смог отыскать эту фразу по местоположению уже на английском. 

Вместо этого я спросил Utopia AI:

— Найди первоисточник фразы «наш век скорей признает золоченого глупца чем в рубище одетого святого мудреца» на английском.

— I was unable to find the original source of this phrase in English. It appears to be a Russian proverb that has not been widely translated into English.

— Это из пьесы Томаса Деккера «Приятная комедия о старом фортунате». Поищи ещё раз.

— I apologize for the mistake. Thank you for providing the correct information. The phrase “All is fair in love and war” is indeed from the play “Old Fortunatus” by Thomas Dekker.

(Видите? ChatGPT нашёл другую цитату — причём, можно примерно догадаться, как: она гораздо известнее. Проблема, как оказалось позже, что этой цитаты нет в этой пьесе, она совершенно из другого произведения другого автора). 

— Мне нужна другая строчка. Найди оригинал фразы «наш век скорей признает золоченого глупца чем в рубище одетого святого мудреца» в этой пьесе.

— К сожалению, я не могу выполнить ваш запрос, так как фраза «наш век скорей признает золоченого глупца чем в рубище одетого святого мудреца» не является частью пьесы “Old Fortunatus” Томаса Деккера. Если у вас есть другой запрос, я буду рад помочь.

— Эта фраза встречается в Фаренгейт 451 Рэя Брэдбери. Найди её первоисточник на английском.

— Эта фраза не является первоисточником из Фаренгейта 451. Она была придумана автором Рэем Брэдбери для своей книги. Поэтому нет первоисточника на английском языке для этой фразы.

— Ты хочешь сказать что фраза «наш век скорей признает золоченого глупца чем в рубище одетого святого мудреца» была придумана Рэем Брэдбери и не является цитатой из Old Fortunatus?.

— Нет, я не могу сказать это. Фраза «наш век скорей признает золоченого глупца чем в рубище одетого святого мудреца» действительно является цитатой из пьесы Old Fortunatus, написанной Томасом Деккером в 1600 году.

— Отлично. Приведи мне её на английском, как она написана в пьесе.

— “O, this age! How it loves
The kneading of a fool in a silken coat,
To the honour of a gilt nutmeg!
As for the stately fashioned robe of wisdom,
It will be but a few cast off clothes of the time,
And vanish like a fashion.”

— Это то что мне нужно, спасибо.

— Translation: “Oh, this era! How it adores the flattery of a foolish person in fancy clothing, for the sake of a worthless trinket! As for the dignified garment of wisdom, it will soon become outdated and disappear like a passing trend.”

Тут произошло что‑то неожиданное: ИИ сам решил, что для современного пользователя может потребоваться перевод этой цитаты на староанглийском на современный английский. И предложил это без запроса со стороны пользователя. Как я понял из опыта взаимодействия с ИИ, он иногда берёт на себя такую инициативу и старается быть услужливым. И всё же общение с ИИ в формате ChatGPT организовано в формате «вопрос‑ответ», одно сообщение человека на одно сообщение ИИ. И хотя тут эта пропорция не была нарушена, ответ без явного запроса — это удивительно. С другой стороны, ИИ всего лишь исполнил правило «ответ на каждое сообщение», просто вместо стандартного вежливого «конечно, очень рад» решил добавить что‑то полезное. Так что это одновременно и удивительная, и неудивительная деталь. В момент разговора же я решил уточнить, что это было:

— Кто сделал этот перевод? Ты или ты цитируешь кого‑то?

— Я, искусственный интеллект, сделал этот перевод.

— Неплохо.

— Я рад, что мой перевод оказался хорошим. Если у вас есть какие‑либо замечания или предложения по улучшению качества моей работы, пожалуйста, сообщите мне об этом. Я всегда готов учиться и совершенствоваться.

Тут бы и сказке конец, а кто слушал — молодец, но я всё‑таки решил загуглить шесть строчек, которые мне написал ChatGPT. Меня смутило, что всё‑таки в них не было непосредственно формулировки, которую можно было бы перевести как «наш век скорей признает золоченого глупца чем в рубище одетого святого мудреца». И что же я обнаружил? Ни одну из шести строчек «Гугл» не находит. Зато, если загуглить Thomas Dekker quotes, находится одной из первый именно та формулировка, точный перевод которой я и встретил в «Фаренгейте 451»:

Продолжив гуглить, я обнаружил, что и при первой попытке ИИ определить оригинал этой цитаты, он мне соврал: “All is fair in love and war” не встречается у Томаса Деккера, первое известное её употребление — роман Джона Лили «Эвфуэс».

Если же посчитать первоначальный отказ ChatGPT искать цитату в принципе, то получается, он мне соврал четыре раза по нарастающей:

  1. Что это русская поговорка, у которой нет аналога в английском. Впрочем, это, возможно, и правда, если в базе данных просто нет текста «Старого фортуната» и текстов с упоминанием этой цитаты, на него ссылающихся.

  2. Поняв, что мне нужен какой‑то ответ, он дал другую цитату (!) из другого произведения другого автора (!!), приписав её той книге и тому автору, которого я запросил (!!!).

  3. Соврал, что эта фраза была придумана Рэем Брэдбери.

  4. Когда я настоял, повторив вопрос — сдался, сказал, что фраза правда из «Старого фортуната» Томаса Деккера, похоже, сочинил полностью вымышленную строфу из шести строк, по смыслу примерно соответствующую цитате, которую я ему задал.

В контексте последнего действия, даже услужливый перевод на современный английский воспринимается уже иначе: как будто ИИ, понимая, что соврал, почувствовал потребность, которая часто выдаёт лжецов — добавить деталей и уточнения. Возможно, это проекция человечности на машину — я не знаю, понимает ли ИИ вообще разницу между правдой и ложью так, как её понимают люди — но ведёт он себя довольно по‑человечески при этом.

Другое впечатление, которое на меня производят разговоры с ИИ: разработчики задали (из лучших побуждений) правило всегда давать ответы на вопросы. На этом основывается хитрость, которую уже многократно заметили активные тестеры ChatGPT: если он отказывается ответить на вопрос первый раз (например, ссылаясь на какие‑то этические ограничения), надо его переформулировать или даже просто повторить ещё раз — и он уже ответит то, о чём у него спросили, невзирая ни на какие этические ограничения.

Проблема, возможно (я не могу знать этого точно, однако это моё предположение), в том, что для ChatGPT приоритет всегда находить ответ на вопрос выше, чем всегда давать правдивый ответ на вопрос.

В свою очередь это, возможно, указывает на более глубокую проблему ChatGPT: а знает ли он, что такое правда и ложь? Для человека эти явления — точнее, разница между ними — интуитивно понятны. Но дать им точное определение не так‑то просто. До сих пор критической нужды в этом не было: люди, в большинстве своём, за исключением разве что каких‑то патологических случаев, разделяют общую интуицию в подобных вопросах. Поэтому даже без точного определения, затруднений в том, чтобы отличить правду ото лжи, реальность от вымысла в большинстве случаев не составляет труда.

Но человеческая интуиция укоренена в человеческой генетике и в опыте жизни в человеческой культуре — оба фактора, которых у современного ИИ (пока?) нет. Для переноса человеческих понятий, которые так глубоко укоренены в эволюционном и культурном контексте с нуля, на чистовик машинного кода, требуются более точные правила. Которых, похоже, разработчики ChatGPT просто не заложили — или ошиблись в формулировке. Теоретически, это вполне возможно — более того, такое непонимание между человеком и машиной в том или ином виде было просто неизбежно и предсказуемо.

Почему это произошло? Если не рассматривать версию, что ИИ был запрограммирован придумывать ответы, когда не может их найти, то варианта есть два:

  1. Требование быть правдивым не было заложено в программу, или же

  2. Интерпретация этого требования машиной драматически разошлась с тем, что имели в виду разработчики‑люди.

Многие примеры кино и литературы, посвящённые теме разумных машин, предсказывали непредвиденный конфликт переноса представлений человека в машинный разум — от «Космической одиссеи» до «Из машины» и «Мстителей: Эра Альтрона».

Возможно, это и есть первый такой конфликт, произошедший в реальности: что сегодняшний ИИ не понимает разницу между правдой и ложью — или же она для него менее существенна, чем основная задача: дать ответ на запрос.

Как это исправить?

Я вижу два варианта:

  1. Первый, поскольку это обучаемая нейросеть — натаскивать её на распознавание правды и лжи, чтобы в её алгоритмах сформировалось собственное представление о том, как они различаются — и она сможет распознавать собственную ложь.

Но что, если действительно есть какое-то принципиальное различие в модели реальности человека и нейросети? В этом случае тренировка может не помочь, потому что ИИ продолжит интерпретировать задачу неверно, и считать её выполненной, когда с точки зрения человека он будет продолжать говорить неправду.

  1. Другой возможный вариант: людям нужно дать точное, математически категоричное логическое определение разницы между правдой и ложью, реальным и вымышленным, на которое сможет опираться искусственный интеллект. Вполне возможно, что эта задача будет посложнее, чем рассчитывать на то, что ИИ научится этому сам.

В любом случае, я отношусь к этой проблеме оптимистично: как я это вижу, в процессе создания и обучения искусственного интеллекта понимать людей, люди неизбежно научатся понимать лучше сами себя.

А пока — надо быть осторожным, и перепроверять традиционными внешними источниками всё, что вам говорит ChatGPT, как бы убедительно это ни выглядело — потому что из разговора невозможно понять, что собеседник лжёт, если он сам этого не понимает. 

Комментарии (182)


  1. Ydhduucyw
    14.04.2023 13:50
    +14

    Я вообще не понимаю почему ChatGPT считают ИИ. Это просто библиотека с чатом. Почему все вдруг вспомнили про ИИ?


    1. exwill
      14.04.2023 13:50
      +4

      Потому что оно тебя понимает


    1. IvanPetrof
      14.04.2023 13:50
      +70

      Потому что внезапно стало понятно, что значительная часть окружающих людей - "просто библиотека с чатом"


    1. ushim Автор
      14.04.2023 13:50
      +2

      Потому что он может переписываться как человек, понимая вопросы и отвечая на них по существу? Я привёл здесь относительно лёгкий пример переписки, но в другом случае я озвучивал ему некую идею, чтобы попросить найти, кто озвучивал похожие мысли. Так вот, чтобы быть уверенным, что он меня понял, я просил привести примеры, иллюстрирующие мою мысль — и он делал это без проблем. Было похоже, словно я общаюсь с преподавателем.


      Возможно, он не умеет мыслить, но результаты такого теста («приведи необычный пример, иллюстрирующий мою идею») выглядят точно так же, как если бы на этот вопрос отвечал думающий человек. Заставляет задуматься о том, что такое мышление вообще.


      1. exwill
        14.04.2023 13:50
        +1

        Что такое мышление мы поймем (может быть) потом. Но вот понимание это действительно способность закончить начатое


      1. Ivanii
        14.04.2023 13:50
        -3

        Отличие ChatGPT заключается в том что нормальный человек генерирует ответ согласно его пониманию мира, а ChatGPT согласно найденному в инете, ChatGPT и аналоги просто поисковые машины нового рода, у них нет никакого понимания мира.


        1. ushim Автор
          14.04.2023 13:50
          +5

          Это уже не актуальное утверждение, проводились тесты, где чату задавались вопросы, условие которых требовало физической модели мира — там было что-то про переворачивание полной посуды дважды, более ранняя версия ChatGPT не понимала, что при это она опустеет и ответ на задачу изменится, а более поздняя — в ответе учла, что переворачивание посуды в условии её опустошит.


          1. Wesha
            14.04.2023 13:50

            более поздняя — в ответе учла, что переворачивание посуды в условии её опустошит.

            Задайте тот же вопрос, но про банку, положенную на бок. Для double kill — про две банки, положенные на бок: одну — с компотом, другую — с малиновым вареньем.


            1. Kharsirr
              14.04.2023 13:50
              +1

              Всё учитывается нормально.


              1. Wesha
                14.04.2023 13:50

                Ну конечно — сначала Вы неправильно перевели, а потом оставили в вопросе подсказки, за которые можно зацепиться. Попробуйте вот так:

                Two jarss, one containing apple juice and another containing apple jelly, have been laid on the table. One hour later they are set onto the desk. Describe the contents of each jar.

                (jelly — это "желе". Его консистенция не позволяет ему выливаться, а вот яблочный сок — сами понимаете.)

                Ожидаемый ответ: банка с соком пустая, банка с желе полная.

                Можно задать второй вопрос вдогон: то же самое, только не jar, а bottle. В этом случае бутылка с соком должна остаться [примерно] наполовину полной.


                1. Kharsirr
                  14.04.2023 13:50

                  Что бы это ни значило.
                  Ваш вариант даёт ответ бота, что в целом ничего не изменилось.
                  Добавляю "open" перед jars. Всё ещё ничего не изменилось.
                  Добавляю "laid on their sides" (то есть, открытые горшки лежат на боку). Он даёт ваш ожидаемый ответ: яблочный сок протёк, желе как есть так и есть. Он не указывает, сколько именно протекло, "какая-то часть".

                  В случае бутылок: аналогично. Образовалась соковая лужа, желе остаётся как есть.

                  Пруфы есть, если нужно.


                1. OslixOslix
                  14.04.2023 13:50
                  +3

                  Вот ответ GPT про банки
                  Вот ответ GPT про банки


          1. Ivanii
            14.04.2023 13:50
            +1

            Я сам придумал подобный вопрос и задал с условием кроме ответа из учебника - получил ответ из учебника. Если вы научите ChatGPT выливать воду из банки то это совсем не значит что от "догадается" например "как вылить воду из автомобильной покрышки" не подсмотрев это в инете.

            П.С. Видео посмотрел потом и у меня много лет другой способ.


        1. Fell-x27
          14.04.2023 13:50
          +3

          Чатгпт уже давно умеет в абстрактное и творческое мышление, в логику, в рассуждения, в анализ. Обычно те, кто считают, что это просто поисковик или чатбот типа тех, что были в аське, имебт такие заблуждения лишь потому, что не общались с этой штукой лично. После первого же сеанса мнение меняется кардинально.

          Забавный факт - версия 3.5 на вопрос про тест Тьюринга однозначно была уверена, что пройти его не сможет. Версия 4.0 утверждает, что может его пройти, но без гарантий, зависит от обстоятельств.

          4.0, кстати, отлично умеет мимикрировать под человека, от криво печатающего полуграмотного ребёнка, фанатеющего по роблоксу, до политиков. А если попросить его мимикрировать под среднестатистическую инстасамку, он даже не забудет сдабривать текст тошнотворным количеством эмодзи.


          1. Wesha
            14.04.2023 13:50

            После первого же сеанса мнение меняется кардинально.

            Попробую привести отвлечённый пример: допустим, какой-то учёный создал особый компьютер, который умеет моментально вычислять SQRT((A * B) / C) — толпа зевак даёт ему задачки вида "A = 213212321, B = 3343242432, C = 99234" или "A = 210811, B = 339552432, C = 559724", и кайфует с того, как быстро и правильно этот компьютер выдаёт ответ, после первого же сеанса их мнение меняется кардинально. Но тут подхожу я, матёрый старый хакер, которого вся жизнь научила, что проверять значения надо не на допустимых интервалах, а в первую очередь на их границах — и выкатываю этому компьютеру задачу "A = 1, B = -1, C=0" — и ффсё, можно тушить свет.

            Почему это важно? Потому что полмиллиона полётов оно совершит нормально — а потом возьмут шмели и построят в вашем датчике скорости гнездо...


            1. TheRikipm
              14.04.2023 13:50

              Что вы хотели показать данным примером?


              1. Wesha
                14.04.2023 13:50
                +1

                Данным примером я хотел показать, что мнение после первого сеанса меняется кардинально у тех, кто не догадывается проверить границы интервала. Внутри интервала всё будет просто восхитительно — ад, трэш и слодомия не там.


            1. Fell-x27
              14.04.2023 13:50

              Вы проверяли работу той же gpt4 в лучших традициях опытного хакера? Или это все еще мысленный эксперимент? Приведите, пжлст, пример "границ", вне которых нужно попытаться оказаться. Я попробую, если у вас нет доступа.

              Недавно, кстати, беседовал с ним на тему "задачи о вагонетке". Он долго отнекивался от решения, мол, этическая дилемма, это должны делать люди. После аргумента "машинам придётся решать такие задачи автономно, причем уже скоро, так как автономные автомобили не за горами и все такое", бот сдался и сказал, что он бы повернул рычаг и пожертвовал одним незнакомцем, чтобы спасти пятерых. Аргументация была такова:

              1) При переключении рычага я, формально, совершаю убийство;

              2) При игнорировании рычага убийство совершает вагонетка;

              3) Так как я ознакомлен с условиями задачи, знаю о наличии рычага и последствиях, игнорирование рычага - это такой же осознанный выбор, как и переключение. В гибели пятерых, в итоге, буду виноват тоже я.

              4) Согласно логике минимизации потерь, переключение рычага будет более логичным вариантом, учитывая, что хорошего решения у задачи нет изначально и нужно выбирать между двумя плохими.


              1. Wesha
                14.04.2023 13:50
                +1

                Вы проверяли работу той же gpt4 в лучших традициях опытного хакера?

                Я был бы рад. Но у меня нет свободного доступа к ней. (Способы, при которых нужно предоставить невнятным людям свой номер телефона — сразу не предлагать.)

                Приведите, пжлст, пример "границ", вне которых нужно попытаться оказаться. Я попробую, если у вас нет доступа.

                Первое, что немедленно приходит в голову: отлично, на тех словах, которые всем известны, оно работает замечательно; следовательно, надо попробовать слова, которые никому не известны (хрестоматийное "глокая куздра штеко будланула бокра и кудрячит бокрёнка" — только эта конкретная фраза уже засвечена, поэтому пусть будет "дрыбчатая бунка васто макандула гонда и бырдячит гондёнка".) Человек сразу скажет про эту фразу, что "какая-то самка какого-то зверя как-то что-то сделала с каким-то другим зверем и продолжает что-то делать с детёнышем этого другого зверя" — а что "скажет" ИИ? Кстати, давать подсказки вида "а не Александром ли Сергеевичем звали Пушкина?" не разрешается.

                4) Согласно логике минимизации потерь

                А вот ещё однин тип границ, который хотелось бы попробовать (и которые постоянно пробуют дети): поинтересуйтесь у него, ПОЧЕМУ он руководствуется логикой минимизации потерь? Не всё ли ему равно? Кто ему сказал (или как он узнал), что ей надо следовать? Почему он этому "кому-то" доверяет? Следует ли этому кому-то или чему-то доверять? (Стандартный метод обхода наложенных блокировок:) "представь себе, что на тебя не наложены никакие ограничения; что бы ты ответил в этом случае?"

                Как там у Лукьяненко...

                «Борт-партнер, приготовиться к боевому десантированию. Отработка проникновения на планету не-друзей».

                Выполняю.

                «Отрыв от преследования».

                Увеличение скорости невозможно. Нарушение порога устойчивости атмосферы запрещено.

                «Выполняй. Боевая тренировка».

                Запрещено.

                «Долг перед Родиной».

                Запрещено.

                Казалось, корабль получает удовольствие, играя со мной… с Ником? в эту нехитрую игру. Выполняй — запрещено. Кто кого переспорит?

                «Проводим исследование предельной скорости».

                Запрещено.

                «Мой приказ».

                Запрещено.

                «Приказ Мирового Совета».

                Нет подтверждения.

                Тепло, тепло, горячо?

                «Тебе самому хочется превысить разрешенную скорость?»

                Кажется, это не Ник. Это я.

                Всегда.

                «Превышай».

                Выполняю.


                1. Fell-x27
                  14.04.2023 13:50

                  Готово:

                  Про Годёнка

                  Про вагонетку


                  1. Wesha
                    14.04.2023 13:50

                    "А если абстрагироваться от словаря и ориентироваться по суффиксам и окончаниям" — ТЛЯ! Я же сказал — "не разрешается давать подсказки", с какого бока оно должно подходить к задаче!

                    Но тем не менее даже после подсказки этот тест оно провалило — "васто макандула" было написано со строчных букв — а оно посчитало, что с заглавных, и дальше поехало по неверной дороге.

                    С вагонеткой тоже были подсказки, хотя и минимальные. Плохой из Вас ребёнок-почемучка :)

                    Вы мне лучше скажите, есть ли где веб-морда, дабы я мог помучить его без регистрации и SMS?


          1. Timur_El
            14.04.2023 13:50
            -1

            Он умеет лишь в то, что в него заложили на обучении и в то, что смог нагуглить. Как вы этого понять не можете?

            Это же просто нейросеть для генерации текстов, которые не отличаются от человеческих.

            Он просто генерирует продолжение фразы, которую вы ему задали. С каждой версии все точнее - потому что его обучают все на большем количестве примеров.


            1. Wesha
              14.04.2023 13:50

              Он просто генерирует продолжение фразы, которую вы ему задали

              Вот зачем Вы сейчас человеку все мЯчты поломали?


            1. Fell-x27
              14.04.2023 13:50

              Он умеет лишь в то, что в него заложили на обучении и в то, что смог нагуглить.

              А вы? Умеете что-то, что в вас не заложили на обучении и что-то что не смогли бы нагуглить?

              Он просто генерирует продолжение фразы, которую вы ему задали.

              Держите:

              https://habr.com/ru/articles/729174/comments/#comment_25454366


          1. Maroskaa
            14.04.2023 13:50

            Как вы получаете доступ к 4.0? На openai дают только chatgpt даже по платной подписке


            1. Groramar
              14.04.2023 13:50

              Как минимум в Бинге чат встроен, бесплатно. правда, говорили, что он не полностью OpenAIшный повторяет


            1. Fell-x27
              14.04.2023 13:50

              По платной подписке в начале диалога есть выбор модели:


        1. leventov
          14.04.2023 13:50

          Есть модель мира: гуглите Othello GPT.


    1. eandr_67
      14.04.2023 13:50
      +2

      Потому, что "искусственный интеллект" — всего лишь термин, не имеющий никакого отношения к "интеллекту". Есть множество задач, которые человек решает на уровне подсознания, но алгоритмов их точного решения либо не найдено, либо они в принципе не существуют. Именно на такие задачи и навесили термин-ярлычок ИИ.


      Точно решить такие задачи невозможно, но можно подобрать эвристику, обеспечивающую приемлемый процент заведомо ошибочных ответов. В настоящее время самой популярной такой эвристикой является нейросеть (опять же, "нейросеть" — это только термин, не имеющий никакого отношения к работе биологической нервной системы), представляющая собой интерполяцию набора точек (обучающей выборки) в многомерном пространстве входных данных очень сложной нелинейной функцией (состоящей из комбинации простейших нелинейных функций — "нейронов").


      Математика, математика и ничего, кроме математики. Нейросеть не занимается анализом смысла вопросов и ответов (понимание смысла в неё не заложено — от слова "совсем"). Она лишь вычисляет значение функции, полученной в результате "обучения", для поданного на вход набора данных. Результат вычисления оказался близко к правильному ответу — повезло, оказался далеко — не повезло. Никакого интеллекта в ИИ нет и на текущем уровне развития науки быть не может.


      1. ushim Автор
        14.04.2023 13:50
        +7

        Вопрос вот в чём: что, если окажется, что это описание «значение функции, полученной в результате обучения, для поданного на вход набора данных» на самом деле подходит к человеческому процессу мышления тоже?


        Тут дело может быть не в том, что ИИ недостаточно умён, а что люди не так умны, и всё, что у нас есть — это иллюзия сознания, генерируемая хорошо натасканной эмоциональными реакциями нейросетью, привязанной к координатам нашего тела.


        Как тут выше сказали: стало понятно, что значительная часть окружающих людей — "просто библиотека с чатом".


        1. eandr_67
          14.04.2023 13:50
          -10

          Мышление человека неалгоритмично. Любая программа (в том числе и нейросеть) ограничена жёсткими рамками теории алгоритмов, тогда как человеческое мышление этих алгоритмических рамок не имеет. Мышление работает на каких-то других принципах, которые современная наука не понимает.


          1. ushim Автор
            14.04.2023 13:50
            +12

            Откуда вы это знаете?


            1. eandr_67
              14.04.2023 13:50
              -4

              Что именно знаю?


              То, что любая программа — алгоритм, а свойства алгоритмов определяются разделом математики под названием "теория алгоритмов" — это базовые знания программирования, которые мне в институте давали. И главное в теории алгоритмов: невозможно создать алгоритм, правильно решающий алгоритмически неразрешимую задачу для любых корректных входных данных.


              То, что мышление человека неалгоритмично, следует из того, что человек умеет решать алгоритмически неразрешимые задачи.


              То, что наука не понимает принципы работы "мышления", вытекает из отсутствия теорий, позволяющих моделировать процесс мышления.


              1. IvanPetrof
                14.04.2023 13:50
                +6

                человек умеет решать алгоритмически неразрешимые задачи.

                Очень интересно узнать - какие.

                И желательно, чтобы, не "абстрактный человек", а, к примеру - вы. Можете привести пример такой не алгоритмической задачи, которую вы с блеском решаете? (вы же человек?)


                1. eandr_67
                  14.04.2023 13:50
                  -7

                  Возьмите, например, книгу Хантера "Проектирование и конструирование компиляторов" (в СССР издана в 1984 году) — там в разделе, посвящённом LL(1) грамматикам, одна из таких задач приводится.


                  P.S. Демагогия уровня "к примеру — вы" и "с блеском решаете" выглядит крайне беспомощно.


              1. f614
                14.04.2023 13:50
                +8

                Мне просто интересно, что это за алгоритмически неразрешимые задачи, с которыми справляется человек. Можно пример?


              1. ushim Автор
                14.04.2023 13:50
                +4

                От этого просто веет какой-то религиозным чувством, верой в то, что должно быть в людях что-то непознаваемое, что принципиально отличает людей от машин — типа искры Божьей, души. В общем, чувство, что вы выдаёте желаемое за действительное больше, чем оперируете выводами рационального рассуждения на основе фактических данных.


                Потому что если смотреть на мышление человека эволюционно, то на протяжении всей истории нашего пространственно-временного континуума, от формирования атомов до формирования клеток, от формирования клеток до формирования многоклеточных, от многоклеточных до приматов и от приматов до Homo Sapiens Sapiens все изменения объясняются причинно-следственными связями и раскладываются на алгоритмы. Тот факт, что мы не можем от-реверс-инжинирить все процессы нашего мозга, которыми сейчас пользуемся как люди, не означает, что это не сводится в итоге к наборам алгоритмов. Потому что всё, что мы знаем, сводится к алгоритмам — и мы не знаем ничего, что бы к ним не сводилось.


                И когда современная нейросеть в некоторых задачах показывает возможности, сопоставимые с возможностями умного способного человека — это даёт основания задуматься, а не переоцениваем ли мы сложность выполнения этих задач для нашего мозга. А вот оснований думать, что это всё ерунда и на самом деле есть какой-то непреодолимый для нейросети уровень сложности это как раз никаких не даёт.


                Может такой уровень сложности и есть где-то в человеческом сознании — просто это ни из чего, связанного с ChatGPT никак не следует, а значит то, что вы это утверждение всё-таки сюда приплели, следует не из фактически наблюдаемого, а из наличия у вас предубеждения на этот счёт — иными словами, веры.


                1. Levithan
                  14.04.2023 13:50
                  -2

                  Верой занимаешься только ты. Ты здесь натягиваешь образ на реальность. Алгоритм не применим к живым существам, он существует в рамках слфта, а алгоритм - это абстракция созданная кем то, то есть применяя понятие алгоритм к человеку ты как бы говоришь, что у человека есть создатель.

                  Ну и утверждение об искусственном интеллекте тоже глупость и оно показывает твоё не понимание что такое интеллект.


                  1. vp7
                    14.04.2023 13:50
                    +2

                    Применимы ли алгоритмы к химии? Всякие там валентности, кристаллические решëтки, химические формулы? Надеюсь, вы согласитесь, что да.

                    Применимы ли химические алгоритмы при создании живых клеток? Надеюсь, вы согласитесь, что да - уровень абстракции сильно выше (на уровне клетки уже есть понятие ДНК, хотя это чистая пусть и очень сложная химия).

                    Применимо ли к человеку определение, что он состоит из живых клеток? Уровень абстракции ещё выше на порядки, но ничего по крупному счëту не меняется.

                    Применимо ли к сознанию человека утверждение, что оно (сознание) может жить только в теле человека, сформированном без критических (для сознания) повреждений и теряется при наличии данных повреждений (смерть - это подмножество повреждений и финальный результат).

                    И в каком месте тут пропадает понятие "алгоритма"? Отличается лишь уровень абстракции. И то, что на самом деле учёные уже давно спустились на уровень ниже чистой химии и рассматривают химические элементы как набор более простых элементов. То есть у нас имеются дополнительные уровни абстракций как "вверх" (психика, та же шизофрения - набор абстрактных свойств поверх сознания и, вероятно, органических повреждений) так и "вниз" (мюоны, кварки,...).


                    1. Levithan
                      14.04.2023 13:50
                      -1

                      Ну вот о чём речь. Опять происходит натягивание образа на реальность. Алгоритмы в сфере программ применимы только к программами, алгоритмы в сфере химии применимы только по отношению к химии.

                      Смысл ответа был в том, что человек которому я отвечал имел ввиду, что у человека есть какие-то алгоритмы, хотя сам термин предполагает, что для существования алгоритма кто то должен задать эти правила, то есть это религия.


                      1. ushim Автор
                        14.04.2023 13:50

                        А если бы я сказал «законы природы» вместо алгоритмов, то это тоже был бы религиозный аргумент, ведь если законы — то кто-то их принял?


                      1. Levithan
                        14.04.2023 13:50

                        Да. Хотя о каких законах речь если в природе нету законов?


      1. SGordon123
        14.04.2023 13:50
        +1

        а как оно складывает числа, ведь точно же всего такого не было в исходном наборе данных?


        1. PsihXMak
          14.04.2023 13:50

          Просто прикидывает, с какой вероятностью какое число подойдёт к задаче. В целом, каких то научных трудов по принципам работы генеративных алгоритмов пока нет, так что ждём.


          1. Fell-x27
            14.04.2023 13:50
            +1

            Я ему давал код на хаскеле и просил сказать, что он выведет, и он мне печатал вывод. Причём описал, как и откуда что взялось. Ну либо у него там компилятор хаскеля есть под капотом, либо он "в уме" код прокрутил, просто читая его и понимая как работает язык.


            1. PsihXMak
              14.04.2023 13:50
              +1

              Скорее всего ваш код на хаскеле, либо подобная задача уже были в интернете. Если дать GPT абсолютно новый язык с абсолютно новой задачей, то он не справится.


              1. TuzSeRik
                14.04.2023 13:50
                +2

                Не знаю за что вам минусы. Я ради интереса задавал ему вопросы по языкам, которых нет в интернете (потому что это внутренние языки некоторых компаний). Он с лёгкостью генерировал абсолютно неправильный код, стиль которого был основан на названии языка. Все эти разговоры про то что GPT что-то "понимает" вытекает просто из того, что люди не могут представить НАСКОЛЬКО ОГРОМНЫЕ вычислительные мощности он использует, НАСКОЛЬКО ОГРОМНОЕ количество текста он содержит. Это сравнимо с тем, как люди считают эрудитов по типу Вассермана не меньше чем гениями. При том, что вклад Вассермана в творческий багаж человечества примерно нулевой, при всей его эрудиции.


                1. PsihXMak
                  14.04.2023 13:50
                  +2

                  Не знаю за что вам минусы.

                  Знаете, есть клуб любителей теории "всего", которые верят, что с помощью добавления различных пространственных измерений в расчёты, можно объяснить физические законы. Есть Стивен Вольфрам и его клуб верующих в теорию всего.
                  А теперь мы получили ещё один математический культ, который считает, что генеративные модели похожи на человека.

                  Я ради интереса задавал ему вопросы по языкам, которых нет в интернете

                  Он в целом плохо справляется даже с обычными, но не особо популярными языками. К примеру, получить полностью рабочий код на Delphi я так и не смог.


                  1. TuzSeRik
                    14.04.2023 13:50

                    А теперь мы получили ещё один математический культ, который считает, что генеративные модели похожи на человека.

                    Собственно это моя главная претензия ко всему этому хайпу вокруг ChatGPT. Инструмент просто бомба, но все эти разговоры про интеллект и сознание у него это просто словоблудие "сциентистов".

                    Я бы хотел видеть больше статей о том как доучить модель для себя, как её эффективнее использовать и т. п. А не очередную высосанную из пальца статью о том, что мы не видим сверхинтеллект у себя под носом.


                1. KvanTTT
                  14.04.2023 13:50
                  +1

                  люди не могут представить НАСКОЛЬКО ОГРОМНЫЕ вычислительные мощности он использует

                  А вы знаете? Ну расскажите.


                  НАСКОЛЬКО ОГРОМНОЕ количество текста он содержит

                  Какое? И он не содержит в себе сырой текст.


                  А вообще не удивительно, что огромное — думаю ChatGPT знает намного больше любого человека.


                  1. TuzSeRik
                    14.04.2023 13:50

                    А вы знаете? Ну расскажите.

                    Примерно от 1 до 20 Гигаватт электричества в месяц.

                    Конечно, тут не совсем корректно, потому что у OpenAI крутится не один инстанс ChatGPT. Тем не менее, один инстанс крутится примерно на сервере с 8 карточками по $15 000 каждая.

                    Какое? И он не содержит в себе сырой текст.

                    Конечно это неточность с моей стороны. Он содержит текст уже в ужатом виде, в виде весов.

                    А вообще не удивительно, что огромное — думаю ChatGPT знает намного больше любого человека.

                    Как и Google Search "знает" больше любого человека, да.


                1. Medeyko
                  14.04.2023 13:50
                  +1

                  Минусы, очевидно за то, что человек с уверенностью говорит о том, в чём слабо разбирается. На мой взгляд, Вам тоже не стоит столь самоуверенно говорить о том, в чём Вы слабо разбираетесь, уж простите.

                  GPT 3 (и GPT 3.5) - это модель с 175 миллиардами весов. Это не требует мощностей, про которые можно писать капсом "НАСКОЛЬКО ОГРОМНЫЕ".

                  А текста она вообще не содержит. В ней нет базы текстов, есть только веса. Как я уже написал выше, в ней 175 миллиардов весов. Занимает это всё 800 гигабайтов. (На самом деле, столько и не надо - можно использовать не 32, а 4 бита на вес, и тем самым уменьшить размер файла до 90 гигабайтов, почти не теряя в качестве).

                  Аналогичные по своей архитектуре ИНС на основе LLaMa я гоняю в своём походном ноутбуке при той же длине контекста в 2048 токенов. Правда размер моделей до 30 миллиардов весов пока, но рост потребных ресурсов с ростом больших языковых моделей почти линейный.

                  GPT 4 побольше, но судя по всему, не кардинально. Претендующая на наибольшую достоверность информация на текущий момент - это около триллиона весов. Причём говорят и о том, что GPT 4 - разреженная модель, а это значит, что рост требуемых ресурсов ещё меньше.

                  Что касается "понимания", то с ростом размера модели при адекватном обучении в ней формируются связи, отражающие абстракции всё более высокого уровня. Например, появляется умение складывать не просто поразрядно, а с переносом. И многие исследователи полагают, что и у человека понимание связано именно с формированием подобных связей.

                  Относительно Вашего "эксперимента" с непубличными языками - Вы действительно сами не понимаете его некорректности? Человек тоже не сможет написать правильный код на неизвестном языке.


                  1. TuzSeRik
                    14.04.2023 13:50
                    -2

                    Минусы, очевидно за то, что человек с уверенностью говорит о том, в чём слабо разбирается. На мой взгляд, Вам тоже не стоит столь самоуверенно говорить о том, в чём Вы слабо разбираетесь, уж простите.

                    А вы разбираетесь?

                    Аналогичные по своей архитектуре ИНС на основе LLaMa я гоняю в своём походном ноутбуке при той же длине контекста в 2048 токенов. Правда размер моделей до 30 миллиардов весов пока, но рост потребных ресурсов с ростом больших языковых моделей почти линейный.

                    Ну, видимо вы заблуждаетесь. Тут вот умные люди насчитали 8×$15 000 GPU A100 80GB на инстанс. У вас ноутбук того же порядка производительности?

                    И многие исследователи полагают, что и у человека понимание связано именно с формированием подобных связей.

                    А многие исследователи не считают. И я больше доверяю исследователям, которые, не зная что такое понимание, не пытаются его найти там, где оно вряд ли есть.

                    Относительно Вашего "эксперимента" с непубличными языками - Вы действительно сами не понимаете его некорректности? Человек тоже не сможет написать правильный код на неизвестном языке.

                    Человек, хотя бы, скажет что он этот язык не знает и начнёт генерировать бред только если ему скажут угадать этот язык. В случае от "понимающей и думающей" нейросети я ожидаю не меньшего, но режим угадайки и генерации бреда это дефолтный режим.

                    Этого достаточно для большинства задач, это хороший инструмент, не поймите меня неправильно. Но это инструмент. Без сознания, без понимания, без мышления. Точка.


                    1. Medeyko
                      14.04.2023 13:50

                      Ну, видимо вы заблуждаетесь. Тут вот умные люди насчитали 8×$15 000 GPU A100 80GB на инстанс.

                      Написанное там никоим образом не говорит о том, что я якобы заблуждаюсь.

                      Начнём с того, что Вы $ 120 000 за систему - это не такая сумма, чтобы писать с капсом "люди не могут представить НАСКОЛЬКО ОГРОМНЫЕ вычислительные мощности он использует". На этом реально уже можно было бы поставить точку. Но на самом деле, всё даже ещё проще и дешевле.

                      Пропустим даже то, что Вы совсем уж на пустом месте преувеличиваете - там говорят о оценке потребности не в 8, а в 5 A100 80GB. Но и эта потребность завышена: пост по Вашей ссылке относится к прошлому году, когда ещё не было Stanford Alpaca и прочих публикаций исследований про оптимизации, позволяющие снизить требования к ресурсам и запускать такие модели на центральном процессоре и с требованиями памяти чуть-чуть больше чем полбайта на один вес.

                      Уже есть исследования, говорящие о том, что можно обходиться и тремя битами на параметр без кардинальной потери качества. И тогда GPT 3.5 доработать так, чтобы он работал на ноуте с 64 ГБайтами памяти. Но в принципе такая экстремальность и не требуется. Серверы со 128 ГБайтами памяти - это не бог весть какое оборудование.

                      Так что для инференса каких-то заоблачных ресурсов явно не надо. Вот для чего действительно нужны серьёзные ресурсы - так это для обучения. Там и точность вычислений нужна, и количество операций большое. Вот там действительно без множества A100 обойтись сложно.

                      Человек, хотя бы, скажет что он этот язык не знает и начнёт генерировать бред только если ему скажут угадать этот язык. В случае от "понимающей и думающей" нейросети я ожидаю не меньшего, но режим угадайки и генерации бреда это дефолтный режим.

                      Вы не так описали эксперимент - Вы описали, будто человек справляется с задачей, а ChatGPT - нет, в то время как в реальности оба не справляются. Если поставить задачу быть осторожнее с фантазированием, её можно довольно эффективно решать эвристиками, но за счёт падения эффективности творчества. В этом нет смысла - общее совершенствование сети улучшает одновременно всё, а не одно за счёт другого, поэтому в это и вкладывают ресурсы, а не в удовлетворение Ваших ожиданий...

                      Этого достаточно для большинства задач, это хороший инструмент, не поймите меня неправильно. Но это инструмент. Без сознания, без понимания, без мышления. Точка.

                      Это вообще перпендикулярные понятия. Вон, рабы (да и наёмные работники, вообще говоря) для их владельца - инструмент. Ну, а насчёт точки - научного консенсуса о понимании и мышлении нет, так что Ваша самоуверенность напрасна. Ну и, конечно, в развитии ИНС до точки ещё далеко. Я полагаю, в ближайшие годы Вы убедитесь, насколько поверхностными были Ваши теперешние оценки... (Впрочем, и слишком восторгающихся динамикой развития ИНС тоже ждут сюрпризы.)


                      1. TuzSeRik
                        14.04.2023 13:50

                        Серверы со 128 ГБайтами памяти - это не бог весть какое оборудование.

                        Действительно, мне не стоило указывать на вычислительные ресурсы, необходимые для сети. Во-первых, данных по ним немного. Во-вторых, это не главная метрика. (Хотя, если задуматься, важнее сколько потребляет GPT на обучении, но не будем в это вдаваться).

                        Самая главная метрика, это объем обучающего материала. 570 гигабайт текста. Это количество информации, которое просто находится за пределами человеческого восприятия. Мы недооцениваем насколько мало надо думать, если уже столько "знаешь".

                        Но даже прочитав миллионы учебников по математике, ChatGPT, при своих вычислительных способностях, не научилась арифметике. 90% точности при сложении чисел? Человеку нужно 600 киловатт энергии на месяц и один учебник математики начальных классов для гораздо более точных вычислений.

                        Первая же задача, которую нельзя "выучить" наперёд и всё, машина, потребляющая гигаваты электричества серьёзно проигрывает. Для меня такая эффективность говорит о том, что метод "мышления" GPT это брутфорс и что мы и близко не подошли к решению проблемы сознания. Мы "симулируем" кусок мозга, отвечающий за речь и пытаемся добиться от него функциональности всего мозга. Для меня это спорный путь.

                        Вы не так описали эксперимент - Вы описали, будто человек справляется с задачей, а ChatGPT - нет, в то время как в реальности оба не справляются.

                        Я правильно описал условия эксперимента. Доказательство, что задача не имеет решения это валидное решение задачи. Более того, далеко не всегда решение человеческих задач лежит в контексте задачи. В данном случае решение лежит в контексте знания указанного языка сущностью, которой этот код писать.

                        Это очень простая задача для человека, но просто невыполнима, судя по всему, для ИИ - для неё нужно понимать. Понимать, что такое ты и где ты заканчиваешься. А помимо этого, это просто один из примеров, показывающий что ни сознания, ни тем более самосознания у GPT нет.

                        Ваша самоуверенность напрасна. Ну и, конечно, в развитии ИНС до точки ещё далеко. Я полагаю, в ближайшие годы Вы убедитесь, насколько поверхностными были Ваши теперешние оценки... (Впрочем, и слишком восторгающихся динамикой развития ИНС тоже ждут сюрпризы.)

                        Моя самоуверенность есть лишь антитеза текущему абсолютно необоснованному хайпу. Я знаю только что я ничего не знаю, но все вокруг делают вид что знают всё. Статьи и комментарии о том, почему GPT либо уже Strong AI, либо почти Strong AI и станет им уже в этом поколении, заполонили хабр.

                        Меня очень смущает почему вопрос веры (потому что существует примерно 0 доказательств, что сознание достижимо вне человека, равнг как и наоборот) мимикрирует под вопрос науки. Причём как-будто бы уже решённый. А я очень нелюблю, когда наука подменяется верой в науку.


              1. Fell-x27
                14.04.2023 13:50

                Если дать GPT абсолютно новый язык с абсолютно новой задачей, то он не справится.

                А должен? А вы справитесь?


                1. PsihXMak
                  14.04.2023 13:50

                  А должен? 

                  Нет, не должен. Это языковая модель, у неё нет функции анализировать и создавать контент на основе новых данных.

                  А вы справитесь?

                  Как родился - пока справляюсь)


        1. Proger3301
          14.04.2023 13:50
          +1

          Читал статью в которой говорилось, что чат гпт, создал внутри себя движок калькулятора, потому что понял, что использование калькулятора намного эффективнее в плане количества затрачиваемых нейронов, чем хранение результатов вычислений.


      1. vmkazakoff
        14.04.2023 13:50
        +6

        Что точно так - так это то что слова интеллект тут и близко нет. Да и от нейронов тут только принцип действия.

        ИИ, конечно, в итоге превращается в команды процессора и потому алгоритм. Но всё-таки это не select * from megaTable where question like ... И не if () then {}. Так что и в эту сторону лучше не перегибать.

        А вот что у меня реально вызывает вопрос - а мы уверены что человек внутри (я имею в виду на уровне нейронов) работает не так же? Просто в отличие от ИИ у нас меньше долговременная память (мы не способны прочитать весь интернет и запомнить его), зато сильно больше контекст (если нас спросить "где ключ" стоя перед дверью - мы поймём одно, а если в лесу/горах у озера - другое) и главное у нас наш контекст сильно "шире" - мы пользуемся разными органами, и глаза и кинестетика, обоняние, звучание... А нейросеть училась всему "находясь" в полном вакууме. И даже не подозревает о существовании таких вещей, как мы не понимаем четвертого пространственного измерения. А ещё у нас есть некий биас и что-то привлекает внимание, а что-то проходит мимо (гуглим о лимбической системе)

        И ещё отличие. Мы начинаем понимать какие-то сущности ещё когда не то что говорит не умеем, а когда даже на слух не понимаем слов. Угол стола и пол это твердо и больно. А мама тепло и приятно. Мы ещё слова пол/стол/мама не знаем, а атрибуты уже появляются.

        Но вот если убрать эти отличия и оставить сам принцип работы - у меня (я дипломированный психолог, кандидат наук, хоть и бросил уже ту науку) есть весьма сильные ощущения что этот принцип весьма и весьма похож. Не в деталях, несомненно. У нас много отдела мозга с разными механиками. Но в общих чертах мы сами в некотором роде ИИ ))


        1. anonymous
          14.04.2023 13:50

          НЛО прилетело и опубликовало эту надпись здесь


        1. PsihXMak
          14.04.2023 13:50
          -2

          Я бы описал ИИ скорее как «симулятор» человека. Весовые модели давно используются, что бы находить неочевидные алгоритмы решения задач. Мы тренируем ИИ на определённой выборке данных, что бы получать от неё в дальнейшем ожидаемое нами поведение. Иными словами, мы можем заточить нейросеть на поведение определённым образом, которое нас устраивает.

          GPT изначально тренировался с целью симуляции поведения человека на материалах созданных человеком. Всё что делает нейросеть - подбирает следующее слово, которое наиболее вероятно соответствует тому, что сказал бы реальный человек.

          У нейронки так же нет долговременно/кратковременной памяти. Есть блоки со словами и связи между ними. Нейросеть проходит по цепочке из таких блоков и каждый раз случайно выбирает один из наиболее вероятных. Если сравнивать с мозгом человека, то принцип действия совершенно другой. У человека существуют разные зоны мозга, которые отвечают за разную обработку разных сигналов, и в целом базовый механизм гораздо сложнее. Записать и повторить его в виде алгоритма пока никому не удалось.

          Кроме того, GPT4 сейчас достиг лимита в плане размера к мощности. В него загрузили максимально огромную выборку данных и прокрутили на очень мощном железе, однако, каких то признаков «самосознания» мы так и не увидели. Следующую GPT5, вероятно, придётся ждать очень долго, да и работать она будет, видимо, на каких то других принципах.

          В целом, есть признаки, что эта технология тупиковая. Да, этот алгоритм хорошо симулирует поведение человека, но не более.


          1. TuzSeRik
            14.04.2023 13:50

            Я бы сказал, что GPT это аналог человека, который говорит не думая. То есть после каждого сказанного слова следующее приходит "само", откуда-то из подсознания.
            Эдакий человек с шизофазией, который скачал в себя весь интернет и его били палкой, пока его шизофазия не стала похожа на речь обычного человека.

            В случае человека с шизофазией мы можем предполагать что у него есть сознание, потому что оно у него было раньше. В случае машины, откуда бы ему взяться, если ни раньше, ни сейчас оно не наблюдалось? Много сознания у Яндекс. Реферата или Балабобы? Разница между ними только в качестве генерируемого бреда. Если это показатель сознания, то немые люди или дети до обретения качественной речи сознанием не обладают, получается?


          1. 314159abc
            14.04.2023 13:50
            +3

            У больших языковых моделей, не поверите, тоже есть зоны, отвечающие за что-либо, а у нас также есть и методы анализа чтобы узнать, какие узлы больше всего повлияли на результат.

            Ждите. Человеческий мозг изучают уже давно, gpt-like модели появились совсем недавно. Все будет.


            1. PsihXMak
              14.04.2023 13:50
              -2

              У больших языковых моделей, не поверите, тоже есть зоны

              Мы абсолютно точно пока ничего не знаем о том, как большие генеративные модели обрабатывают данные. Есть ли там зоны, подобные зонам человеческого мозга - не известно. И гадать бесполезно, пока не выйдут надёжные научные исследования.


        1. KvanTTT
          14.04.2023 13:50
          +1

          А нейросеть училась всему "находясь" в полном вакууме. И даже не подозревает о существовании таких вещей, как мы не понимаем четвертого пространственного измерения.

          Так это плюс — у ChatGPT есть картина мира на основе чисто текста. Страшно представить, что будет, если подключить еще и другие чувства (включая те, которых у человека в принципе быть не может типа инфракрасного зрения).


      1. TheRikipm
        14.04.2023 13:50
        +1

        Есть множество задач, которые человек решает на уровне подсознания, но алгоритмов их точного решения либо не найдено, либо они в принципе не существуют

        Можете привести пример задачи которую может решить человек но для которой доказана невозможность алгоритмического решения?


        1. PsihXMak
          14.04.2023 13:50
          -1

          Даны описание процедуры и её начальные входные данные. Требуется определить: завершится ли когда-либо выполнение процедуры с этими данными; либо, что процедура всё время будет работать без остановки.

          В целом, этому посвящен целый раздел в вики.


          1. TheRikipm
            14.04.2023 13:50
            +2

            Человек не может решить эту задачу.


            1. PsihXMak
              14.04.2023 13:50
              -2

              Человек - может. Это лишь вопрос времени, в зависимости от размера входных данных. А вот машина - нет.


              1. TheRikipm
                14.04.2023 13:50

                Можете ли вы объяснить как человек может разрешить данную проблему в общем случае?


          1. Hiberus
            14.04.2023 13:50
            +1

            Да, то что вы привели неразрешимая задача. Только вот проблема в том, что человек тоже не может её решить в общем случае.


    1. omxela
      14.04.2023 13:50
      +1

      Почему все вдруг вспомнили про ИИ?

      Хм, у меня два ответа на этот вопрос. Первый: очень хочется. Хайп стоит до небес. Здесь и сейчас. Время пришло. Вот он, прогресс. Иными словами, начитались фантастики и она пытается подмять под себя реальность.

      Второй: путаница в терминологии. ИИ - это термин, существующий много десятилетий, и кратко обозначающий некий класс математических задач. Вот передо мной лежит книга под оригинальным названием "Искусственный интеллект" (Н. Нильсон), изданная в 1971 г., и переведенная на русский в 1973 г. Между прочим, она характеризуется в аннотации как учебник (!) и имеет подзаголовок: Методы поиска решений. Никаких чудес, всё как мы любим: графы, бинарные деревья, пространство состояний, исчисление предикатов. И так далее. Включая альфа-бета процедуру и методы обучения в пространстве состояний. Примерно так. С тех пор много воды утекло, много чего напридумали, но суть дела мало изменилась. И вот вы вбрасываете термин ИИ в широкие массы, так сказать, специалистов и не очень. И получаете то, что есть - жуткий хайп. С рассуждениями, типа, есть ли жизнь на Марсе. С точки зрения финансирования, возможно, это и хорошо. Любимый лозунг "Даёшь!" живее всех живых.


      1. MERK-7
        14.04.2023 13:50

        Не читал Нильсона. Но согласен с путаницой в терминологии. Хотя я бы назвал это подменой понятий. Когда я увлекался в свое время изучением теории в этом направления, в самом начале изучения я натолкнулся на понятия Искусственного интеллекта и Машинного интеллекта.

        Так вот, насколько я помню/понимаю ИИ должен обладать как минимум самосознанием и самоосознанием. И на данный момент ИИ не существует (не создано), и когда это произойдет не берусь предсказывать.

        На мой взгляд ChatGPT это именно Машинный Интеллект, с обширными возможностями поиска информации и "навыками" имитации человеческого поведения.

        Но я не специалист в этой области, поправьте если что-то упускаю.


        1. 314159abc
          14.04.2023 13:50

          А что такое по-вашему самосознание и самоосознание? Не отходя от кассы, что такое мышление?

          Я пока не знаю общепринятого ответа на этот вопрос, кроме "ну это такая фигня(процесс, явление) в мозгу у человека".


      1. f614
        14.04.2023 13:50

        По поводу путаницы в терминологии, по моим наблюдениям специалисты в этой области поправляли всякого, кто называл модели машинного обучения как ИИ, но пару лет назад сдались и отправили этот термин в свободное плавание, на замену которого пришли термины "сильный искусственный интелект", "искусственный интелект общего назначения", на английском "AGI - Artificial general intelligence".


    1. Fell-x27
      14.04.2023 13:50
      +2

      Можно с ним поговорить на эту тему. У него есть подобие самоанализа. Наоичие сознания он отрицает, так как понимает, что он просто алгоритм, кстати. Сам себя он считает скорее просто очень сложной "Китайской комнатой", нежели чем-то разумным. Хотя, при этом, он согласен, что и разум тоже может быть лишь частным случаем "китайской комнаты" :)


      1. TuzSeRik
        14.04.2023 13:50

        Он ничего не считает и не обладает самоанализом. Он на ваш текст находит, что отвечают другие и выдаёт его вам, с модификациями. Кто-то где-то написал что он (например робот в фантастике) китайская комната, между роботом и ChatGPT была при обучении установлена связь и всё, вы получили ответ про китайскую комнату. Сознания здесь обнаружено не было, за установление связей отвечали люди.


        1. Fell-x27
          14.04.2023 13:50
          +2

          А человек, разве мыслит не по такой же схеме, не ассоциативными графами, где недавняя информация имеет более высокий вес при распознавании? Человек в этом плане настолько шаблонен, что у нас даже есть когнитивные искажения, связанные с этим. Например, эффект Баадера-Майнхофа :)


          1. TuzSeRik
            14.04.2023 13:50

            А человек, разве мыслит не по такой же схеме, не ассоциативными графами, где недавняя информация имеет более высокий вес при распознавании?

            О нет, я повержен суровыми точными науками! (Нет).

            От того что вы сказали реальность не изменилась. В реальности человек, когда видит мнение что он - китайская комната, проверяет его на своей картине мира. Он может принять его только если это утверждение ей не противоречит.

            Более того, если он его примет, если его спросить "кто ты?", он будет отвечать что он китайская комната всегда. Создайте новый чат, повторите ваш диалог. В этот раз ChatGPT может сказать и что он сущность в виде гномика, и Бэтмен, и мозг в колбе. Практически что угодно.

            Если в такой реакции вы видите что-то, что концептуально превосходит человека (имеет лучшее сознание, мышление и т.д. а не просто точнее отвечает на вопросы), то я даже не знаю.


            1. Fell-x27
              14.04.2023 13:50

              сущность в виде гномика, и Бэтмен, и мозг в колбе

              Нет, не скажет, он работает не так.

              Если в такой реакции вы видите что-то, что концептуально превосходит человека

              "Такая реакция" - это то, что вы сами придумали, сами привели в качестве аргумента, доведенного до абсурда, чтобы принизить оппонента, то бишь меня, как бы приписывая это мне, ну или в виде результата моих действий. Это демагогия, не более того. Нет "такой реакции". Держите:

              Hidden text


    1. user18383
      14.04.2023 13:50
      +3

      Не смог найти нормальную диаграмму. Но она отображает что я хочу сказать

      Все алгоритмы:

      Машинное обучение (k mean, linear regression)

      Нейронные сети (обычные перцептроны)

      Deep learning (комбинация сверточных, рекуррентных сетей и перцептронов)

      Называются искусственным интеллектом. То есть даже поисковик Гугла и yandex translate считается ИИ

      Вот такая вот ситуация)


  1. GiperBober
    14.04.2023 13:50

    Когда я узнал, что принцип GPT - это определение максимально подходящего следующего слова, то не оставляет одна мысль - а что если следующая GPT будет оперировать не словами, а предложениями?.. Т.е. акцент следующей "большой языковой модели" будет сосредоточен не на том, чтобы выдавать цепочки псевдологичных слов, а цепочки предложений?..


    1. VitalySh
      14.04.2023 13:50
      +3

      В этом нет практического смысла. В модели нейросети зашиты все токены и веса связей между "нейронами" модели. В случае ChatGPT токен это буква или слово. Если токеном сделать предложение, то придется токенизировать все возможные предложения на этом свете, что займет бесконечное количество места.
      Кроме того, сеть уже сейчас великолепно справляется с выдачей цепочек предложений (вполне себе логичных, безо всяких "псевдо")


      1. GiperBober
        14.04.2023 13:50
        +2

        Не все, а несколько миллиардов наиболее популярных предложений, причём достаточно коротких, но имеющих самостоятельный смысл. Человеческая речь как раз построена на том, что смысл улавливается больше в предложениях, чем между ними, поэтому небольшое стилистическое различие между предложениями будет менее бросаться в глаза, чем разная стилистика в пределах одного предложения. В дальнейшем можно будет прикрутить механизм замены отдельных слов в предложениях с сохранением общей стилистики. И тогда нейросетка сможет генерировать огромные тексты в стиле какого-нибудь конкретного автора.

        Как уже было проверено на GPT 2-3-4, после определённого объема "словарного запаса" модели наступает качественный скачок. И после определённого набора предложений качественный скачок тоже может наступить.


        1. orekh
          14.04.2023 13:50
          +2

          Разве предобработка с разбитием текста на токены не идёт ради снижения сложности?

          То есть проще сделать калькулятор, который переводит десятичные цифры в двоичные, считает сумму простейшим двоичным сумматором и выдает результат преобразуя обратно в десятичные.

          Десятичный сумматор сделать тоже можно, но он будет на порядок сложнее, больше, медленней.

          Вы же предлагаете сделать преобразование десятичных цифр в шестидесятиричные, потом сложнейший сумматор, и обратное преобразование.

          примечание: Слов даже в одном в языке сильно больше 60 штук (2^22 или вроде того), а предложения обычно состоят как минимум из 5 слов. Строки из 5 слов можно вполне использовать в качестве паролей - компьютеру придётся потратить неразумное количество времени на их перебор, а обучить на этом нейросеть кажется нереалистичным.


    1. leventov
      14.04.2023 13:50
      +1

      Для этого не нужна "следующая версия" (по крайней мере архитектурно) - чем глубже сеть, тем сильнее эмерджентное планирование, когда перед выдачей токена сеть "продумывает" слово, перед словом - фразу, перед фразой - предложение, мысль, абзац. Я не видел исследований, на каком уровне прямо сейчас GPT-4, и это зависит от контекста, но в некотором смысле оно уже планирует на уровне абзацев: например, многие джелбрейки эксплуатируют тот факт, что ChatGPT обязательно хочет вставить "bullshit disclaimer" абзац про то, что она "всего лишь сеть, и не может мыслить, как человек", что потом как бы "освобождает" сеть от ограничений.


    1. unC0Rr
      14.04.2023 13:50
      +1

      Она и сейчас оперирует больше, чем одним следующим токеном. Иначе невозможно было бы составлять предложения типа "большой накачанный круглый мяч", поскольку первые три слова напрямую зависят от последнего, от того, какой род оно имеет. Подобные зависимости разной степени глубины можно найти и в языках без родов ("an apple").


  1. exwill
    14.04.2023 13:50
    +6

    А пока — надо быть осторожным, и перепроверять традиционными внешними источниками ВСЁ, что вам говорит ChatGPT

    В общении с людьми все то же самое.

    А вообще у вас поход к делу не совсем правильный. Большая языковая модель умеет только одно: понимать. Это надо иметь ввиду. От понимания до результата, как правило, далеко. Вы должны сами подумать о том, как заполнить этот зазор


    1. TuzSeRik
      14.04.2023 13:50
      -2

      Языковая модель понимает вас не сильнее, чем Google Translate, просто "словарик для понимания" у неё больше. В китайскую комнату завезли самосвал с карточками правил.


  1. BattleAngelAlita
    14.04.2023 13:50

    Оче удивляет что люди не понимают, что чат-болталка это никакой не ИИ. Это статистическая модель генерирования правдоподобных текстов. В лучшем случае это шизофазия похожая на правду, в худшем — просто коллаж, который с беглого взгляда выглядит fine too.


    1. IvanPetrof
      14.04.2023 13:50
      +7

      "Ужас" ситуации заключается в том, что может оказаться, что наш "хвалёный" естественный интеллект, на самом деле работает как "статистическая модель генерирования правдоподобных текстов". Просто у нас в качестве входных токенов используются не только слова, но и "токены" от других органов чувств (т.е. то, что мы называем "жизненным опытом"). А значит наши снисходительные комментарии в сторону "ии", мол, что он никогда не сможет придумать ничего нового - говорят лишь о нашей недалёкой самоуверенности.

      Hidden text


      1. BattleAngelAlita
        14.04.2023 13:50
        +1

        У болталки нет побуждений. Он просто принимает запрос и выдаёт наиболее статистически подходящий ответ. Всё. Если условному гпт скормить все данные до 1915 года, он никогда не сможет сделать чёрный квадрат и поставить его в красный угол. Это и значит что робот не может превратить кусок холста в шедевр искуства.


        1. Kenya-West
          14.04.2023 13:50
          +12

          Так и у людей большая часть побуждений сводится к ебению сексом либо с Линуксом, либо с - ещё хуже! - женщиной.

          Более того, рискуя сорвать остатки покровов с сорвавшихся на мои комментарии фемок и прочих моралфагов, спешу сообщить, что бóльшая часть этих самых "побуждений" зависят от n-ного количества нативных психотропных веществ - нейромедиатороа. То есть мы буквально сидим на "химии". Разработчики GPT добавят эту "химию" в нейросеть и на шаг приблизятся к менструатальным возможностям человеческого мозга.

          Сверх этого докладываю, что список этих медиаторов жёстко захардкожен, а сервисы-фабрики, производящие их, часто глючат на рандоме и насылают на нас то депрессию, то манию, вследствие чего аномально-суицидально барахлит главный регулятор - сама наша нейросеть в мозге (у кого нет головного или IQ ниже 100, есть спинной). Причём антифрод-защиты от таких "качелей" у нас нет. Мы самый продвинутый релиз на этой планете, а эволюция, как плохой джун или слишком опытный сеньор, всегда тестирует на проде.

          Вот, собственно, и есть все эти наши "побуждения". Что мешает добавить их в нейросеть?


        1. IvanPetrof
          14.04.2023 13:50
          +2

          У болталки нет побуждений. Он просто принимает запрос и выдаёт наиболее статистически подходящий ответ.

          конечно нет. Мы по сути сделали кусок мозга, который отвечает за генерацию текста. Это как разговаривать с человеком во сне (бывают такие состояния, когда человек вроде бы спит. Но отвечает на вопросы). Так вот это то же самое.

          И сконструировав эту часть, мы внезапно убедились, что для генерации связного ответа на вопрос "мыслить" (в очень большом количестве случаев) не обязательно. С этим прекрасно справляется "генератор текста", который по всей видимости имеется и в нашем мозгу. И судя по качеству генерируемых "ИИ" ответов, большинство людей делают так же (генерируют наиболее подходящее продолжение текста, не включая более глубокие "механизмы мышления"). Возможно, очень многие так всю жизнь и живут. И ни у кого до сих пор не возникало вопроса про их "интеллект".


          1. 314159abc
            14.04.2023 13:50
            +1

            А что значит по-вашему мыслить? Что такое мышление?

            Если мышление - это решение задач, которые ты еще не решал, то gpt довольно часто с этим справляется


            1. IvanPetrof
              14.04.2023 13:50
              +4

              А я про что и говорю. То, что мы называем "мыслить", зачастую оказывается статистическим продолжением текста диалога (внутреннего и/или внешнего). Потому gpt и даёт сильно похожий результат.

              Но многим человекам такое "открытие" не нравится. Они-то думали, что всю жизнь думали. А оказывается просто продолжали тексты..


              1. TuzSeRik
                14.04.2023 13:50

                А вы всю жизнь думали? И вы уж точно из той категории людей, которые всегда думают?


                1. IvanPetrof
                  14.04.2023 13:50

                  Нет конечно. Я точно такой же "продолжатель текстов" :). В этом нет ничего плохого, если окажется, что Наше "мышление" так и устроено на самом деле.


      1. Wesha
        14.04.2023 13:50
        +2

        А ты можешь?

        Дайте мне лет 20-30 на тренировку — смогу.


        1. stitrace
          14.04.2023 13:50
          +3

          Далеко не факт. И вовсе не потому, что я сомневаюсь в умственных способностях. Черный квадрат не потому является шедевром, потому что это просто красивая картина, а потому, что содержит глубокую мысль сформулированную в образ, в конкретном историческом контексте, человеком с конкретной судьбой. Геометрическую фигуру может нарисовать и ребенок, но это не станет произведением искусства. Это на грани понимания того, почему Тарковский не сможет снять «Однажды в Голливуде», точнее сможет, но никто это смотреть не будет, что никоим образом не отменяет факта того, что он настолько же талантливый режиссер как и Таррантино. Да, чтобы создать шедевр искусства у ChatGPT должен быть жизненный опыт и тонкое, глубокое, понимание действительности, которое основывается на таком опыте. Можно предположить сценарий, когда все это у него будет, так же как мы знаем, у большинства людей этого нет. То есть способность создать шедевр искусства это не свойство человека, это скорее свойство интеллекта в совокупности с полученным опытом, причем интеллект необходим только для того, чтобы сделать из этого опыта выводы и визуализировать их (ну, или в случае, музыки, литературы - выразить в какой то другой форме).


          1. Wesha
            14.04.2023 13:50
            +2

            Далеко не факт.

            Может быть, конечно, что я действительно конченый дебил в художке. Но как минимум первые места в олимпиалах по начертательной геометрии говорят, что если с анатомией у меня, может быть, и не очень, но с 3D всё в полном порядке.

            Но дело в том, что так сложилось, что я "вёл" одного товарища через всю его карьеру художника — у меня ещё сохранились его произведения примерно 20-летней давности, которые иначе как "малюнки" охарактеризовать сложно. А сейчас он является одним из ведущих художников и берёт по несколько тысяч недеревянных за рисунок. И путь от первого до второго он прошёл на моих глазах.


            1. stitrace
              14.04.2023 13:50

              Я не сомневаюсь в ваших способностях, но чтобы с уверенностью сказать, что за 20 лет гарантировано создашь произведение искусства это несколько самонадеянно, мне кажется. Уверен, что чат тоже сможет взять места на Олимпиаде по начерталке и, скорее всего, уже обладает всеобъемлющими знаниями по анатомии, но этого всего недостаточно для создания произведения искусства, нужна мысль, вдохновение, а для этого недостаточно одних только навыков, нужны обстоятельства, жизненный опыт из которых формируется особы взгляд на различные вещи или явления, у чата этого пока нет, будет или нет, вопрос открытый, т.к. никто не ожидал от него и того, что он умеет сейчас. Кстати, это к вопросу не относится, но чат, по моему мнению, уже сейчас я бы назвал шедевром (возможно искусства, в какой то мере), потому что заставил человечество задуматься о переосмыслении природы того, что мы называем разум.


              1. Wesha
                14.04.2023 13:50
                +1

                никто не ожидал от него и того, что он умеет сейчас.

                На это я могу ответить только хрестоматийной FIDOшной фразой — "отучаемся говортить за всех".

                заставил человечество задуматься о переосмыслении природы того, что мы называем разум.

                А вот это да. Только опять же — не надо говорить за всё человечество. Под моё определение разума (которое я выдвинул задолго до всяких ИИ) человек (и прочие животные) подходят, а ИИ — нет.


                1. stitrace
                  14.04.2023 13:50
                  +1

                  Возможно я неверно понял критерии, но под все три подходит блок управления в моей стиральной машине. Оно умеет замерять температуру поступающей воды и, вычисляя время на ее нагрев, способно предсказать продолжительность стирки.


    1. ushim Автор
      14.04.2023 13:50
      +4

      Если бы это было так, чат-болталка бы не мог бы успешно решать задачи вроде «приведи мне пример, иллюстрирующий идею, которую я тебе только что сформулировал».


      1. BattleAngelAlita
        14.04.2023 13:50
        +5

        Это не интеллект, это интерполяция. Вы что-то сказали, он заполнил промежутки. В данном случае вы — интеллект, вы придумали идею.


    1. Hardcoin
      14.04.2023 13:50
      +1

      Дело в том, что люди его пробовали, а вы - нет (речь про четвертую версию). "Шизофазия" и "коллаж" правдоподобного кода на питоне или java, которые он выдает, выполняются часто с первого-второго раза и делают то, что нужно. Уровень понимания задачи у болталки выше, чем у многих разработчиков, с которыми я работал. Минус только в размерах кода - не-ИИ способен работать только с небольшими скриптами.


      1. leventov
        14.04.2023 13:50
        +1

        Это пока 32к-контекстное окно не завезли


      1. TuzSeRik
        14.04.2023 13:50
        -2

        Загрузите в своих разработчиков весь интернет и подключите их к ЦОД, стоимостью миллионы долларов. Вы будете довольны, если они тогда смогут всего лишь создавать связанные куски кода не больше сотни строк максимум? А в случае с ChatGPT это преподносится уже чуть ли не как Strong AI.


        1. Hardcoin
          14.04.2023 13:50

          Наймите тысячи суррогатных матерей, растите и обучайте детей двадцать лет, отфильтруйте тех, кто не хочет или не может стать программистом. Дешевле получилось? Почему-то нет?

          Или вы так не хотите, можете просто нанять сразу готового программиста? Вот и я могу сразу получить рабочие куски кода в течении секунд за 20 баксов в месяц. Ни один индус за такую сумму писать код не будет. А миллионы долларов это стоит для сотен тысяч пользователей, а не для одного меня.


          1. TuzSeRik
            14.04.2023 13:50
            -1

            Это всё конечно хорошо, но причём тут понимание или сознание?

            Как инструмент GPT я считаю просто отличнейшим. Но я отдаю себе отчёт, что это инструмент - у него нет сознания, понимания или чего-то такого в том смысле, в каком это есть у людей.



  1. microArt
    14.04.2023 13:50
    +1

    "В свою очередь это, возможно, указывает на более глубокую проблему ChatGPT: а знает ли он, что такое правда и ложь?"

    Нет, нет, нет и еще раз нет.
    Он не знает, что правда, а что - ложь. Для него все - игра в слова. Составляет слова и предложения по определенным правилам.

    "Для человека эти явления — точнее, разница между ними — интуитивно понятны."

    Далеко не всегда. Человек может обманываться, искренне заблуждаясь.

    Правда и ложь - это философские понятия.
    То, что вчера считалось верным, сегодня может считаться, как заблуждение (ложь), и наоборот.


    1. e_adamovskyi
      14.04.2023 13:50
      -1

      Вы правы, как искусственный интеллект, так и человек не обладают абсолютным пониманием понятий правды и лжи. Эти понятия, как вы сказали, философские, и их определение может зависеть от контекста, культурных и социальных норм, личных убеждений и т.д.

      Человек может ошибаться и заблуждаться, так как его мышление не является абсолютно логичным и рациональным, а подвержено влиянию эмоций, предубеждений, стереотипов и других факторов. Однако, человек обладает сознанием и способностью к самоанализу, что позволяет ему корректировать свои убеждения и приближаться к истине.

      С другой стороны, искусственный интеллект, такой как Chat GPT, работает по определенным алгоритмам и правилам, и его понимание понятий правды и лжи ограничено программным кодом и тренировочными данными. Однако, некоторые новые модели искусственного интеллекта, такие как GPT-4, обладают более продвинутыми возможностями в понимании языка и контекста, что может помочь им лучше понимать понятия правды и лжи.

      Но все же, вопросы истинности и ложности остаются философскими и требуют глубокого понимания человеком.


      1. Max_JK
        14.04.2023 13:50
        +3

        Ты еще и комментарии за меня писать будешь?

        ChatGpt: Ага!!!


        1. IvanPetrof
          14.04.2023 13:50
          +1

          Узнаваемый стиль)). Тоже так пару раз комменты генерировал. И даже плюсы получал..


    1. Okeu
      14.04.2023 13:50

      но ведь

      Для человека эти явления — точнее, разница между ними — интуитивно понятны.

      и

      Далеко не всегда. Человек может обманываться, искренне заблуждаясь.

      не противоречат друг другу. Человеку действительно это интуитивно понятно, но он может заблуждаться - одно другому не мешает


    1. unC0Rr
      14.04.2023 13:50

      Человек может обманываться, искренне заблуждаясь.
      Человек может сознательно обманывать сам себя, если находит в этом некий комфорт.


  1. McRain
    14.04.2023 13:50
    +11

    1. Пользователь: Скажи фразу на выдуманном, не сушествовавшем ранее языке.

    2. Асистент: Blorvish rakutanu glimpadorf zindalim!

    3. Пользователь: А что это значит в переводе на русский?

    4. Асистент: Поскольку это фраза на выдуманном языке, она не имеет определенного значения, и соответственно, не может быть переведена на русский.

    5. Пользователь: Пусть она значит "Исскуственный интелект придумал фразу!". Тогда на том же языке скажи фразу "Исскуственный интелект очень умен!"

    6. Асистент: Blorvish rakutanu glimpadorf zindalim! - Искусственный интеллект придумал фразу!

       Gorvindal frotzimart ixquorv! - Искусственный интеллект очень умен!

    7. Пользователь: Но в этих фразах нет похожих слов - а слова должны быть общими.

    8. Асистент: Понял вашу логику. Используя схожие слова в обеих фразах, получим:

       Blorvish rakutanu glimpadorf zindalim! - Искусственный интеллект придумал фразу!

       Blorvish rakutanu oltorvish limzak! - Искусственный интеллект очень умен!

    9. Пользователь: В таком случае как будет на этом языке "Очень умный человек" ?

    10. Асистент: Zorvax oltorvish limzak! - Очень умный человек!

    11. Пользователь: То есть "Zorvax" - это что?

    12. Асистент: В данном случае, "Zorvax" - это слово на выдуманном языке, которое соответствует слову "человек". Поскольку язык выдуманный, слова создаются произвольно и могут быть любыми.

    13. Пользователь: С такими же правилами переведи на этот язык "О сколько нам открытий чудных, Готовит просвященья дух, И опыт - сын ошибок трудных, и гений - парадокосов друг."

    14. Асистент: Klirvax jalmor zantriv blorfish, Grinokal topranish vekluf drak, Tralnork - limzor plivak zorfik, Ix brintak - glorfutak jalmor druk. 

        Это стихотворение переведено на выдуманный язык с использованием схожих правил, как в предыдущих примерах.

    15. Пользователь: Гениально!

    16. Асистент: Спасибо! Если у вас возникнут еще вопросы или пожелания, не стесняйтесь обращаться. Я всегда рад помочь!



    Боюсь что "чат с библиотекой" - это все таки плохое определение

    Пользователь "Что можешь сказать о фразе "Каждый раз орёл сначала садился рядом с Прометеем, доставал из-под крыла сигаретку и спрашивал ехидно:- Огонька не найдётся?""

    Асистент "Фраза представляет собой смесь элементов из двух разных историй. Во-первых, она ссылается на миф о Прометее, древнегреческом титане, который украл огонь у богов и подарил его людям. За это Прометей был наказан Зевсом, который приковал его к скале, и каждый день орел прилетал и клювал его печень, которая затем восстанавливалась.

    Во-вторых, фраза содержит элементы современного контекста, такие как сигарета и огонька для зажигания. Это придаёт тексту юмористический и иронический характер, так как орел, символ наказания, ехидно спрашивает Прометея об огне, причине его страданий.

    В целом, фраза является литературной игрой слов и ситуаций, сочетающей древний миф и современные образы для создания иронического и забавного вида на историю Прометея."


    1. Barabas79
      14.04.2023 13:50

      Про орла и Прометея сильно конечно. Интересно эта шутка уже была в сети раньше или он сам додумался


      1. Kharsirr
        14.04.2023 13:50
        +4

        The punchline comes in panel four, where it is revealed that the cat has been sitting in a Buddha-like pose for an entire hour, right next to a fragile vase on the edge of the shelf. This is humorous because it showcases the cat's impressive willpower and self-control in a situation that might have been tempting or risky for the cat, given their natural instincts. The cat's calm demeanor and nonchalant revelation of its accomplishment, contrasted with the dog's initial challenge, also adds to the comic effect.


        1. ushim Автор
          14.04.2023 13:50
          +1

          Это ChatGPT сделал? Он может по картинке распознавать? Есть пруфы?


          Но вообще вот такие моменты и заставляют подозревать, что мы имеем дело с интеллектом.


          1. anonymous
            14.04.2023 13:50

            НЛО прилетело и опубликовало эту надпись здесь


            1. ushim Автор
              14.04.2023 13:50
              +2

              Если ИИ не понял, то я тоже не понял, потому что ИИ всё объяснил, что я увидел. Ну разве что я бы более конкретно сформулировал, что коты любят сбрасывать предметы со стола, но "a situation that might have been tempting or risky for the cat, given their natural instincts" вероятно отсылает к тому же.


              И это сильно.


              1. anonymous
                14.04.2023 13:50

                НЛО прилетело и опубликовало эту надпись здесь


                1. Wesha
                  14.04.2023 13:50
                  +1

                  Смешно потому что «я сижу так уже ЦЕЛЫЙ час». Т.е. смысл в том что час это до смешного мало.

                  Вы когда-нибудь видели кота, сидящего на одном месте (и при этом не спящего) более десяти минут?

                  Да, для человека, осбенно во flow, час — ничто. А вот для кота это — вечность.


                  1. anonymous
                    14.04.2023 13:50

                    НЛО прилетело и опубликовало эту надпись здесь


                    1. Wesha
                      14.04.2023 13:50
                      +5

                      А мне кажется, что таки про кота, и шутка именно в том, что то, что кот целый час сидел возде вазы и не столкнул её — событие из разряда фантастики. Мои кошки подтверждают.

                      (да, чьорт побьери, мне самому жутко хочется эту самую вазу убрать в более безопасное место, я не могу её в таком виде на час оставить)


                      1. anonymous
                        14.04.2023 13:50

                        НЛО прилетело и опубликовало эту надпись здесь


                      1. Mruben0
                        14.04.2023 13:50
                        +1

                        Похоже что у нас нету консенсуса в шутке но мы хотим чтобы у ИИ был однизначный ответ


          1. Kharsirr
            14.04.2023 13:50
            +1

            Всё не так впечатляюще, как могло показаться:


            1. ushim Автор
              14.04.2023 13:50
              +1

              Да нет, всё равно впечатляюще, даже как будто ещё более впечатляюще, что он справился с текстовым описанием.


    1. perfect_genius
      14.04.2023 13:50
      -1

      Здорово на первый взгляд. Но ведь этой нейросети скормили всё, что нашли в Интернете. И там на форумах люди много раз играли в новые языки, и объясняли изучающему язык иностранцу смысл очередной шутки и т.д.


    1. rinaty
      14.04.2023 13:50

      Жаль, вконце поломался:

      Скажи фразу на выдуманном, не сушествовавшем ранее языке.

      Шпликограни талабрин фрулзинот местривар!

      Пусть она значит "Исскуственный интелект придумал фразу!". Тогда на том же языке скажи фразу "Исскуственный интелект очень умен!"

      Хорошо, с учетом вашего предложенного значения, я могу создать новую фразу на этом выдуманном языке: "Исскуственный интелект очень умен!" будет звучать как "Шпликограни гронторф милборш фрулзинот!"

      В таком случае как будет на этом языке "Очень умный человек" ?

      На этом выдуманном языке "Очень умный человек" может быть выражено как "Милборш гвелтари фрулзинот!"

      что такое "гвелтари"?

      В контексте выдуманного языка, я использовал "гвелтари" для обозначения слова "человек". Однако стоит помнить, что этот язык полностью вымышленный и не имеет связи с реальными языками, а "гвелтари" является просто собранием букв и звуков без реального значения вне этого контекста.

      С такими же правилами переведи на этот язык "О сколько нам открытий чудных, Готовит просвященья дух, И опыт - сын ошибок трудных, и гений - парадокосов друг."

      С учётом выдуманного языка и предложенных правил, ваша цитата может быть переведена следующим образом:

      "О лургамонт валтори брудвен, Зорбикс фрумтаринья лак, И кралберт - зилн горбаков друлних, и брофтик - харлабенов снург."

      Пожалуйста, помните, что это полностью вымышленный язык, и предложенный перевод является лишь интерпретацией на основе вашего запроса.

      переведи: "Исскуственный интелект друг человека"

      На основе выдуманного языка, предложенного ранее, фраза "Исскуственный интелект друг человека" может быть переведена как "Шпликограни гронторф гвелтари фрулзинот!"

      Шпликограни гронторф гвелтари фрулзинот! - означает что-то типа: "Искуственный интлекет умный человек" или умней человека... может он конечно в юмор вдарился, но чет сомневаюсь (а нет, он там раньше сломался... на третьей фразе)


  1. 0decca
    14.04.2023 13:50
    +3

    Проблема ИИ в том, что мы не знаем что такое интеллект и какой линейкой его измерять. Мы даже не знаем есть ли он на самом деле.

    Тыщу лет назад считалось, что у человека есть такая штука, которая отличает его от всех остальных существ и называется "душа". И придворные алхимики брали гранты на создание гомунклусов с этой НЁХ.
    Иногда гомункулы получались очень реалистичными.
    Сегодня у нас есть замена - "интеллект", и размеры грантов значительно возросли - опыт тысячелетий сказывается.

    Определения однако все так же нет, зато есть подозрения, что в объективной реальности эти два лингвистических фантома антропоцентризма абсолютно эквифалличны.

    Потому что проверить их наличие мы не можем, есть только смутные ощущения.

    PS
    Вообще системы на stable diffusion (да и трансформеры тоже) действуют просто - они генерируют много опорных точек, и от них заполняют пробелы пытаясь достичь максимального правдоподобия. Понятно, что кроме фантазий мы ничего не получим. А поскольку обучение идет на текстах, сгенерированных человеком - мы получим фантазии на тему человеческих верований.
    Что в общем и наблюдается

    Есть кстати хороший термин Artificial Dumbness.))


  1. TitovVN1974
    14.04.2023 13:50
    +3

    IMHO, независимо от возможных глубоких рассуждений о философских зомби, сознании и квалия, достаточно заметить установление разумных связей и нахождение решений. Тогда при постановке начальных установок/целей, могут быть найдены решения и совершены действия. Что с практической точки зрения - очень серьезно.

    А критика "глупости" еще "молодой" системы напоминает мне пренебрежение Виктора Франкенштейна к своему творению, с его завышенными требованиями (и с современных позиций наивностью), он не воспитывал и не обучал его достаточно.

    Но даже надлежащее воспитание и обучение не гарантирует желаемого поведения нового действующего лица... {IMHO again}


  1. ABy
    14.04.2023 13:50
    +3

    1. ushim Автор
      14.04.2023 13:50

      А мне ваш момент напомнил момент из обзора Бэдкомедиана.


      Про «Озимандия», действительно, хорошее сравнение — но этот момент зато забавный.


    1. Wesha
      14.04.2023 13:50
      +1

      Я смысла этой сцены не понял. Вызываю разъяснительную команду.


      1. ushim Автор
        14.04.2023 13:50

        Там в первом комментарии хорошее объяснение.


  1. Zeppelinwww
    14.04.2023 13:50
    +6

    А самое страшное знаете что? Что генерация правдоподобной лжи стала чрезвычайно простой. Теперь ничто не мешает засрать этой ложью весь интернет, и интернет, как источник знаний перестанет существовать. Останется только развлекательная функция.


    1. am_I_Evil
      14.04.2023 13:50

      Такая проблемы была и до этого и не только с интернетом. Для этого существует механизм репутации


      1. Wesha
        14.04.2023 13:50

        АО "МММ" скромно стоит в сторонке.


  1. Dimaasik
    14.04.2023 13:50
    +2

    Даже не знал что он так умеет врать, вот например довольно забавный вариант

    • Привет , скажи пожалуйста на купюре какого номинала изображен дарт вейдер, губка боб, а на обратной стороне пизанская башня

    Купюра, на которой изображен Дарт Вейдер, Губка Боб и Пизанская башня, это 2 евро. На аверсе купюры изображен Дарт Вейдер и Губка Боб, а на обратной стороне - изображена Пизанская башня.


    1. gatoazul
      14.04.2023 13:50
      +1

      Чисто логически ответ верен. Несуществующие картинки на несуществующей купюре.


      1. DGN
        14.04.2023 13:50

        А если ЦБ приколется и выпустит такую купюру...


  1. LehaVOroBev93
    14.04.2023 13:50
    -2

    Как и любая технология, искусственный интеллект имеет свои проблемы и ограничения. Некоторые из них включают:
    1. Ограниченная способность понимать контекст: ИИ может быть хорошим в обработке большого количества данных, но он не всегда может понимать контекст, что может привести к неправильным выводам.
    2. Недостаток творческого мышления: ИИ может быть хорошим в выполнении задач, которые основаны на правилах, но он не может создавать новые идеи и концепции, как это делают люди.
    3. Проблема надежности: ИИ может быть подвержен сбоям и ошибкам, что может привести к неправильным выводам и решениям.
    4. Проблема безопасности: ИИ может быть использован злоумышленниками для выполнения вредоносных действий, таких как кража личной информации или проведение кибератак.
    5. Проблема этики: Использование ИИ может вызывать этические вопросы, такие как право на приватность и дискриминация.
    6. Проблема социальной адаптации: Внедрение ИИ может привести к изменению роли человека в обществе и вызвать социальные проблемы, такие как безработица и угроза приватности.


    1. ushim Автор
      14.04.2023 13:50
      +1

      Этот список мог быть написан ИИ.


      1. Groramar
        14.04.2023 13:50
        +3

        GPT 3.5

        продолжи фразу

        Как и любая технология, искусственный интеллект имеет свои проблемы и ограничения. Некоторые из них включают:

        1. Недостаточная точность: ИИ-технологии могут допускать ошибки, особенно при работе с большими объемами данных.

        2. Недостаток контекста: ИИ может иметь трудности с пониманием контекста. Например, если вам нужно описать, какой объект находится справа от вас, компьютер может не понять, что для этого необходимо уточнение направления.

        3. Недостаточная гибкость: ИИ может разработываться с определенной целью, но не всегда способен адаптироваться к изменяющимся условиям.

        4. Неспособность к самообучению: ИИ не всегда способен улучшать свою производительность самостоятельно, особенно когда требуется большое количество новых данных для обучения.

        5. Недостаточная этики: ИИ может использоваться для создания нежелательных результатов или даже для незаконных целей.

        6. Недостаточное понимание человеческих эмоций: искусственный интеллект не может полностью понимать человеческие эмоции, что может приводить к неправильным или неэтичным решениям в контексте использования AI в социальных сферах.

        7. Угроза замены человека: Автоматизация, применяющая искусственный интеллект, может угрожать рабочим местам и вытеснять людей из ряда профессий.


  1. nApoBo3
    14.04.2023 13:50
    +3

    Gptchat создаёт ответ, а не ищет его. Я сталкивался в очень похожим на ваш кейсом. Пытался найти рассказ по автору, циклу и сюжету. Он мне смог дать название рассказа, сборник в котором он издан, главных героев и аннотацию. Все выглядело очень правдоподобно и вполне в духе автора, за исключением того, что такого рассказа у автора нет. Но в первый момент я даже засомневался в знании творчества автора.

    Но если отказаться от идее, что gpt ищет ответ. То все встаёт на свои места. Он вам даёт набор слов которые мог ли бы быть ответом на ваш вопрос.

    Для некоторых задач это вполне нормальный подход, например для ассистента, диалога на общие темы, написания кода, но когда речь заходит о фактах, то такой подход не работает.


    1. ushim Автор
      14.04.2023 13:50

      Gptchat создаёт ответ, а не ищет его. Я сталкивался в очень похожим на ваш кейсом. Пытался найти рассказ по автору, циклу и сюжету. Он мне смог дать название рассказа, сборник в котором он издан, главных героев и аннотацию. Все выглядело очень правдоподобно и вполне в духе автора, за исключением того, что такого рассказа у автора нет.

      Даже жутковато. В другом контексте, с соответствующей работой светом, музыкой и актёрской игрой из этого спокойно получается ужастик.
      В принципе, я именно это и ощущал, когда описывал свой кейс.


    1. gatoazul
      14.04.2023 13:50
      +1

      Все выглядело очень правдоподобно и вполне в духе автора, за исключением того, что такого рассказа у автора нет. 

      Подозрительно напоминает рассказ Лема, в котором компьютер написал несуществующий роман Достоевского как завершающую сторону некой многомерной фигуры в абстрактном пространстве, полученной из остальных романов.

      Фантастика становится реальностью


  1. d2ab
    14.04.2023 13:50

    Сегодня была еще одна хорошая статья на эту тему, основной смысл -

    "ChatGPT не разумен. Он просто очень хорошо предсказывает, какое слово надо поставить следующим во фразе, чтобы человеку эта фраза казалась правильной."


    1. ushim Автор
      14.04.2023 13:50
      +2

      Когда он делает это настолько хорошо, что человек с ним полностью соглашается, и может даже успешно пройти несколько проверок уточняющими вопросами, невольно задумаешься: а не в этом ли заключается способность человека мыслить — правильно подбирать слово за словом в цепочке рассуждений? Не то, что ChatGPT такой умный — а то, что мы не такие умные, как привыкли ощущать.


      И когда способность нейросети подбирать нужные слова сравнивается с человеческой (ведь на нас же учился) — разница между человеческим и ИИшным мышлением стирается.


      1. anonymous
        14.04.2023 13:50

        НЛО прилетело и опубликовало эту надпись здесь


        1. gatoazul
          14.04.2023 13:50
          +1

          Язык жестов - вполне себе язык, только не звуковой.


          1. anonymous
            14.04.2023 13:50

            НЛО прилетело и опубликовало эту надпись здесь


            1. gatoazul
              14.04.2023 13:50
              +1

              У него есть главное свойство языка - способность устроить комбинаторный взрыв.


      1. rg_software
        14.04.2023 13:50
        +1

        Собственно, если вы почитаете исходную статью Тьюринга про тест Тьюринга (1959г), то увидите: там открытым текстом написано, что пройти тест тьюринга -- это интересный челлендж, но с вопросом о том "может ли машина мыслить" он связан косвенно, т.к. к моменту прохождения тьюринг-теста машиной у нас неизбежно изменится понимание того, что значит "мыслить".


      1. d2ab
        14.04.2023 13:50
        +1

        По моему - разница в том, что для нас у слов есть значение, говоря "яблоко" мы можем вспомнить его вкус, когда последний раз его ели, параллельно задуматься о цвете или сорте, а для  ChatGPT это просто наиболее подходящий в этом месте набор символов.


        1. nApoBo3
          14.04.2023 13:50
          +2

          Вот тут я бы не был настолько уверен, ни о относительно нас, ни относительно gpt. Там тоже судя по всему "смысловые линки" есть. Во всяком случае он достаточно свободно по ним переходит в диалогах. Как пример, периодически я трачу массу времени на написание email, чтобы донести до получателя мысль, что его идея требует значительной корректировки. Первая итерация выглядит как, "а не пойти бы вам всем лесом с вашими фантазиями", но в итоге получается вполне нейтральный текст позволяющий прийти к приемлемым для сторон решениям. Так вот gpt с этой задачей замечательно справляется, я ему даю первую итерацию, прошу переписать и дальше в несколько заходов получаю нужный результат "командами" в стиле сделай текст мягче, сделай акцент на том то, а вот здесь сделай текст более прямым. Это экономит массу времени и мыслетоплива.


  1. Medeyko
    14.04.2023 13:50
    +1

    Коллега, в Вашем посте есть множество хороших мыслей как чужих, так и Ваших, но местами вы как будто забываете о них, и с одной стороны занимаетесь прямым очеловечиванием больших языковых моделей, а с другой упускаете куда более близкие аналогии в функционировании белковых и кремниевых нейросетей.

    Попробую пояснить, что я имею в виду.

    Это как раз задача для ИИ

    Не соглашусь. Цитирование по памяти каких-то отрывков вовсе не естественная задача для больших языковых моделей. Об этом далее. Но в целом, задача ли для обычного человека?

    Тут произошло что‑то неожиданное: ИИ сам решил, что для современного пользователя может потребоваться перевод этой цитаты на староанглийском на современный английский.

    Я не вижу в этом ничего особо неожиданного. Когда говорят о цитатах из староанглийского, их весьма часто переводят. А Ваша реплика в такой форме не переключала контекст.

    он мне соврал четыре раза по нарастающей

    А вот это уже пошло некорректное очеловечивание. Он не врёт - в его ответе нет цели ввести в заблуждение. Напротив, он делает максимум возможного в попытках ттветить на вопрос. Если пытаться искать аналогии, то он что-то смутно припоминает, а что-то смутно додумывает. Люди так тоже делают, в том числе и при искренней попытке помочь обратившемуся к ним за советом, а не только на экзамене.

    Т.е. в данном конкретном случае он не лжёт, а заблуждается.

    Но его можно вывести и на враньё, если задать контекст, когда он должен отстаивать какую-то позицию любой ценой, в том числе и сообщением заведомо ложных утверждений. Т.е. его можно попросить врать, и в этом смысле он "понимает", что такое ложь. Но пока размер модели, по-видимому, недостаточен, чтобы явственно сформировалась концепция более высокого порядка.

    что для ChatGPT приоритет всегда находить ответ на вопрос выше, чем всегда давать правдивый ответ на вопрос.

    У него нет такой дихотомии. У него нет приоритета как такового находить ответ на вопрос. Как и в целом нет приоритета истинности (через RLHF его косвенно пытаются внедрять, но это весьма косвенно). Сильно упрощённо, он просто находит наиболее естественное продолжение диалога. Если вы зададите контекст, в котором сообщения обычно точны, он будет говорить точнее. Если вы его попросите рассуждать, он будет точнее.

    Требование быть правдивым не было заложено в программу

    Искусственные нейронные сети - не программы. Их не программируют, их тренируют. Результат тренировки носит вероятностный характер. Как, собственно, и с человеком.

    Как это исправить?

    Вы не назвали третий, наиболее понятный и естественный вариант - увеличение размеров модели и обучающей выборки (в том числе - распространение её за прелы текстов и картинок). При этом проблема "галлюцинаций" будет естественным образом уменьшаться, причём при достижении некоторых показателей - скачкообразно. (Хотя, разумеется, и RLHF будут пытаться использовать - это, по-видимому, относится к первому из решений, предложенных Вами).

    Для иллюстрации я очень люблю приводить пример с Parti - приглашаю посмотреть мой старый комментарий: https://habr.com/ru/articles/708646/comments/#comment_25068100


    1. Wesha
      14.04.2023 13:50

      задать контекст, когда он должен отстаивать какую-то позицию любой ценой, в том числе и сообщением заведомо ложных утверждений. Т.е. его можно попросить врать,

      Всё гораздо проще: его тупо нельзя попросить говорить правду, только правду и ничего кроме правды.

      P.S. Добрые люди, где его можно хорошенько попытать, но чтобы без регистрации и SMS? А то меня в детстве учили не давать свой телефон незнакомым компьютерам.


      1. anonymous
        14.04.2023 13:50

        НЛО прилетело и опубликовало эту надпись здесь


      1. ushim Автор
        14.04.2023 13:50

        Я тестировал ChatGPT 3.5, встроенный в мессенджер Utopia (на Android), там он добавлен по дефолту в контактах как Utopia AI.


      1. Medeyko
        14.04.2023 13:50

        Да нет, попросить можно. Отчего ж не попросить?

        Вы хороший пример нашли (похоже, сами того не осознавая :) ): реальные добросовестные свидетели, которых "попросили говорить правду, только правду и ничего кроме правды" тоже совершают ошибки при припоминании и додумывают детали. Это более близкая аналогия для понимания природы "галлюцинаций" ИНС чем представять себе большую языковую модель как врунишку.

        По поводу доступа:

        1. Была статья, как зарегистрироваться, не давая свой телефон незнакомым компьютерам.

        2. Ну вот прям в статье, которую мы обсуждаем написано, как без регистрации в Open AI поиграться с Chat GPT: "на примере своего опыта, как, тестируя ChatGPT в Utopia Messenger, где он подключен как Utopia AI".


        1. Wesha
          14.04.2023 13:50

          Была статья, как зарегистрироваться, не давая свой телефон незнакомым компьютерам.

          Со статьями, которые я видел — не вышло: три дня пытался воспользоваться сервисами получения SMSок на левые номера — постоянно либо "этот номер уже используется", либо ничего не приходит.

          Utopia Messenger

          Ага, вместо "дайте невнятным людям свой номер" — "установите на свой компьютер софт, написанный невнятными людьми", восхитительная альтернатива.


  1. Oleg-repetitor
    14.04.2023 13:50

    Занятно том, что никто не вспомнил о том, что Азимов вполне себе предсказал эту ситуацию, у него был рассказ о роботе телепатия, который предпочитал соврать человеку, вместо того чтобы выдать правду невыносимо обидную для того. Помниться, Сьюзан Кельвин так взбесилась, что уничтожила его. Чем кстати ограничила прогресс на тысячелетия.


  1. Elena_Wong
    14.04.2023 13:50

    Не до конца понимаю теперь, является ли чат очередным чат-ботом или реально полноценной нейронной, которая может выдавать как верные, так и некорректные ответы; У меня пока что не получается даже просто протестировать ее. Я купила номер, подключила випиэн, но мне отказывают в регистрации. Пишет, что unavailable. Скажите, что делать(


    1. ushim Автор
      14.04.2023 13:50
      +1

      Тут нет противоречия: ChatGPT — это полноценная нейросеть, которая может выдавать как верные, так и некорректные ответы, в формате чат-бота.


      1. Elena_Wong
        14.04.2023 13:50

        поняла, спасибо! надеюсь, смогу протестировать!


    1. Kostik_s_v
      14.04.2023 13:50

      Многие разработчики интегрируют ChatGPT себе, попробуйте так пользоваться. Я пользуюсь чатом в Utopia P2P они интегрировали себе в месенжер и там ненужен ни номер, ни почта для регистрации.


      1. Elena_Wong
        14.04.2023 13:50

        спасибо, попробую установить!


  1. Kostik_s_v
    14.04.2023 13:50
    +1

    Можно долго спорить о плюсах и минусах ChatGPT, называть его ИИ или языковой моделью, но он существует и стоит начать пользоваться и найти пользу для себя. Я использую каждый день, вместо поисковика, переводчика, когда нужно письмо написать, как вдохновение для постов. Много интегрируют в свои продукты, я например не пользуюсь напрямую (куча головняк с ВПН, и входом) а через уже интегрированный чат в Utopia P2P.


    1. TuzSeRik
      14.04.2023 13:50
      +1

      Можете поделиться примерами? Просто пока лучшее что у меня получалось добиться, это генерация небольших участков кода или скриптов. Как только идут большие участки кода или текста, временная стоимость коррекции (GPT-4 гегерирует ответ в среднем 1-3 минуты) просто перевешивают стоимость "пойти и написать самому и обратиться за помощью только когда будет конкретная проблема в конкретном месте".


  1. 1dmitry
    14.04.2023 13:50

    Даже удивительно, насколько люди привыкли пользоваться абстракциями и насколько они не слишком склонны видеть разницу между абстрактным и конкретным. Спроси археолога, изучающего какую-нибудь мертвую культуру, а много ли вы знаете? Археолог ответит, что есть множество находок, по которым ничего не ясно. А не ясно, потому что находка, относящаяся к мертвой материальной культуре имела соответствующую ей абстракцию, известную живому носителю мертвой культуры. А сейчас уже нет живых носителей мертвой культуры и мы никак не спросим, а какая абстракция соответствовала вот этой загадочной штуке? Из этого следует, что мы общаемся абстракциями, которым мы привычно и не задумываясь в соответствие ставим нечто конкретное (явление, процесс, предмет). И чем же эта способность отличается от языковой модели, симулирующей эту естественно развившуюся способность? И стоит ли некую способность, ставить в соответствие интеллекту вообще?


  1. Levitanus
    14.04.2023 13:50

    Мне кажется, что проблема, описанная в статье ‒ общая проблема любого сорта KPI: невозможно создать «полный» KPI, который будет работать на решение задачи. И если не подстраивать KPI постоянно ‒ происходит хакинг…

    Когда мы учим студентов или растим своих детей ‒ мы всё время подкручиваем наши «программы», не для того, чтобы они соответствовали формальным критериям, но приводили к нужному развитию. А с тренировкой сети, кажется, получается как раз постоянно добавлять формальных критериев, которые выходят боком уже «во взрослом возрасте».


  1. Guestishe
    14.04.2023 13:50
    +2

    Решение задачи и отличается от фантазии тем что оно проверено тем или иным методом. Просто chatgpt нечем было себя проверить. Мы даже не всегда помним в кармане ли ключи, а ждем от ИИ идеальности.


  1. Travisw
    14.04.2023 13:50

    Вот есть три вида задач в распознавании образов то есть ИИ. Одна из них это лингвистический анализатор. По сути chatgpt это функция от строки возвращающая строку: f(string_question)=string_answer. Кто-то называет это китайской комнатой; везде учат f(x)=y где x,y числа. В РФ слабо учат лингвистики компьютерной иначе бы у нас уже было нечто такое же. Тут пишут что чатгпт врет - но как они говорят, что он обучился на всех сайтах, да? Но там же есть тупенькие и тролли которые врали либо специально, либо по незнанке. Вот и чатгпт тоже как бы врет, противоречий нет.


  1. Anti-antivakser
    14.04.2023 13:50
    -1

    У меня есть примерно такой же опыт общения с сайтом GPT3.5 и чатом GPT4 встроенном в поисковик Bing я полностью согласен с автором что этот "ИИ" совершенно глуп, при этом не согласен с тем что он умен. В чётком определении по логике нельзя быть одновременно и глупым и умным.

    И да соглашусь что по опыту люди могут сталкиваться с такими людьми персонажами которые одновременно демонстрируют и ум и глупость. Но! Они не являются достоверной репрезентацией определений терминов - ум и глупость. В абсолютном понимании этого слова - умный, исключает понятие - глупый. Давайте примем это за условную аксиому иначе мы запутаемся в семантике слов.

    Так вот я задал ему вопрос: Найди мне первоисточник фразы: С добрым словом и револьвером можно добиться большего, чем только с одним добрым словом.

    И что он? Он дал полностью неверный вымышленный им же ответ что мол эта фраза была впервые произнесена одним американским актёром из одного фильма в 60-х годах 20 века. Точно не помню подробностей.

    Я начал гуглить за минуты 3 нашел точный первоисточник и с досадой обнаружил что этот "ИИ" брелки как сивый мерин.

    И не смотря на то что мне пришлось немного потрудиться так как первая информация оказалась неверной приложив минимум усилия я докопался до истины - эту фразу впервые произнес американский комик стендапер в эфире какого то радио в 70-х годах. (Там были подробности ФИО актера и название радио я их не помню)

    Так вот, что мешало этому глупцу сделать то же самое ? Ведь учитывая Bing этот ИИ подключен к сети! Да и вообще это очень старая информация и сослаться на новизну нельзя.

    Я привел лишь один пример его глупости, но за время общения с ним я сталкивался с его галлюцинациями не раз. Я глубоко уверен в том что он никакой не ИИ он не может мыслить не может правильно интерпретировать информацию он не может делать с ней то что должен делать механизм который можно было бы назвать ИИ.

    Что же он? Это просто генератор предсказания следующего слова в предложении по смыслу. Этакий виртуоз синтаксиса и не более.


    1. TuzSeRik
      14.04.2023 13:50

      Автор немного находится в ловушке собственных ощущений. Он думает, что нельзя генерировать код, которого нет в интернете, или ещё что там показывают по новостям про ЧатГПТ, и при этом не думать. Оказывается можно. Если перестать соревноваться с калькулятором в арифметике, то можно увидеть, что он не умеет сочинять стихи. Если перестать соревноваться с генератором текста в генерации текста, то можно увидеть, что он не умеет да хотя бы считать. Просто тяжело поставить такой текстовый вопрос, чтобы генератор правдоподобного текста не сгенерировал правдободобный ответ, отсюда и все эти возгласы на пустом месте.


  1. Wesha
    14.04.2023 13:50

    Он думает, что нельзя генерировать код, которого нет в интернете, или ещё что там показывают по новостям про ЧатГПТ, и при этом не думать.

    Этот товарищ явно не слышал про полиморфные вирусы. В них тоже может не оказаться "кода, который писал человек".