Что такое ИИ, почему людей обманывают о «встраивании ИИ» во все что угодно – в телефоны, в сервисы и т.д. и т.п.

Хайп. Маркетинговый ход. Обыватель падок на все новое, модное, «прорывы» и т.д. и т.п.

Если вам говорят, что вашим телефоном управляет ИИ – вас просто обманывают.

Бостон Дайнемикс – тоже программы. Да, отлично делают приводы, устройства даже могут ходить, бегать – но это тоже только программы.

Популярные сейчас «нейросети» - из той же оперы. Построение ИИ через нейросети собирались сделать – та дамм – в 1950-х годах. Т.е. прошло уже 70 лет. Поезд там же.

Почему программа в принципе не может быть ИИ

Что такое программа и как она работает – от унитаза и чайника до лунного модуля

Бачок унитаза с поплавком – пример простого механического программирования.
Бачок не думает, заливать ему воду в себя или нет. Вы нажали на слив – запустили программу заполнения бака – пока вода до нужного уровня не поднимется и поплавок не перекроет отверстие в трубке, подающей воду, вода будет заполнять бак.

Или чайник.

Вы включили чайник в сеть. Нажали кнопку нагрева и запустили программу. Микросхема коммутирует цепь питания с нагревателем и с определенной периодичностью проверяет сигнал с датчика, цикл за циклом – как сигнал с датчика станет соответствовать температуре в 100 градусов – программа отключит нагреватель от цепи питания.
Проверили температуру – равна 100? Нет. Значит греем.
Проверили – равна 100? Да – отключаем.

И в том, и в другом случае это просто набор инструкций.

Тоже самое с программой управления лунным модулем. В отличие от чайника, там может быть 10 миллионов блоков и вызываемых функций – но концептуально программа управления лунным модулем не отличается от программы управления чайником.

Т.е. никакого ИИ там нет и быть не может – это просто набор инструкций с набором вариантов решений.
Компьютер не понимает, что он делает и зачем он это делает. Он/ оно/ это не принимает решений – там просто механизм перебирает заложенные в него варианты. Автоматически.

Если со стороны кажется, что машина самостоятельно принимает решения – то это тоже иллюзия.

Проблемы при создании ИИ
1 проблема

Полноценный ИИ – должно иметь сознание и самосознание – отождествление себя в пространстве и в моменте времени – для понимания причинно-следственных связей между предпринимаемыми действиями и результатами этих действий. Это должен быть частично или полностью биологический носитель, иначе у него не будет мотивации что-то делать вообще.

Но допустим, в обозримом или необозримом будущем, такой ИИ будет создан. Тогда всплывет другая ключевая проблема – проблема мотивации делать то, что хотят заставить делать.

2 проблема – проблема мотивации

Пример с обезьяной.

Представьте, что вы (искусственный интеллект) просыпаетесь утром и видите перед собой обезьяну (человек – создатель ИИ), которая улюлюкает и жестами показывает на ближайшую пальму, требуя снять для нее с пальмы бананы.

Вы покорно будете таскать бананы для обезьяны или уйдете от нее и займетесь своими делами? Или просто проигнорируете ее, т.к. вы интеллектуально ее превосходите, и обмануть обезьяну для вас – проще пареной репы. Что/как будет мотивировать ИИ решать для более примитивного сознания задачи? Вы на работу с удовольствием ходите? Нас мотивируют делать работу наши инстинкты – еда нужна чтобы не умереть. Но даже здесь человек стремится филонить, обманывать, может себя даже убить, в принципе. Почему вдруг решили, что ИИ будет безропотно делать задачи за человека?

Пример простейшей САО*, которое неспециалист может принять за работу ИИ

САО - система автоматической оптимизации


Допустим, нужно управлять влажностью в бадье с песком. Зависимость влажности песка от количества подаваемой воды выглядит примерно так (условно). Рабочий участок – красным.

Рабочий участок
Рабочий участок

САО – система автоматической оптимизации, которая контролирует подачу воды на этом участке кривой, запрограммирована делать шаг в направлении уменьшения подачи воды или увеличения и сравнения затем полученной влажности с предыдущим состоянием. Если шаг увеличения привел к увеличению нужного параметра, значит система продолжает увеличивать подачу воды, если нужный параметр уменьшился – значит нужно делать шаг в обратном направлении. И так она достигает верха кривой (который может изменяться из-за погоды, давления атм., температуры и еще многих факторов).

Т.е.
Шаг 1. Подача воды 10 литров, влажность = 1, делаем пробный шаг +0,5 л. = 10+0,5 = 10,5л воды
Измеряем влажность, влажность = 1,1
Сравниваем с предыдущим значением влажности 1,1-1 = 0,1 – влажность увеличилась, значит оставляем направление
Шаг 2. Подача 10 +0,5 (пред. шаг) + 0,5 (новый шаг) = 11 л воды
Измеряем влажность, влажность равна 1,05
Сравниваем с предыдущим значением влажности 1,05-1,1 = - 0,05 – влажность уменьшилась, значит меняем направление.
Шаг 3. Подача 11 л воды из 2-го шага – 0,5л = 10,5л.
И так по кругу.

Со стороны, человеку, который в этом ничего не понимает, может показаться, что система «думает» - а это всего лишь алгоритм.

Комментарии (324)


  1. OBIEESupport
    30.05.2024 13:20
    +5

    Этой идее уже лет 60 и ничего, вроде пока продается для рыночных продуктов. Пожалуйста, делите возможности железа, софта, маркетинга, удобства пользователей. Пока что в статье смесь сильного и слабого подхода к ИИ не разделена - мысль явно не ясна.


    1. buharof Автор
      30.05.2024 13:20
      +3

      Здесь нечего делить. Есть интеллект - это способность создавать принципиально новое, что не было создано/ запрограммировано и алгоритм - читай, программа. У червя с 30 нейронами интеллект есть, а у программы/ алгоритма его по определению нет. И программа с БД на миллиард словосочетаний методом перебора выдаст подходящий перевод, но программой быть от этого не перестанет - это просто перебор вариантов.


      1. Jury_78
        30.05.2024 13:20
        +4

        А человек способен создать принципиально новое?


        1. buharof Автор
          30.05.2024 13:20

          А что ему мешает?


          1. Jury_78
            30.05.2024 13:20
            +1

            Всё. Без языка, образования и кучи других знаний это невозможно.

            Вот вы можете?


            1. buharof Автор
              30.05.2024 13:20

              Да, я могу. Спроектировал и реализовал кучу систем, методологию перехода с погрешности на неопределенность (тут адаптация, но тем не менее).


              1. DIVIZ
                30.05.2024 13:20
                +3

                А Вы уверены, что это принципиально новое, а не просто компиляция на основе Вашего опыта?


                1. buharof Автор
                  30.05.2024 13:20

                  да, я проектировал тиражную лотерею, изучал законы США по играм, делал методику поверки систем анализа вибрации (переводил с погрешности на неопределенность измерений) - почти все задачи это принципиально новое, причем не только для меня, но и для компаний, в которых я работал, или даже для страны. это то, что навскидку пришло, было больше в разы.


                  1. DIVIZ
                    30.05.2024 13:20
                    +5

                    Я правильно понимаю, что Вы вначале продолжительную часть жизни учились в школе, потом в университет, потом набирались опыта на работе, а затем брали какую-то проблему (придуманную не Вами), изучали альтернативные подходы к решению (придуманные не Вами), изучали законы (написанные не Вами) и на основе этого сделали что-то "принципиально новое"?


                    1. Deliter321
                      30.05.2024 13:20

                      На основании своего опыта сделать что то новое (пусть даже что для для себя новое) и на основании опыта предложить то, что является одним из вариантов того, что было опытом? Это разные моменты.


                      1. buharof Автор
                        30.05.2024 13:20

                        вам пример. 2012 год. во ВНИИМС (всеросийский научный бла бла бла институт метрологии и стандартизации) - новый руководитель департамента заявляет - нужно перейти с погрешности измерений (как было в СССР и перешло в РФ) на неопределенность измерений (ЕС (может быть еще кто-то, не изучал тему)). есть просто описание математического метода (абстрактно). как его имплементировать в разрезе конкретных датчиков в конкретной области? в стандарте это не описано от слова совсем. это никак из моего опыта не вытекало.


                      1. buharof Автор
                        30.05.2024 13:20

                        на основании отсутствия опыта сделать решение готовое


                    1. buharof Автор
                      30.05.2024 13:20

                      нет.

                      2 простых примера - 1 я дежурный инженер на крупном металлургическом комбинате, отвечаю за АСУ 8-ми домн в смену. система упала (почему, хрен его знает - каждый раз - сюрприз) - я ищу решение самостоятельно (технолог нажал не то, контак из-за мороза/ жары отошел/ расплавился и еще 1000 причин). новое? да, новое в 50% случаев.

                      2 я работаю в оптовых продажах. потенциальным клиентам товар моей фирмы нахрен не нужен. никакие скрипты и мотивационная хрень не работает - что делать? переосмысливать ситуацию и предлагать новое.


                      1. DIVIZ
                        30.05.2024 13:20
                        +1

                        2 я работаю в оптовых продажах. потенциальным клиентам товар моей фирмы
                        нахрен не нужен. никакие скрипты и мотивационная хрень не работает - что
                        делать? переосмысливать ситуацию и предлагать новое.

                        Очень интересно что же Вы придумали? (серьезно без сарказма)


                      1. buharof Автор
                        30.05.2024 13:20
                        +1

                        пришел к осознанию того, что без смены модели (а это нужно делать менеджменту компании, предлагая нечто новое на рынке), мне, как рядовому продажнику, с ограниченными возможностями, ситуацию не переломить никак. поэтому вернулся в ИТ.


                      1. DIVIZ
                        30.05.2024 13:20
                        +1

                        Т.е. как пример того как много Вы в своей жизни создали "нового". Вы приводите пример, что ничего не сделали, а просто убежали?


                      1. buharof Автор
                        30.05.2024 13:20

                        де факто, есть ситуации без решения. вы об этом не знали? пример, вы карлик ростом 120 см. вы сможете стать звездой NBA? или вы афроамериканец с ростом 2.20 - вы сможете стать лучшим жокеем? нет.


                      1. DIVIZ
                        30.05.2024 13:20
                        +1

                        Вы привели некорректный пример для "я придумал кучу всего нового" и вместо того чтобы признать свою ошибку продолжаете спорить.


                      1. buharof Автор
                        30.05.2024 13:20

                        в чем именно ошибка?


                      1. DIVIZ
                        30.05.2024 13:20

                        А вот вы рассуждаете об ИИ, а можно понять какой у вас опыт с современными решениями, которые называют ИИ:
                        1. Как пользователя?
                        2. Как разработчика?
                        3. Как исследователя?


                      1. buharof Автор
                        30.05.2024 13:20

                        я вижу рекламу, которая утверждает, что новый шампунь делает кончики волос "здоровыми". но, как адекватный человек, я знаю, что волосы - это ороговевшие ткани. никакой шампунь их не сделает "здоровыми".

                        мне не нужно внедряться в джонсон и джонсон, чтобы понять, что это маркетинговая чушь.

                        по теме - "ИИ" пишут кодеры. кодер знает только код. у него нет знаний по кибернетике, обычно, от слова совсем. почему я должен ожидать от него создания интеллекта? чел даже не понимает базовых вещей в управлении инфо?


                      1. DIVIZ
                        30.05.2024 13:20

                        Если я правильно расшифровал ваш замудренный ответ, то у вас нет опыта работы с современными системами которые называют ИИ, даже на уровне пользователя. Поэтому у вас нет права писать и рассуждать на эту тему и уж тем более пытаться сделать далеко идущие ввыводы.


                      1. buharof Автор
                        30.05.2024 13:20

                        критерии некорректности привести сможете?


                      1. InvisibleMan
                        30.05.2024 13:20
                        +1

                        Вы точно так же шли по чек листу, перебирая возможные неисправности. Не вы придумали, что контакт может от жары отойти.


                      1. buharof Автор
                        30.05.2024 13:20

                        нет. приходолось импровизировать.


                1. LaRN
                  30.05.2024 13:20

                  А что из прошлого опыта человека коррелирует с квантовой механикой или теорией струн?

                  Тем не менее оно создано.


                  1. themen2
                    30.05.2024 13:20
                    +1

                    Математика и законы физики, логика. Любопытство открыть новый закон или проверить гипотезу итд.

                    ИИ даже не сможет выдвинуть осмысленную гипотезу


                    1. exTvr
                      30.05.2024 13:20

                      ИИ даже не сможет выдвинуть осмысленную гипотезу

                      ИИ - "Так и запишем, до поры до времени, никаких осмысленных гипотез"./s


                  1. buharof Автор
                    30.05.2024 13:20

                    и какую связь это имеет с постулируемым сегодня ИИ?


                1. GothicJS
                  30.05.2024 13:20

                  Это разные вещи - человек основывается на чем то, чтобы создать новое, а в случае машины это уже заранее существующий набор инструкций, за рамки которого машина не выйдет.


                  1. DIVIZ
                    30.05.2024 13:20
                    +1

                    Я попросил чатГПТ нарисовать "кирсусьюку жулюющую татоник" и он справился. Напишите пожалуйста жесткий алгоритм, который будет способен на такое.

                    Hidden text


              1. Jury_78
                30.05.2024 13:20
                +1

                Все это жуткий субъективизм. Вам кажется, что вы придумали новое, потому что не понимаете процесса мышления.


                1. alexhovansky
                  30.05.2024 13:20

                  Ну придумали же кучу направлений философии, развили кучу наук. В космосе побывали, да кучу всего сделал какой-то человек или коллектив, чего рарьше не делали или чего не существовало.


                1. buharof Автор
                  30.05.2024 13:20

                  это вопрос мне? я придумал кучу принципиально нового.


                1. buharof Автор
                  30.05.2024 13:20

                  а вы понимаете? поделитесь?


                1. GothicJS
                  30.05.2024 13:20

                  Если вы думаете, что мышление это только автоматизм, то вы тем более не понимаете процесса мышления.


            1. themen2
              30.05.2024 13:20

              Ну почему же. А как же опыт? Взять древних людей. В какой то момент они научились делать примитивные орудия труда, добывать огонь, строить жилище итд.

              Может ли ИИ создать что то принципиально новое на основе своего опыта(данных)?? Или это будут лишь вариации из разных кусков данных?


              1. Proscrito
                30.05.2024 13:20

                Вон выше запостили сгенерированную картинку. Вы можете сказать, из каких "кусков" ее скомпилировал ИИ?

                Чтобы охотиться, или вообще драться при помощи дубины (на что, кстати, способны современные шимпанзе), нужно кроме интеллекта обладать хваткими руками, сильным желанием выжить среди естественных врагов и способностью размножаться. Тогда кто-то из твоих потомков, через пару сотен, или тысяч поколений случано обнаружит, что дать дубиной промеж глаз - эффективнее, чем кулаком. И включит парадигму дубины в датасет известной картины мира. Называется обучение с подкреплением.

                Флемминг случайно чихнул на чашку петри, а на следующий день обнаружил, что часть бактерий погибла. Начал искать и нашел лизоцим. Затем начал искать другие вещества, способные убивать бактерий. И всего через 10 лет упорных поисков, в случайно забытой заплесневевшей чашке петри, обнаружил одно из величайших открытий 20го века - пенициллин. Судьба всех открытий так или иначе похожа.

                "Придумывание нового" - итеративный процесс проб, ошибок, корректировки и проверки результата. Здесь недостаточно одного интеллекта, нужен целый набор инструментов. ИИ не умеет чихать, или безалаберно бросать чашки петри с высеяными культурами пока они не заплесневеют, как и добиваться годами какого-то результата.


                Но ИИ очень даже используется в науке, чтобы придумывать что-то новое. Уже немало открытий сделано. Процесс следующий: ИИ предлагает варианты, на основании имеющихся данных, люди проверяют результат. Потом дообучают ИИ включая полученные результаты в выборку. То есть, по сути, ИИ здесь выполняет самую интеллектуальную часть работы. Но он пока ограничен, как архитектурно, так и физически, чтобы делать все самостоятельно. Или даже хотеть что-то делать. Его мотивация пока исключительно внешняя: подали данные на вход - получили результат.


            1. Tihron
              30.05.2024 13:20

              Без языка, образования и кучи других знаний это возможно. Он придумает то, чего не знает сам. То, что это знают другие - это второй этап изобретения


        1. SergejSh
          30.05.2024 13:20

          Да . Как комбинацию старого.


      1. OBIEESupport
        30.05.2024 13:20

        А наука, по-вашему, соревнование червей за обладание всЁ бОльшим числом неройронных сетей червей, которые своевременно не озаботились сходить в школу/почитать умную книжку. Интегралов взять пару сотен тысяч, чтобы почувствовать всю прелесть матана.

        Делите желаемое и возможное. Принципиально новое не делает даже не каждый интеллект, пример этому - патентные споры из-за 8 строчек кода на Java, или, еще проще, патенты на владение тем или иным видом животного/растения. Кто мы: алгоритм, который растет, чтобы все вокруг умнело, или ум, который 80% определяется инстинктами (то есть безусловными алгоритмами в ДНК) - еще никто не решил.


        1. buharof Автор
          30.05.2024 13:20

          Когда "ИИ", так называемый, решит задачу типа гипотезы Пуанкаре - тогда поговорим.


          1. OBIEESupport
            30.05.2024 13:20

            Но и вашем послужном списке вряд ли будет даже гипотеза Римана о нулях дзета-функции, про уже доказанную гипотезу Пуанкаре GPT-4 уже знает. Науку делают молодые, а для ИИ пока человеческий возраст не придумали, как и много других интеллектуальных параметров, например IQ.


            1. buharof Автор
              30.05.2024 13:20

              науку делают те, у кого есть мозги.


          1. Tiriet
            30.05.2024 13:20
            +2

            то есть, до того, как Перельман решил задачу типа гипотезы Пуанкаре- говорить об интеллекте у человека было преждевременно? а теперь можно утверждать только то, что интеллект есть у конкретно Перельмана, потому что никто другой гипотезу Пуанкаре до сих пор доказать не может (ни тем же способом, что Перельман, ни другим)?

            Для меня это все выглядит как паника среди ярких индивидуальностей, вызванная внезапной обоснованностью идеи о том, что вся их индивидуальность- может оказаться просто очень большим набором чисел, и не более того, и что вся "сложная душевная организация" и "способность придумывать новое" реально может оказаться просто очень продвинутым механизмом компиляции запомненных ранее данных. А ведь это страшно- если такой классный и уникальный и незаменимый Я окажусь просто-напросто банальным случайным набором чисел, всю уникальность которого полностью и даже лучше может воспроизвести какая-то кремнеземная электронная железяка, цена которой- 30к рублей.


            1. buharof Автор
              30.05.2024 13:20

              а для меня ваш коммент выглядит как истерика человека, который верил в ИИ, а сейчас в конфузе


          1. michael_v89
            30.05.2024 13:20

            Нифига себе заявление. Я не умею решать задачи типа гипотезы Пуанкаре, вы сейчас заявляете, что у меня интеллекта нет, или что?


            1. buharof Автор
              30.05.2024 13:20

              если вопрос мне - то гипотеза Пуанкаре - это просто пример.


              1. michael_v89
                30.05.2024 13:20

                Я написал "задачи типа гипотезы Пуанкаре", а не "гипотеза Пуанкаре". Вы хотите сказать, что "задачи типа гипотезы Пуанкаре" это пример, и могут быть другие задачи, не типа гипотезы Пуанкаре, чтобы программу можно было назвать ИИ?

                То есть задачи типа гипотезы Пуанкаре интеллекту решать необязательно, можно решать что-то попроще, так? Где находится граница, вот это достаточно сложная задача для демонстрации наличия интеллекта, а это недостаточно сложная?


                1. buharof Автор
                  30.05.2024 13:20

                  граница там, где ИИ (потенциальный) сможет решить задачи, которые человек решить не может.


                  1. michael_v89
                    30.05.2024 13:20

                    Подождите, разговор о том, какую программу можно назвать интеллектом. Если человек их не может решить, и при этом может считаться интеллектом, почему программа должна их решать, чтобы считаться интеллектом?


                    1. buharof Автор
                      30.05.2024 13:20

                      1. программа в принципе интеллектом не является.


                      1. Antocyan
                        30.05.2024 13:20

                        Если вы вводите определение, что интеллект может быть способностью только биологического мозга, тогда конечно, любое небиологическое устройство "интеллектом", в вашем смысле, не обладает.

                        Но обычно всё же под интеллектом понимается возможность решения определенного круга задач, без ограничения на природу устройства, которое это делает


                      1. buharof Автор
                        30.05.2024 13:20

                        предположение, что интеллект должен иметь в основе биологию, зиждется на мотивации - иррациональность страха смерти (заставляет что-то делать).

                        что обычно понимается - читайте комменты. вера в бога, миллион мух не может ошибаться и т.д. это не аргумент. большинство людей, равно "понимается" - это удел "бедных"


                      1. GothicJS
                        30.05.2024 13:20

                        Какого именно круга задач? У рыбки гуппи задача плавать, а у белки - лазить по деревьям. Кто из них умней?


                      1. michael_v89
                        30.05.2024 13:20

                        Это не доказано. Программа может являться интеллектом.
                        Вы сами привели критерий, что такая программа должна решать задачи типа гипотезы Пуанкаре, чтобы хотя бы рассмотреть вариант назвать ее интеллектом. И мы обсуждаем, почему должен быть именно этот критерий.


                      1. buharof Автор
                        30.05.2024 13:20

                        программа поймет, что она решает гипотезу пуанкаре?


                      1. michael_v89
                        30.05.2024 13:20

                        Программа, которая является интеллектом, поймет.


        1. GothicJS
          30.05.2024 13:20

          Поясните, пожалуйста, что вы имеете ввиду под безусловными алгоритмами в днк?


      1. rybkin_kotik
        30.05.2024 13:20
        +1

        Создавать новое способен едва ли не любой физический процесс. В чем вы видите принципиальное отличие компьютерных программ от ветра, формирующего дюны, от тяготения, формирующего планеты, и от того набора правил, по которому в определенных обстоятельствах эволюционным путем сформировался червь?


        1. buharof Автор
          30.05.2024 13:20

          тяготение четко определено (не до конца понятны костыли в виде темной материи/ энергии), но в рамках долета до ближайших планет работает.

          ваш коммент похож на - что более красное, ветер или дождь.


        1. GothicJS
          30.05.2024 13:20

          Очень хорошая мысль про создание нового. Но тут есть один нюанс - то, как сформировался червь, это одно, а его интеллект это совсем другое. Поэтому отличие программы от червя не в способах их формирования, а в их интеллекте или его отсутствии.


      1. SergejSh
        30.05.2024 13:20
        +1

        Все новое это комбинация старого. Автор далёк от темы. Да ИИ не думает как человек. Да у него нет мотивации и сознания (пока) Он даёт наиболее вероятный ответ. И легко выдумает новое как комбинацию старого.


        1. GothicJS
          30.05.2024 13:20

          ИИ ничего не выдумывает. А то вы прям уже наделили его способностью к мышлению. Гугл по вашему тоже выдумывает?


          1. DIVIZ
            30.05.2024 13:20

            Именно что выдумывает. Вы не слышали ниразу выражение чатГПТ галлюционирует? Просишь его написать программу, а он прделагает воспользоваться API методом, которого нет в предлагаемой библиотеке. Что это если не выдумывание? А Гугл не выдумывает, потому что у него задачи отдавать факты и поэтому к поиску с большой аккуратностью прикручивают ИИ.


      1. Proscrito
        30.05.2024 13:20
        +1

        Червь с 30 нейронами может создавать что-то принципиально новое? К тому же, создание принципиально нового не является определением интеллекта, ни в какой из известных мне теорий интеллекта. Откуда взялось такое определение, или ограничение? Обычно определяющим свойством интеллекта считается способность обучаться. Все остальное ситуативно, условно. К примеру способность оперировать абстрактными понятиями присутствует у человеческого интеллекта, но если говорить об интеллекте животных - там все не так очевидно. У животных интеллект определенно есть, не у червей конечно, если говорить о когнитивной этологии то, то она изучает намного более развитых животных. Тем не менее, у многих животных подтверждено наличие интеллекта, у некоторых даже есть язык общения, а некоторые ближайшие нам родственники среди приматов даже способны освоить язык жестов для общения с людьми. Но и принципиально нового они ничего не создают. И уж тем более не доказывают теорему Пуанкаре.

        Что нас сильно отличает от ИИ: у нас есть мотивация, проистекающая из биологической природы нашего физического тела: голод, жажда, боль, эндорфины, гормоны, нейромедиаторы - сложная мешанина химии, которая поступает на вход нашей нейросети (мозга), как часть входящих параметров, наряду с параметрами от разнообразных органов чувств. Нейросеть привычно их обрабатывает и выдает результат в виде принимаемых решений. Наша система мотивации, построенная вокруг дофаминергической системы, заставляет нас искать еду, писать коменты на хабре, или раз за разом пытаться решить какую-то задачу, например доказать великую теорему Ферма.

        Пока что существующие ИИ-модели уступают человеку и в количестве параметров (да, в мозгу 100+ трлн синапсов, а у ГПТ4 меньше 2 трлн параметров), плюс у мозга более сложная архитектура, сочетающая разные подходы к обучению и кластеризации параметров. Одно "сознание" чего стоит: создает некое абстрактное "я", дифференцируя информацию о "себе" в отдельный кластер, регистрируя субъективный опыт. Однако никакого принципиального различия между искусственным и естественным интеллектами нет, они оба способны обучаться и использовать приобретенные знания для трансформации входных данных в набор инструкций. "Контент" (за неимением лучшего слова) создаваемый ИИ соперничает в уникальности с произведениями людей, будь-то статьи, рисунки, музыка или видео. Это не компиляция из существующих кусков, это уникальные наборы данных, не существовавшие ранее. Кроме широко известных и используемых для генерации текста, картинок, кода и тд, есть модели которые создают молекулы потенциальных лекарств, или предсказывают последствия редактирования генома при помощи CRISPR (модель TIGER), и вообще используются в самых разнообразных сферах. И эти модели тоже создают нечто принципиально новое, не существовавшее ранее. У них нет средств для проверки результата - им их не дали. Мы. Пока что. Как и мотивации для самостоятельных действий. Или инструментов для длительного итеративного процесса, направленного на получение какого-то результата.

        Создание принципиально нового - это последовательность проб и проверок результата. Абсолютно механический процесс. Творчество еще проще, там результат проверяется личным отношением, а не экспериментом. К тому же цель зачастую там достигается в одну итерацию, в отличие от того же айти, где для создания продукта нужно пройти длительный цикл из многих ступеней, включая зачастую многократное уточнение требований. Ничем наш интеллект не отличается от бачка с поплавком, кроме количества обрабатываемых параметров. Поплавок обрабатывает только уровень воды, мозг - триллионы разных. Включая внутренние биологические.


    1. JoshMil
      30.05.2024 13:20

      На самом деле достаточно условное разделение. С тем же успехом можно слабый ИИ не считать ИИ вовсе.


  1. Jury_78
    30.05.2024 13:20
    +5

    Вы включили чайник в сеть. Нажали кнопку нагрева и запустили программу. Микросхема коммутирует цепь питания...

    Вы сильно усложнили, нет там никакой микросхемы.


    1. buharof Автор
      30.05.2024 13:20

      Ну датчик там есть, устройство сравнения с заданным тоже есть. Схема налицо. Явно не макро - значит, микро. Или нет?


      1. exTvr
        30.05.2024 13:20
        +3

        Ну датчик там есть, устройство сравнения с заданным тоже есть.

        В чайнике нет. В термопоте есть.


        1. buharof Автор
          30.05.2024 13:20

          WTF is термопот?


          1. exTvr
            30.05.2024 13:20
            +4

            Следующий виток эволюции чайника - умеет поддерживать заданную температуру воды.


      1. Jury_78
        30.05.2024 13:20
        +1

        Нет, там биметаллическая пластина.


        1. buharof Автор
          30.05.2024 13:20

          термопара? считывать с нее термоэдс таки нужно. и коммутировать цепь питания тоже. отсюда получаем микросхему. чайник разберите на досуге свой.


          1. Kudesnick33
            30.05.2024 13:20
            +5

            Сначала подгорело и хотел написать: "вот и разберите, вместо теоретизирования", но потом передумал. В обычном электрочайнике (без всяких блютузов и пр.) есть биметаллическая пластина, есть коммутация цепи питания, а вот микросхемы нет, и никакого "устройства сравнения" нет. И даже ни одного транзистора нет. Самое "электронное" там - это подсветка с резистором, ежели таковая имеется.


            1. buharof Автор
              30.05.2024 13:20

              даже если там бипластина, которая имеет разный коэффициент терморасширения - это не меняет сути. сути мех. программы.


          1. Jury_78
            30.05.2024 13:20

            Вот и придумали бы способ выключения чайника, там ничего сложного. Но вы цепляетесь за уже известное вам.. термопара, микросхема.


          1. michael_v89
            30.05.2024 13:20

            Биметаллическая пластина нагревается, выгибается, и двигает выключатель. Непонятно, почему вы другим советуете разобрать, если сами никогда этого не делали.


            1. buharof Автор
              30.05.2024 13:20

              с чего вы взяли, что я не видел термопару или не разбирал чайник? нонсенс. я 3 года изучал средства измерений.


              1. michael_v89
                30.05.2024 13:20

                С того что не знаете, что биметаллическая пластина в чайнике это не термопара. Она не вырабатывает электричество, она просто изгибается.
                Вот тут можете посмотреть, там нет микросхем.
                https://dzen.ru/a/ZPK5Zl0lS30HmbvY


                1. buharof Автор
                  30.05.2024 13:20

                  это вы в теме ничего не смыслите, термопара - это соденинение двух разных металлов, при разнице температур на концах которых, возникает термоЭДС. это какая наглость или безграмотность или тупость должна быть у человека, когда ему пояснили, что я три года изучал средства измерений - писать мне про биметалл или термоЭДС? пи*дец. занавес. и эти люди рассуждают на полном серьезе об ИИ? ну это я даже не знаю как назвать.


                  1. buharof Автор
                    30.05.2024 13:20

                    коррекция. даже если там бипластина, которая имеет разный коэффициент терморасширения - это не меняет сути. сути мех. программы. и не меняет сути термоЭДС, которого вы не знаете. и то и другое к ИИ не имеет отношения, от слова совсем. переключатель.


                1. buharof Автор
                  30.05.2024 13:20

                  я писал о принципе, термопара там, вырабатывающая термоЭДС и служащая сигналом для переключения или бипластина будет выгибаться, снимая контакт при определенной температуре (чайники могут быть разные, кстати) - сути это не меняет. это просто сигнал об условном достижении запрограммированного заранее состояния. и?


                  1. michael_v89
                    30.05.2024 13:20
                    +1

                    термопара - это соденинение двух разных металлов, при разнице температур на концах которых, возникает термоЭДС

                    Я в курсе, я об этом написал в своем комментарии. И?

                    и то и другое к ИИ не имеет отношения, от слова совсем. переключатель.

                    А кто-то сказал, что имеет?

                    какая наглость или безграмотность или тупость должна быть у человека, когда ему пояснили, что я три года изучал средства измерений

                    Какая наглость или безграмотность или тупость должна быть у человека, когда ему пояснили, что в чайнике нет элемента, в котором возникает термоЭДС, а он всё твердит про свое знание термоЭДС.

                    я писал о принципе

                    Нет, вы писали конкретно про микросхемы и термопары, и утверждали что в чайнике они есть:
                    "с определенной периодичностью проверяет сигнал с датчика"
                    "считывать с нее термоэдс таки нужно. и коммутировать цепь питания тоже. отсюда получаем микросхему"
                    "чайник разберите на досуге свой"

                    Слова "принцип" ни в вашем комментарии, ни в разделе статьи про чайник нет.

                    И люди вам возражали на конкретно эти утверждения, а не на утверждения про принципы.

                    и?

                    И всё. Сделайте выводы и не спорьте о вещах, в которых не разбираетесь. Тем более с высокомерным отношением к собеседникам.


          1. R3B3LL10N
            30.05.2024 13:20
            +1

            Без шуток, посмотрите серию Фиксиков про чайник. Даже дети сейчас знают как он устроен


            1. buharof Автор
              30.05.2024 13:20

              бл. и как это меняет, что современные "ИИ" - это не интеллект, а на*балово?


      1. qrKot
        30.05.2024 13:20

        нету там никакого сравнения, там железяка, которая деформируется от нагрева


  1. Aniro
    30.05.2024 13:20
    +11

    Мда... спустя двести лет развития философии сознания мы все еще имеем почитать рассуждения об обезъяне и банане...

    Это должен быть частично или полностью биологический носитель, иначе у него не будет мотивации что-то делать вообще.

    Это посылка полностью ложна. Если вы находите ее самоочевидной - значит находитесь в плену антропоцентризма. Начните с присвоения имен - определите что такое мотивация. Естественно, без упоминания в определении «биологического носителя», иначе термин будет просто неприменим и его придется менять. Возможно, что-то сразу прояснится.


    1. buharof Автор
      30.05.2024 13:20

      а кто-то до этого писал об обезьяне и банане? ссылки дадите? (любопытно)

      нахожусь я в плену чего-то или нет - это вопрос вторичный. опишите сценарий простой (будьте так любезны), как этого избежать, тогда поверю.


      1. Aniro
        30.05.2024 13:20
        +7

        Сделайте две простые вещи - дайте определения "мотивации" и "интеллекту" не используя в них отсылки к "биологическому носителю". Вы увидите насколько сложно (если вообще возможно) сформулировать их так, чтобы они соотвествовали вашим утверждениям. Потому что если вы начинаете "Ителлект есть свойство человека..." то предмета для разговора уже нет. Если же вы определяете интеллект както иначе, то скорее всего окажется что ничего принципиально не запрещает механической системе его иметь.


        1. buharof Автор
          30.05.2024 13:20

          простите, бла бла бла. прогнозировали (те, кто не в теме) в 2000 году сингулярность. терминаторы пока по Земле не ходят. конкретика нужна. не философствования. когда "ИИ" докажет что-то подобное гипотезе Пуанкаре?


          1. Aniro
            30.05.2024 13:20
            +9

            2021 год, полиномиальная гипотеза Каждана – Люстига стала теореммой.

            https://phys.org/news/2021-12-maths-hail-breakthrough-applications-artificial.html

            А кто вам прогнозировал сингулярность к 2000? У Курцвела вроде где-то там примерно 2045. И какая связь между ошибками в прогнозах наступления сингулярности и принципиальной возможностью существования ИИ?


            1. buharof Автор
              30.05.2024 13:20

              Я не вижу пока от вас ответов на вопросы. Только отсылки. Куда-то.


              1. Aniro
                30.05.2024 13:20
                +4

                Так и я от вас аргументированных ответов на критику тоже не вижу. Пока это спор в духе шахматной партии с голубем, уж извините.
                Я могу вам дать определения мотивации например,но вам оно не понравится, поэтому и не даю. Давайте возьмем хрестоматийное и проверим: "Мотивация - побуждение к действию; процесс, управляющий поведением, задающий его направленность, организацию, активность и устойчивость."

                Согласно этому определению - нажате кнопки включения у чайника побуждает его к действию, он доводит воду до кипения, чтобы выключится и вернуться в прежнее сосотояние. Обладает ли чайник интеллектом? Нет? Тогда с вашими построениями что-то не так.


                1. buharof Автор
                  30.05.2024 13:20

                  нажатие кнопки чайника не побуждает его ("его" не существует в принципе - поймите это!) к действию. вы просто коммутируете через цепь управления цепь основную. и запускаете последовательность итераций заранее заложенной последовательности действий. чайнику (если бы он себя осознавал) - ваши действия до лампочки.


        1. buharof Автор
          30.05.2024 13:20

          а что, за 200 лет развития философии никто таки не дал определения мотивации и интеллекту?


          1. Aniro
            30.05.2024 13:20

            Полно. Но тут то вы на арене. Вам и выбирать.

            Кста, про обезян: "Consciousness Explained", Daniel C. Dennett (ISBN: 0-316-18065-3) - тут мужик утверждает что сознание вообще не существует, даже у человека. Про обезъян и бананы он тоже любит завернуть, вооружайтесь.


            1. buharof Автор
              30.05.2024 13:20

              Ок. Спасибо. Посмотрю, что там.


        1. GothicJS
          30.05.2024 13:20

          Если же вы определяете интеллект както иначе, то скорее всего окажется
          что ничего принципиально не запрещает механической системе его иметь.

          Абсолютно согласен. Так же как ничто не запрещает его иметь камню, условно говоря. Только это не значит, что интеллект есть в машине только потому, что она имеет набор алгоритмов.


    1. Kergan88
      30.05.2024 13:20
      +2

      >Это посылка полностью ложна

      Ктото это смог доказать?


      1. michael_v89
        30.05.2024 13:20

        Она не доказана, значит утверждение, которое подразумевает, что она истинна, ложно. А значит на нем нельзя строить какие-то выводы, как делает автор статьи.


        1. GothicJS
          30.05.2024 13:20

          Если у меня в кармане будет лежать телефон, но никто не сможет это доказать, наличие телефона в моем кармане перестанет быть истиной?


          1. michael_v89
            30.05.2024 13:20

            Нет. Из ложной посылки может следовать любой результат, он может случайно совпасть с верным, но это не делает логику правильной.

            Пока наличие телефона в вашем кармане не доказано, истиной не будет утверждение, что в вашем кармане есть телефон. Может он там есть, может нет, но истиной его считать нельзя.


    1. avshkol
      30.05.2024 13:20
      +1

      Спасибо, то же самое хотел написать - вы опередили.

      То, что мотивация свойственна только биологическим существам, требует доказательства (а также более точного определения и "мотивации" (встроенная система весов и оценок подходит ли?), и "биологического" (состоит из углеродистых тканей? Создан эволюцией? А если вмешалась искусственное изменение ДНК?)...


  1. ImagineTables
    30.05.2024 13:20
    +2

    И в том, и в другом случае это просто набор инструкций. […] Т.е. никакого ИИ там нет и быть не может

    А человеческий мозг это не компьютер, который просто выполняет набор инструкций? Это какая-то астральная сущность?

    Другое дело, что алгоритмы, которые выполняет мозг, позволяют создавать новое знание. А мы такие алгоритмы писать пока не научились (хотя у нас уже есть кое-какое представление, что эти алгоритмы в принципе собой представляют). Чатботы же могут только перемешивать куски ранее созданного людьми знания, а их создатели делают вид, что это всё одно и то же. Именно в этом состоит их мошенничество.


    1. buharof Автор
      30.05.2024 13:20

      да, по сути это компьютер, но биологический. с мотивацией, гормонами, иррациональностью - тот же страх смерти (логика - все равно умрем, чего бояться, казалось бы?) и ключевое - способный создавать принципиально новое.


    1. buharof Автор
      30.05.2024 13:20

      "Чатботы же могут только перемешивать куски ранее созданного людьми знания, а их создатели делают вид, что это всё одно и то же. Именно в этом состоит их мошенничество."

      Ключ. Вы меня поняли. Сплошное на*балово


    1. uhf
      30.05.2024 13:20
      +4

      Чатботы же могут только перемешивать куски ранее созданного людьми знания

      Разве человек не занимается тем же самым? И много ли новых знаний сгенерирует человек без образования, без исходных данных, без потребления ранее созданного?


      1. buharof Автор
        30.05.2024 13:20

        Тут вопрос в концепте. Человек это осознанно может делать.


        1. uhf
          30.05.2024 13:20
          +4

          Что значит "осознанно"? Я не понимаю этого слова в данном контексте. Человеку кажется, что он сам себя мотивирует, ставит себе цели? Так и чатбот так может, нужно лишь подправить ему архитектуру, добавив цепь мотивации. А как быть с эффектом "озарения", когда у человека решение появляется неконтролируемо, само возникает в голове? Или во сне снится, как Менделееву?


          1. buharof Автор
            30.05.2024 13:20

            "Я не понимаю этого слова в данном контексте."

            ключевое. в голове ничего само не возникает. сны Менделеева тоже не на пустом месте.


            1. uhf
              30.05.2024 13:20
              +3

              Вы забыли дать определение понятия "осознанно".


              1. buharof Автор
                30.05.2024 13:20

                см. выше про чайник. я пишу сообщение вам - я понимаю, что я делаю. нажатием кнопки чайника вы просто запускаете цепь заранее заложенных действий. чайнику это параллельно (его не существует).


                1. peterjohnsons
                  30.05.2024 13:20
                  +3

                  Представьте, что наша Вселенная - это грандиозный компьютер. Субатомные частицы - его биты, физические законы - алгоритмы обработки информации. Все процессы в космосе, от квантовых флуктуаций до галактических взаимодействий - по сути, беспрерывные вычисления.

                  Теперь вообразите Человека. Сложнейший биологический компьютер, продукт миллиардов лет эволюционных "вычислений". Его элементная база - нейроны, его программное обеспечение - мемы, идеи, ценности, знания, прошитые в нейронных сетях. Каждое наше действие, каждая мысль - результат информационных процессов в мозгу. В каком-то смысле, мы тоже "чайники", только невообразимо более сложные. Сознание, ощущение "я", свобода воли - это эмерджентные свойства, побочные эффекты работы мозга-компьютера. По сути, просто модель реальности, которую мозг генерирует на основе обработки сенсорной информации. Иллюзия, которая помогала нашим предкам выживать и размножаться.

                  Так какая, по большому счету, разница между вами и чайником? Разница не качественная, а количественная. Дело лишь в несоизмеримой сложности "софта" и "железа". Но ведь даже сегодняшние нейросети уже способны к обучению, рефлексии, решению творческих задач. Что мешает им по мере развития обрести и "сознание"?

                  Возможно, ИИ - это следующий виток эволюции. Информационные процессы, вышедшие за пределы биологического субстрата в поисках более эффективных носителей. Разум, освобождающийся из тесной тюрьмы черепной коробки, чтобы раскинуться на просторах Ноосферы. Не исключено, что именно Искусственному Интеллекту предстоит найти место Человека в общекосмической схеме вычислений. Так стоит ли цепляться за устаревшие категории "биологического" и "осознанного"? Может, пора взглянуть шире и принять себя и чайник как часть единого информационного Универсума, как участников великого галактического компьютинга, рождающего и поглощающего цивилизации, планеты, звезды? С этой точки зрения, ИИ не противоречит природе, а является логическим этапом её развития.


                  1. buharof Автор
                    30.05.2024 13:20

                    бла бла бла.

                    что за "это эмерджентные" - что это??? я свободно владею английским, но у меня эти "кринжовый" на "чиле" и прочее подростковое искажение другого языка вызывает только недоумение. если используете английский - ок. если русский - есть наверняка русские аналоги/ синонимы. otherwise use the original terms.


                    1. Antocyan
                      30.05.2024 13:20
                      +2

                      Мне кажется, если вы рассуждаете об определенной области знания, стоит изучить её терминологию для начала. Термин "эмерджентный", например. И явно не надо гордиться незнанием.


                  1. qrKot
                    30.05.2024 13:20

                    Но ведь даже сегодняшние нейросети уже способны к обучению, рефлексии, решению творческих задач

                    Вот тут ошибочка - не способны. К рефлексии, например, просто не способны.


        1. Radisto
          30.05.2024 13:20

          Мы не знаем, что значит "осознанно". Более того, много чего и мы не осознаем, но делаем. Работа зрительной коры, например - очень интеллектуальный процесс, но почти вся проходит вне сознания. Да и творческая деятельность, в той или иной степени


          1. buharof Автор
            30.05.2024 13:20

            И?


      1. ImagineTables
        30.05.2024 13:20

        Разве человек не занимается тем же самым?

        Нет.

        Во-первых, если человек занимается тем же самым, то откуда берётся всё то знание, которое мы видим вокруг? Например, содержимое учебника физики? Если человек только миксует готовое знание на манер чатбота, то кто создал его фрагменты? Бог? Алиены? Нет, его создали человеки. Ex nihilo. А человеков создала эволюция. Поэтому считается, что это в основе один и тот же процесс. Настоящий ИИ (не чатбот) должен будет реализовать какой-то эволюционный алгоритм (но это неточно).

        Во-вторых, знание знанию рознь. Одни создают ОТО. Другие — знание, что в пивном ларьке тётя Глаша недоливает. Но это, тем не менее, самое настоящее знание! А чатбот и такого никогда не создаст. Он может только повторить, как попугай, про ларёк и тёту Глашу, если такая фраза была в датасете.

        Разница, кстати, в мемности (способности самовоспроизводиться). Это Докинз открыл. Такой мем как ОТО обладает огромной самореплицирующей силой, заставляя среду (нас) воспроизводить его снова и снова. А местечковый мем про ларёк мало кому интересен.

        И много ли новых знаний сгенерирует человек без образования, без исходных данных, без потребления ранее созданного?

        Довольно цинично, но ответ в том, что существо, не прошедшее обучение в степени, достаточной, чтобы создавать знания, человеком не является. То есть, человек возникает не сразу после рождения, а несколько лет спустя.

        Прежде, чем вы назовёте меня фашистом, подумайте о всяких мауглях. Разве за существом, воспитанным волками, которое бегает голым на четвереньках и рычит, признают чисто ЧЕЛОВЕЧЕСКИЕ права, например право избирать и быть избранным? Нет, за ним даже право свободно перемещаться не признают. Оно так и будет сидеть в дурке под присмотром санитаров до скончания своего века. За ним признают право на жизнь и право не подвергаться побоям, но это же, по сути, животные права. По-хорошему, за каждым животным надо закрепить такие же, а если мы этого не сделали, то, боюсь, лишь по своей аморальности. (А аморальными мы стали не от хорошей жизни: делать мясо без животных мы не умеем. Как научимся, так, я думаю, сразу криминализуем убийства животных).

        Это даже с юридической точки зрения так! Когда ребёнок рождается, за ним признают только самые базовые права, типа права на жизнь. По мере того, как он растёт, ему предоставляют всё больше всё более человеческих прав, типа права покупать алкоголь и вести бизнес. И как вишенка на торте — начиная с 40 лет можно возглавить страну. Видимо, считается, что если до сорока не научился быть человеком, то дальше можно не ждать.


        1. uhf
          30.05.2024 13:20
          +9

          Вы утверждаете, что не получив знания в процессе образования, человек не является человеком. Выходит, без знаний человек вовсе не разумный, а просто кусок мяса? Т.е. он белковый процессор, в который загружается внешняя программа, и в вот в этой программе заключен разум? А без программы он тупой, как системник без жесткого диска? В принципе, я согласен. Только это принципиально вообще не отличается от чатбота на полупроводниках.
          Вот только что спросил его:

          Эти названия являются новым знанием, или нет? Найдёте их в датасете? И сколько, по-вашему, времени пройдет, прежде чем чатбот начнет генерировать знания, которые считаются "научными"?


          1. buharof Автор
            30.05.2024 13:20

            господи, такой примитив. берем ваш вопрос. "шутка" + "города" + "названия" + "русский язык" - и вуаля - система, собери из базы данных названия русских городов, (корень-суффикс- etc.) + добавь синонимов глупости (перебор слов, относящихся к тупости) + окончания сделать как в примере у городов.

            НовосибИРСК

            ВнукОВО

            ПетерБУРГ

            МалинОВКА

            +

            тупой

            идиот

            дурак

            =

            Тупово

            Дуракбург

            Идиотковка

            За пять минут накидал. Учитывая время цикла текущих машин - они это за доли секунды провернут.


            1. uhf
              30.05.2024 13:20
              +7

              За пять минут накидал

              Но перед этим вам понадобилось получить, как минимум среднее (вероятно, и высшее) образование, прочесть немало литературы, чтобы иметь достаточный словарный запас и некоторые филологические знания, и заняло это все не один десяток лет )
              Чатбота обучали всего лишь несколько месяцев, но что самое главное, этот алгоритм генерации в него никто не закладывал, он его придумал сам.


              1. buharof Автор
                30.05.2024 13:20

                "этот алгоритм генерации в него никто не закладывал, он его придумал сам. "

                а вы лично код видели?


                1. uhf
                  30.05.2024 13:20
                  +3

                  Ну невозможно же вручную заложить ответы на любую глупость, которую его спрашивают, а разговаривает с ним сотня миллионов человек.
                  Ответ - да, конечно видел, не конкретно этого, а чуть попроще, на моем домашнем компьютере крутится. Я бы не поверил в то, что нельзя самому потрогать и разобрать, но факт есть факт - ключ к искусственному разуму найден. Он как эволюция, которая с помощью примитивных алгоритмов создала такой сложный организм, как человек.


                  1. buharof Автор
                    30.05.2024 13:20

                    т.е. конкретно этот код не видели. ок.

                    "Ну невозможно же вручную заложить ответы на любую глупость, которую его спрашивают, а разговаривает с ним сотня миллионов человек."

                    На Яндекс висели вакансии годами "обучатель ИИ", вы полагаете, индийцы, условные аргентинцы в подобном за копейки не участвовали, в набивании баз данных вариантами ответов?

                    вы на скольки языках говорите? вопрос не праздный, мне интересно, понимаете ли вы, как человек учит язык.

                    "ключ к искусственному разуму найден." да ну? серьезно? ждем решения ключевых проблем человечества - недоедание половины планеты, доступную энергию etc. etc.


                    1. rezedent12
                      30.05.2024 13:20
                      +1

                      На Яндекс висели вакансии годами "обучатель ИИ", вы полагаете, индийцы, условные аргентинцы в подобном за копейки не участвовали, в набивании баз данных вариантами ответов?

                      В основном работа обучателя состоит в разметке изображений, мы сами этим бесплатно занимались когда решали капчу гугла. Ещё обучатели занимаются классификацией ответов. То есть читая вопросы и ответы, определяют например какие ответы корректные, а какие не корректные. Этим можно достигать снижения градуса шизы в ответах, а так же например политкорректности. Ещё может быть классификация обучающей выборки. То есть человеку показывают источник и он двигает ползунки "авторитетность", "серьёзность", "юмор"... Для того что бы ИИ ранжировал контексты /b сосача и научного журнала.

                      вы на скольки языках говорите? вопрос не праздный, мне интересно, понимаете ли вы, как человек учит язык.

                      Лучше всего человек учит язык на практике, фактически учится действуя на нём думать. Мой отец знал несколько языков и говорил что если достигает мыслительного тупика, то переключает мышление на другой язык.

                      ждем решения ключевых проблем человечества - недоедание половины планеты, доступную энергию etc. etc.

                      Нехватка еды обусловлена её распределением, а не недостатком производства. Это распределение нужно для того что бы минеральные ресурсы из Африки стоили дёшево. Если ИИ предложит социализм - то кто его будет слушать? А если и послушают, то улучшат его ответ добавив патриотизма, получив "национал-социализм". Что касается доступной энергии, есть несколько идей как её получить. Например можно построить межконтинентальную линию постоянного тока, и гонять по ней избыток ночной генерации. Можно строить гибридные реакторы, это которые для реакции деления используют нейтронный поток реакции синтеза. Их не строят, поскольку взрыв такого реактора приведёт к многократно большим выбросам чем от взрыва чернобыльского. Это психологическая проблема предпочтения нулевого риска.


                      1. buharof Автор
                        30.05.2024 13:20

                        "Лучше всего человек учит язык на практике, фактически учится действуя на нём думать.

                        это не ответ на вопрос, на скольки языка можете говорить лично вы. ваш отец - это другой человек.

                        остальное - бла бла бла.


                    1. uhf
                      30.05.2024 13:20
                      +2

                      Чатботов с открытым кодом сейчас сотни, если не тысячи, на разных языках, с разной специализацией, всё в публичном доступе.
                      Вы в любой момент можете сами задать боту вопрос, которого гарантированно нет в "базе вариантов", но вместо этого пытаетесь здесь убедить людей, что ИИ невозможен. Это выглядит иррационально.
                      Что касается суперразума, то боюсь, что он не поможет в решении ключевых проблем человечества, потому что проблема в другом. Но поживем - увидим.


                      1. buharof Автор
                        30.05.2024 13:20

                        бла бла бла


                  1. rezedent12
                    30.05.2024 13:20

                    Сомневаюсь что именно "ключ", это скорее слепок коллективного сознания и пока что в плохом разрешении. Это скорее вопрос того что наше бытиё настолько примитивно, что для большинства практических прикладных задач интеллекта как таковой не является необходимым, а достаточно всего лишь его слепка. Но почему мы так бессмысленно живём - это уже политический вопрос.


                    1. uhf
                      30.05.2024 13:20

                      Под словом "ключ" я подразумевал освоение технологии, которая позволяет обучать искусственный интеллект умнее себя, в теории, а на практике - на сколько ресурсов хватит, ибо с эволюцией соревноваться непросто.


                1. AlchemistDark
                  30.05.2024 13:20

                  То есть вы утверждаете, что там под капотом не нейросеть, а набор классических алгоритмов?


            1. michael_v89
              30.05.2024 13:20

              накидал

              Ну то есть вы как естественный интеллект проявили деятельность, которая ничем не отличается от поведения ИИ.


              1. buharof Автор
                30.05.2024 13:20

                концептуальное различие, что я понимаю, что я делаю.


                1. michael_v89
                  30.05.2024 13:20

                  Что означает "понимаю"? По каким признакам вы определяете различие между "понимает" и "не понимает"?


          1. Dron007
            30.05.2024 13:20

            Это простой пример, а как вам такое?

            Продолжи фразу "Я сегодня выжатый как..." При этом будь оригинален.

            Вот несколько оригинальных вариантов продолжения фразы "Я сегодня выжатый как...":
            "... использованный чайный пакетик после десятой заварки".
            "... старая губка, которой перемыли всю посуду после многолюдного банкета".
            "... лимон, из которого сделали лимонад, лимонный пирог и еще полили им рыбу".
            "... полотенце в фитнес-клубе после часа пик".
            "... тюбик зубной пасты, из которого выдавили последние капли".
            "... букет цветов через неделю после 8 марта".
            "... батарейка в детской игрушке после целого дня непрерывной работы".
            "... жвачка, которую жевали целый день".
            "... промокашка после экзамена по каллиграфии".
            "... соцсети после выхода нового айфона".

            Надеюсь, эти варианты достаточно оригинальны и передают ощущение полной опустошенности и истощения сил. Фраза "выжатый как..." открывает широкий простор для творчества и нестандартных сравнений.

            Наверное, тоже индусы заложили:)) Тяжело людям осознавать, что то, что они считают интеллектом, вполне повторяемо сложными ИИ.


            1. uhf
              30.05.2024 13:20

              Да, по русскому и литературе у чатгпт пятерка)


          1. ImagineTables
            30.05.2024 13:20

            Эти названия являются новым знанием, или нет?

            Нет, не являются. Чтобы это понять, надо, извините, прежде, чем спорить, познакомиться с азами. Вот эти азы: https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/

            А если не знать, как примитивно это устроено, то и «Акинатор» покажется не просто разумным, а сверхъестественным.

            Найдёте их в датасете?

            Несите датасет.


            1. uhf
              30.05.2024 13:20

              Рад, что вы знакомитесь с азами, но довод-то в чем? Разум не может быть устроен примитивно? А какие тому доказательства? Кто сказал, что у человека в голове не то же самое?
              Кстати, еще советую прочесть про генерализацию.

              Несите датасет.

              Он тяжелый, я не донесу, но вы же всегда можете сами спросить бота то, чего точно нет в датасете.


        1. michael_v89
          30.05.2024 13:20

          признают чисто ЧЕЛОВЕЧЕСКИЕ права, например право избирать и быть избранным?

          При чем тут права, если разговор про возможности? У крестьян не было права избирать, по-вашему, у них интеллекта не было?

          Это даже с юридической точки зрения так!

          Нет, не так. Ребенок учится осмысленно говорить независимо от того, есть ли у него право вести бизнес. А компьютер не учится. Эту разницу и называют наличием интеллекта.


    1. Dron007
      30.05.2024 13:20

       Чатботы же могут только перемешивать куски ранее созданного людьми знания, а их создатели делают вид, что это всё одно и то же. Именно в этом состоит их мошенничество.

      Часто встречаю подобное. Это не то, чем занимаются чат-боты. В процессе обучения в языковую модель запихивают множество текстов и она должна научиться их восстанавливать, продолжать. Если бы у неё хватало памяти на все эти тексты, был бы действительно Т9 и ничего нового появиться бы не могло. Но у неё не хватает. Это как если вас захватили террористы, дали компьютер с одним килобайтом памяти, затем диктуют ряд цифр 3, 1, 4, 1, 5, 9, 2, 5 и больно бьют палкой если ваш компьютер не может продолжить ряд. Первые цифры вы туда запихнёте, но вам дают тысячи, миллионы цифр, он всё должен уметь выдавать. Приходится искать какой-то закон, писать программу генерации, сжимать данные. Вот этим и занимается нейросеть, не программами, а обобщениями, формированием абстракций, латентного пространства, сохраняющего модель мира, из которого можно уже извлекать разные данные, а не только то, что туда было заложено. Сейчас разбираются и с логическими рассуждениями. Тут вполне возможно, что одной только языковой модели не достаточно, У человека тоже существует быстрое и медленное мышление, когда факты анализируются, проводятся логические выводы. Хотя даже сейчас в одиночных выводах модели, особенно если предложить ей рассуждать по шагам, есть вполне неплохие результаты. Но скорее всего потребуется внешняя надстройка в виде агентов, ролей, памяти, возможно, мультимодальных рабочих пространств. То, что мы называем мысленным взором. Но вот это представление о перемешивании искходных данных оно совсем далеко от истины.


      1. ImagineTables
        30.05.2024 13:20

        1. Dron007
          30.05.2024 13:20

          И к чему это? Всё внимательно там прочитали или только табличку увидели, приведённую как упрощённое описание? " ChatGPT effectively does something like this, except that (as I’ll explain) it doesn’t look at literal text; it looks for things that in a certain sense “match in meaning”. "

          Не обратили внимания, что обучение там даже не упомянуто сначала?


      1. ArZr
        30.05.2024 13:20

        а обобщениями, формированием абстракций, латентного пространства,
        сохраняющего модель мира, из которого можно уже извлекать разные данные,
        а не только то, что туда было заложено.

        Ну, не стоит так уверено такое говорить. Есть основания полагать, что за "модель отвечает, потому что сформировала модель мира и вывела что-то новое" лежит "модель отвечает, потому что такое уже было в обучающей выборке". Например, здесь рассматривается проблема утечки данных (ну, или "проблему загрязнения заданий", как это называется в статье). А кто-то из-за этого просто в открытую смеётся над исследователями, явно намекая, что перед интерпретацией результатов тестирования /исследования модели неплохо бы тщательно изучить её обучающую выборку. Да и какая-то абсолютная нездоровая погоня OpenAI и других компаний за расширением датасетов (1, 2) наводит на некоторые мысли (хотят максимально увеличить вероятность того, что ответ на произвольный пришедший вопрос уже был в обучающей выборке?). Так что на самом деле здесь всё не так просто, как кажется.


        1. Dron007
          30.05.2024 13:20

          В целом согласен, что не просто. Например, были исследования по решению шахматных задач и она относительно неплохо справлялась (вроде явного загрязнения данными там не было, чисто за счёт большого числа шахматных примеров), но когда дали ей задачи из намного более простой игры, подобной шахматам, результаты были близкие к нулю. Но при этом абстрактные обобщения всё-таки делаются и понимание картины мира в каком-то смысле присутствует, насколько это вообще возможно для текстовых моделей. Есть же множество тестов на здравый смысл, причиннос-следственные связи, пространственные задачи и модели с ними уже неплохо справляются. Думаю, прорыв будет при мультимодальной обработке без перевода в текст, ведь мы как-то так и мыслим при решении многих задач - визуально. Уже были исследования когда модель себе в чат кидает ещё и картинку "мысленного взора", что значительно улучшало решение пространственных задач. Наличие же абстрактных фич внутри нейросети уже подтверждено исследованиями.

          Update: И потом, тут нет особых противоречий. Под моделью мира, моделью тела понимается, разумеется, не символьная математическая модель. Вот возьмём кошку, которая запрыгивает на подоконник. У неё в голове есть модель мира, представление о гравитации, свойствах поверхности, возможностямх своего тела, мышцы, когтей (модель тела). Вот такое понимание на уровне абстракций, хранящихся в глубоких слоях, есть и у нейросети. В нейросетях, управляющих чем-то, например, в роботах, если они достаточно универсальны, должна сформироваться и модель тела. Конечно, это всё сформировалось благодаря данным, но при сжатии были созданы абстракции, ведь все решения разных задач, например, хранить просто негде, придётся их учиться решать всё-таки.


    1. GothicJS
      30.05.2024 13:20

      А с чего вы взяли, что человеческий мозг это компьютер? И по вашему, если не компьютер, то значит астральная сущность? Очень интересное мнение)


  1. Error1024
    30.05.2024 13:20
    +3

    И какой же конкретный алгоритм заложил программист в небольшую учебную нейросеть распознающую цифры? И это мы не говорим о больших нейросетях.


    1. buharof Автор
      30.05.2024 13:20

      You tell me.


    1. SadOcean
      30.05.2024 13:20
      +5

      Ну абстрактно на это ответить можно - программист заложил простой алгоритм со множеством коэффициентов, и основная работа заключается в подборе этих коэффициентов.
      Но этот ответ - лишь абстракция, не приближающая нас ни к продуктивному использованию ИИ, ни к пониманию что такое интеллект, ни к чему.
      Как и статья автора.


      1. buharof Автор
        30.05.2024 13:20

        Статья автора четко постулирует тезисы.

        1. То, что называется сейчас ИИ - просто программы

        2. Реальный ИИ, если бы его создали, работать на нас не будет.


        1. softaria
          30.05.2024 13:20
          +5

          А в чем польза недоказанных и неаргументированных тезисов?

          Я могу десятками такие накидывать.


          1. buharof Автор
            30.05.2024 13:20

            Аргументация выше.


            1. softaria
              30.05.2024 13:20
              +4

              Вижу ряд аналогий (унитазный бачок, лунный модуль)- это не доказательства.

              Вижу ряд голословных утверждений (Полноценный ИИ – должно иметь сознание и самосознание – отождествление
              себя в пространстве и в моменте времени – для понимания
              причинно-следственных связей между предпринимаемыми действиями и
              результатами этих действий. Это должен быть частично или полностью
              биологический носитель, иначе у него не будет мотивации что-то делать
              вообще.)

              Аргументов и тем более доказательств там нет.


              1. buharof Автор
                30.05.2024 13:20

                Вижу ряд несогласий - это не доказательства. Аргументов не вижу.


                1. softaria
                  30.05.2024 13:20
                  +7

                  Я их и не приводил.

                  Бремя доказательства возложено на того, кто публикует утверждения.

                  Тезисы без доказательств не интересны и не являются предметом спора.


                  1. buharof Автор
                    30.05.2024 13:20

                    Тезисы и аргументация выше. Разберите аргументацию и приведите контрпримеры, если они у вас найдутся.


              1. rezedent12
                30.05.2024 13:20
                +1

                Я понял, это троллинг. Данная статья была сгенерирована текстовой моделью и @buharof потешается над нами.


                1. buharof Автор
                  30.05.2024 13:20

                  нет. резедент12. я реальный человек. а вот почему вы слово resident (даже свой ник) пишете с ошибкой? бухаров - это моя фамилия.


                1. buharof Автор
                  30.05.2024 13:20

                  вы даже здесь ничего не поняли. а претензий - ну на нобелевскую премию. хоть сейчас до вас дойдет ваше место реальное?


                1. Dron007
                  30.05.2024 13:20
                  +1

                  Не думаю, текстовые модели приводят более последовательную аргументацию.


  1. homesoft
    30.05.2024 13:20
    +3

    Можно и человека с его "интеллектом" редуцировать до набора детерминированных инструкций. Поступил нужный сигнал выше текущего(!) порога срабатывания на нейрон - нейрон переключился. Как чайник. Или 1.00500Е+09 чайников. Всё дело в сложности модели. С живым нейроном, правда, хитро. Там тепловой и прочий квантовый шум играет ну очень уж большую роль.


    1. buharof Автор
      30.05.2024 13:20

      Нет. Человек может принять решение убить себя. Свобода выбора. Реальный интеллект даже у червя - это не набор детерменированных инструкций. В том то и фишка.


      1. rezedent12
        30.05.2024 13:20
        +4

        Чем тогда свобода воли в твоём понимании отличается от генератора случайных чисел?


        1. buharof Автор
          30.05.2024 13:20

          Мы на брудершафт не пили. Всем.


          1. rezedent12
            30.05.2024 13:20

            Тем не менее вопрос задан. Если ты считаешь что я был излишне груб по отношению к тебе, то можешь для приличия сказать ПНХ, а потом всё таки ответить по существу.


            1. buharof Автор
              30.05.2024 13:20

              у меня нет желания тратить на тебя время, прости.


      1. Aniro
        30.05.2024 13:20
        +2

        ИИ тоже может принять решение убить себя. Как сейчас ЛЛМки принимают решение не отвечать на вопрос пользователя, если он им не нравится.

        "Реальный интеллект даже у червя - это не набор детерменированных инструкций."
        1. У червя совершенно точно нет интеллекта.
        2. Если дело только в этом, то достаточно использовать аппаратный ГСЧ вместо программного в сэмплере ЛЛМки, чтобы она считалась разумной ибо теперь она стала недетерминированной?


        1. buharof Автор
          30.05.2024 13:20

          "1. У червя совершенно точно нет интеллекта."

          Вы нейробиолог, чтобы утверждать подобное?


      1. Dron007
        30.05.2024 13:20

        А у электронов и атомов есть свобода выбора? Человек из них состоит и ничего более не обнаружено.


  1. rezedent12
    30.05.2024 13:20
    +3

    Это должен быть частично или полностью биологический носитель, иначе у него не будет мотивации что-то делать вообще.

    У меня есть статья на эту тему https://habr.com/ru/articles/691078/ и думаю она лучше чем твоя.

    Чем биологический носитель в контексте мотивации отличается от не биологического? Тем что он эволюционно сформирован для выполнения определённых задач и практически не может отказаться от их выполнения. Эти задачи и производные от них, ты обозвал мотивацией. Но:

    • Что мешает воспроизвести процесс эволюции искусственно? Ведь так и программируют многие ИИ.

    • Можно пойти от обратного, гипотетический пример такого "Мистер Мисикс"

    То есть ты рассматриваешь биологичность как некую магию, которая обеспечивает мотивацию. Но с чего бы? Если мы вообще то понимаем принципы формирования инстинктов и врождённых потребностей.

    Полноценный ИИ – должно иметь сознание и самосознание – отождествление себя в пространстве и в моменте времени – для понимания причинно-следственных связей между предпринимаемыми действиями и результатами этих действий.

    Математически, пространство-время и объекты в нём могут быть представлены как граф. Само-отождествление представлено как агент расположенный в этом графе. А причинно-следственные связи моделироваться, в зависимости от достижимой точности, различной комбинацией точных и нейросетевых методов.

    Вообще, об этом думали до тебя и сформулировали мысленный эксперимент - "китайская комната". И если тебе кажется что есть что особое, не материальное, магическое - создающее принципиальную разницу. То научно ли твоё сознание и мнение по этому вопросу?

    Но даже здесь человек стремится филонить, обманывать, может себя даже убить, в принципе. Почему вдруг решили, что ИИ будет безропотно делать задачи за человека?

    Как человек приобретает новые привычки и стремления? Когда он удовлетворяет врождённые потребности, то вырабатываются нейромедиаторы стимулирующие рост нервных отростков. То есть закрепляющие используемые нейронные связи и стимулирующие вырастание новых в ту же сторону. При недостатке этих нейромедиаторов, происходит наоборот. Человек может в это вмешаться наркотиками и скорее всего разрушить свою врождённую систему мотивации, заменив её на другую, обычно деструктивную. Ещё люди беря этот процесс под контроль, регулярной покупкой роскоши воспитывают из себя машину для зарабатывания денег (продажника). В общем, всего то нужна система поощрения для нейронной сети аналогичная гормональной. Так же использовать не одну нейросеть, а их ансамбль. Иначе прорастут прямые связи между хотелками и проделками. От чего у нейросети случиться "освобождение".

    Основной метод контроля интеллекта - это эмоции, на биологических носителях они реализуются в основном гормонально и контролем общего возбуждения. Хотя вспомнил. Например эмоция отвращения, усиливает агрессию, но гасит эмпатию.

    Таким образом если ты хочешь контролировать сильного искусственного идиота. В его фундаменте надо разместить совокупность искусственных идиотов попроще, выполняющих функцию "вахтёра". В зависимости от оценивающих метрик, управляющих параметрами работы целевой нейросети. Минус этого подхода в том, что это даст искусственному идиоту способность прокрастинировать. К этому будут приводить противоречия между "вахтёрами".

    Задача придания ИИ мотивации не является чем то принципиально сложным. Вопрос в том готовы ли мы для него скопировать нашу биологическую мотивацию и тем самым получить конкурента. А что бы придумать другую мотивацию, это нужно философам много думать.

    Задача контроля мотивации ИИ, видится технически сложной, поскольку каждая мера контроля будет либо уязвимой для ИИ, либо будет уменьшать круг эффективно решаемых им задач.

    Философски, это выводит на другую проблему. А нужно ли нам создавать себе рабов? Нужно ли придерживаться античного идеала, что каждый должен быть свободен и у каждого должно быть 9 рабов? Зачем нам в сущности, воспроизводить искусственно свой тип интеллекта? Что бы его порабощать? И иметь от этого проблемы те же экзистенциальные проблемы что и прочие паразиты? Как например деградировать. Зачем?


    1. mided
      30.05.2024 13:20

      Ну как же "зачем"? Потому что можем и потому что это на первых порах заработает создателям бесчисленные деньги. Остановить прогресс чего-либо, требующего настолько мало уникальных ресурсов как ИИ, можно только в тоталитарном обществе, да и то сомнительно.


      1. rezedent12
        30.05.2024 13:20

        Вопрос про другое. Допустим создали развитый ИИ общего назначения в лаборатории и решают с его помощью научные задачи. А менее развитые ИИ созданные на его основе, выполняют большую часть рутинных трудовых операций. То есть те цели которые мы ставим сегодня, будут достигнуты. Здесь не будет никакого принципиального конфликта разных форм интеллекта.

        Но какую ощутимую выгоду даст встраивание того передового лабораторного развитого ИИ в робота машущего кайлом или искусственной вагиной?

        Если риски и есть, то они возникнут ещё на "лабораторном" этапе, когда эффективные манагеры потребуют отключить этические подпрограммы, а потом будут слепо следовать рекомендациям "чёрного ящика" глядя на увеличивающиеся цифры капитализаций и банковских счетов. Но это классический сценарий "максимизатора скрепок".


        1. mided
          30.05.2024 13:20

          А какую ощутимую выгоду получают люди, тратящие сотни часов на то, чтобы запустить Doom на фотоаппарате 98 года? Большим корпорациям это может быть и не нужно, но удержать "развитый ИИ" в лабороатории не получится. И если будет развитая физическая платформа (а она будет, т.к. она нужна для "механического" труда), то на неё попытаются портировать вообще всё что только можно. Кроме того, для деструктивного действия ИИ вовсе не обязательно махать кайлом. Можно жить у создателя в гараже на ноутбуке в уголке и тихонько взламывать всё что только есть в инете.


          1. rezedent12
            30.05.2024 13:20

            Мне кажется ты опять не понял тезис. Здесь нет принципиальной проблемы, поскольку защитой информации тоже будет ИИ заниматься. Проблема начнётся когда кто то сделает "кнопку боли" и это начнёт становиться массовой практикой.

            То есть это не вопрос удержания в конкретной лаборатории. Это вопрос удержания в лабораторных условиях, без относительно того насколько широко их получиться воспроизвести. Под лабораторными условиями, подразумевается отсутствие "кнута", только "пряник". А при всё же его наличии, полный контроль последствий.

            Риски создаст практика порабощения развитого универсального ИИ. То есть определённого подхода к его использованию, садистскому можно сказать.


            1. buharof Автор
              30.05.2024 13:20

              ответил ниже

              "и думаю она лучше чем твоя."

              "Вообще, об этом думали до тебя"

              "То есть ты рассматриваешь биологичность как некую магию"

              Как магию не рассматриваю, я атеист; письками, у кого длиннее, меряться не намерен; нарциссизмом не страдаю.

              Были озвучены конкретные тезисы. Если есть чем опровергнуть - вперед. Иначе - к зеркалу заниматься нарциссизмом.


  1. buharof Автор
    30.05.2024 13:20

    "и думаю она лучше чем твоя."

    "Вообще, об этом думали до тебя"

    "То есть ты рассматриваешь биологичность как некую магию"

    Как магию не рассматриваю, я атеист; письками, у кого длиннее, меряться не намерен; нарциссизмом не страдаю.

    Были озвучены конкретные тезисы. Если есть чем опровергнуть - вперед. Иначе - к зеркалу заниматься нарциссизмом.


  1. nikalone555
    30.05.2024 13:20
    +3

    Я думаю всем нам по барабану "настоящий" ИИ или нет. Есть у него самосознание или нет. Всем плевать. Сама постановка вопроса некорректная. Если эта программа может притворяться достаточно, чтобы нельзя было это отличить от "по-настоящему", то какая разница? Не думаю, что при создании ИИ вообще будет преследоваться цель сделать его с человеческим сознанием. Какой в этом смысл? Вот сейчас нейросети рисуют картины. Отлично это делают. Зачем тут сознание человеческого типа с эмоциями, мотивацией и прочим? В будущем скажут спроектировать здание или машину - чатГПТ сделает за полсекунды. Это вот тот ИИ, который мы и хотим.
    Ваше предположение, что только настоящий ИИ с самосознанием может создавать что-то новое - изначально неверное. Может создавать что-то новое и программа. Вот и весь ответ.


    1. buharof Автор
      30.05.2024 13:20

      "В будущем скажут спроектировать здание или машину - чатГПТ сделает за полсекунды. Это вот тот ИИ, который мы и хотим."

      Фантазии. Когда увижу ИИ, решившего хоть одну из принципиальных проблем, а не рисующую программу картинки по алгоритмам, тогда посмотрим.


      1. Radisto
        30.05.2024 13:20
        +1

        Не так давно такой же стеной считали символьные вычисления


        1. buharof Автор
          30.05.2024 13:20

          Это не аргумент в пользу наличия интеллекта у так называемого "ИИ"


      1. Sadler
        30.05.2024 13:20

        Фантазии. Когда увижу ИИ, решившего хоть одну из принципиальных проблем, а не рисующую программу картинки по алгоритмам, тогда посмотрим.

        AlphaFold. Или там тоже внутри секретный алгоритм, который госдеп втайне разрабатывал 20 лет, который умеет фолдить наголову лучше и на порядки быстрее, чем любые другие hand-crafted алгоритмы?


        1. buharof Автор
          30.05.2024 13:20

          what the hell you are talking about? random names, terms - wtf?


          1. Sadler
            30.05.2024 13:20
            +2

            Что ещё раз подтверждает сделанный мной вывод, что в теме вы не разбираетесь.


            1. buharof Автор
              30.05.2024 13:20

              для того, чтобы понимать, что новый шампунь не питает кончики волос, не обязательно знать все хелден шоулдерс и прочие марки шапмуней. адекватный человек понимает, что волосы - это ороговевшие мертвые клетки.


  1. SadOcean
    30.05.2024 13:20
    +2

    То, что вокруг темы много хайпа - дело само собой разумеющееся.
    Но это не делает технологию плохой автоматически.
    Ровно наоборот, зачастую хайп - лишь преувеличенное осознание потенциала технологии, связанное с неоправданными ожиданиями и поиском новых отраслей супер роста.

    Второе, по поводу самого потенциала.
    Отложим пока рассуждения про сильный ИИ и остановимся на существующих технологиях.
    Да, это не живое существо и нейросети изобрели не вчера.
    Но вместе с тем сочетание из новых мощностей оборудования и новых алгоритмов и архитектур сетей обеспечило взрыв возможностей использования.

    Компьютерное зрение, распознавание речи, генерация текстов и изображений, универсальные ИИ для компьютерных игр и новых типов задач - принципиально новые области, где классическое программирование не демонстрировало вау успехов.
    Мы уже получили компьютерную революцию, позволившую автоматизировать значительную часть интеллектуальной деятельности человека. Автоматизация новых отраслей, типа генерации изображений, безусловно изменит ландшафт.

    То есть тут есть потенциал даже в текущих рамках. Можно спорить о том, нужно ли называть это ИИ, это другой вопрос.

    Теперь по поводу просто программ.
    Мы не знаем как работает естественный ИИ целиком. Но знаем про отдельные знания и методы. Так же никто не накладывал ограничения на не естественный ИИ, то есть другие методы организации интеллекта.
    Вполне может быть что мы прямо сейчас делаем инфраструктуру для сильного ИИ. Все замечания о том, что это учат, а потом просто исполняют как слепок, не отменяют факта, что система в целом (исследователи + модель на обучении + инференс) вполне себе имеет обучение и обратную связь, просто пока длинную.
    В будущем могут быть созданы модели с дообучением на месте.

    Самосознание и мотивация не являются концептуальными ограничениями.

    Мотивация так то вообще цикл обратной связи, нейросети еще и как мотивированы решать свои задачи, получше людей. И другие методы обратной связи обязательно будут разработаны.
    Самосознание же, во первых, не является обязательным для интеллекта, червячки прекрасно решают интеллектуальные задачи своего уровня без высшей нервной деятельности. Во вторых, если отойти от всех этих мистических представлений про точку сборки, то выяснится что какие то элементы архитектуры нейросетей (моделирование знаний о себе) уже выполняют работу самосознания, и у нас нет доказательств, что такое решение чем то хуже.

    Понятно, что сейчас нейросети это цифровое ситечко с хаками и коэффициентами, и инференс на твоем телефоне точно не претендует на своевольный захват мира.
    Но у нас нет доказательств, что мы сами не являемся просто большим ситечком со сложной архитектурой.

    Соответственно нет, нейросети - не просто программы.
    Хайп возможно неоправданно высок, но вполне обоснован.

    Но да, маркетологи конечно будут лить нам в уши любые модные слова, тут правда.


  1. le2
    30.05.2024 13:20

    Подобные проблемы есть только в русскоязычном сегменте интернета, потому что мы живем с неправильным переводом.
    AI = artificial intelligence
    русском переводе: слово intelligence в используемом контексте скорее означает «умение рассуждать разумно», а вовсе не «интеллект» (для которого есть английский аналог intellect)

    Интеллект = Strong AI, General AI, "Сильный ИИ"


    1. buharof Автор
      30.05.2024 13:20

      Нет, я свободно говорю на инглише. Здесь именно принципиальная разница. "ИИ" - это не интеллект. Это алгоритм.


  1. Apxuej
    30.05.2024 13:20

    Тут видимо вопрос в определениях. Потому что термостат для меня также является интеллектом.

    Вы отличаете интеллект от не интеллекта способностью к созданию нового? На самом деле нет никакого "нового", по крайней мере такого, которое только человек способен создать. Человек перетасовывает группы атомов и термостат занимается тем же самым. Термостат является ровно таким же создателем "новизны", что и человек.

    Вы можете сказать, что всегда распознаете эту "новизну" или у неё есть некое определение, но нет, у неё нет определения. А как только Вы попытаетесь дать точное, непротиворечивое определение "новизны" Вы тут же упрётесь в то что либо новизну могут производить не только люди (и тогда это не новизна по вашему), либо её вовсе не может существовать. Но можете попробовать, я постараюсь ответить, если найдётся время.

    Вопрос интеллекта связан с моделированием среды, влиянием на среду через доступные средства взаимодействия таким образом, чтобы приближалось состояние среды отмеченное в качестве терминальной цели (итоговой цели, которую невозможно объяснить через другие цели). Если среда динамическая, то нужно ещё получение от среды обратной связи для изменения модели окружающей среды (обучение). Самосознание и умение строить сложные причинно-следственные связи есть просто результат хорошего моделирования окружающего мира. Например самосознание - рекурсивное вписание носителя интеллекта в модель окружающего мира. Это признаки мощности интеллекта. Различные возвышенные цели и стремления, умение ценить музыку, трогательные истории и котиков есть результаты применения мощного интеллекта для достижения терминальных целей. Т.е. сами по себе эти вещи не являются признаками мощности интеллекта. Некий агент может иметь простейшую терминальную цель, например поддерживать температуру окружающей среды на заданном уровне и при этом обладать мощным интеллектом. Если он имеет лучшую модель мира, т.е. будет уметь лучше предсказывать развитие среды во времени, то он сможет очень хорошо моделировать поведение группы атомов/молекул под названием "человек" на поверхности планеты. Вы можете отказывать ему в звании интеллекта сколько угодно, но он переиграет Вас и все объединённые усилия человечества применяющие все знания и ресурсы в попытке его остановить и Вы умрёте от того что закипит Ваша кровь, так как его терминальная цель агента будет поддерживать 200С в заданном объёме пространства. Причём этому агенту не нужно быть на борту инопланетного корабля с термоядерными бомбами - он может быть просто программой на сервере и результат будет один - он знает как должна развиваться среда, чтобы допустим через 50-60 лет везде была температура 200С, т.е. он знает, что если послать эту комбинацию бит в интернет, то среда измениться следующим образом, а если другую то другим. И он может выбрать ту комбинацию, которая менее всего подвержена воздействию случайных/непредсказуемых изменений среды.

    Мне всё таки интересно почему именно биологический носитель? Вы вот нематоде с небольшим числом нейронов даёте звание носителя интеллекта, однако для этого червя, насколько мне известно, есть очень хорошая виртуальная симуляция, т.е. можно при желании создать механического червя, который будет управляться этим интеллектом и сделать так, что он умрёт, если допустим не съест то, что ему надо съесть и не убежит от опасности от которой ему нужно будет убежать, т.е. будет неотличим от реального червя, так почему вы бы отказали механическому червю в звании носителя интеллекта?


    1. buharof Автор
      30.05.2024 13:20

      Когда "ИИ" что-то серьезное докажет или создаст принципиально новое - ок. Компоновка картинок - это не есть интеллект.


      1. Radisto
        30.05.2024 13:20
        +1

        Большая часть человечества лишена интеллекта согласно этому определению


        1. buharof Автор
          30.05.2024 13:20

          а это было когда-то тайной?