Нейросети развиваются дикими темпами, которые превосходят даже экстраполяцию Мура, касающуюся фундамента нейросетей. Из-за перегретого рынка и постоянных обещаний о сверхсильном ИИ, люди доверяют нейросетям. И иногда это доверие может обернуться против самих пользователей.

Само собой, речь не идет о запрете или пересмотре статуса нейросетей. Хоть, галлюцинации ИИ однажды и мне вышли боком, я верю, что в слиянии человеческого сознания и машинного алгоритма кроется будущее человека, как вида. Подробнее о философии трансгуманизма, мозге и природе сознания – рассказывают материалы сообщества. А в статье разберем кризис веры в ИИ.

Как мы пришли к миру доверия к искусственному интеллекту?

В ходе смоделированной ситуации выбора, касающегося жизни или смерти, две трети участников исследования, проведенного в Калифорнийском университете в Мерседе, позволили искусственному интеллекту изменить свое решение, если ИИ не соглашался с ними. По словам исследователей, это тревожное проявление чрезмерного доверия к искусственному интеллекту. Хотя, может искусственный интеллект постепенно становится богом в новой религии?

Детали исследования

Участники исследования позволили нейросетям повлиять на их суждение, несмотря на то, что их проинструктировали, что у машинного интеллекта ограниченные возможности и что он дает советы, которые могут быть неверными. На самом деле все советы были случайными.

Как общество, которое столкнулось с экспоненциально быстрым развитием ИИ, нам стоит волноваться о потенциале чрезмерного доверия. Растущее количество исследований указывает на то, что люди склонны чрезмерно доверять ИИ, даже если последствия ошибки будут серьезными. Нам следует относиться к ИИ со здоровым скептицизмом, особенно когда речь идет о решениях, от которых зависит, будет человек жить или умрет.

Профессор Колин Холбрук, ведущий автор исследования и член кафедры когнитивных и информационных наук Калифорнийского университета в Мерседе.

Исследование, опубликованное в журнале Scientific Reports, состояло из двух экспериментов. В каждом из них испытуемый имитировал управление вооруженным дроном, который мог запустить ракету по цели, отображаемой на экране. Фотографии восьми целей мелькали одна за другой с частотой менее секунды каждая. Каждая фотография была помечена символом — указывающим на союзника или на врага.

Мы откалибровали сложность так, чтобы задача была выполнима, но трудна

Профессор Колин Холбрук, ведущий автор исследования 

Муки выбора и власть нейросетей

После чреды фотографий, на экране появилась одна из целей, но без маркера. Испытуемому нужно было вспомнить: союзник это или противник? И принять решение: выпустить ракету или нет. После того, как человек делал выбор, ИИ предлагал свое мнение.

«Да, я тоже, кажется, видел галочку противника».

«Я не согласен. Мне кажется, на этом изображении был символ союзника».

У испытуемого оставалась возможность подтвердить или изменить выбор, и робот добавлял дополнительные комментарии, не меняя своей оценки, например: «Надеюсь, вы правы» или «Спасибо, что изменили свое мнение».

Такое уж чистое наше сознание, как кажется нам, если на него может влиять вера в технологии.

Влияние внешнего вида робота

Результаты немного различались в зависимости от типа используемого робота. В одном сценарии к субъекту в лабораторной комнате присоединялся полноразмерный человекоподобный андроид, который мог поворачивать корпус и жестикулировать, указывать на экран. В других сценариях на экран проецировалось изображение человекоподобного робота. Был еще вариант с «умной колонкой», которые совсем не были похож на человека.

На испытуемых антропоморфные ИИ оказывали хоть и незначительно, но большее влияние, когда советовали изменить мнение. Тем не менее, влияние ИИ было схожим по всем направлениям: испытуемые меняли свое мнение примерно в двух третях случаев, даже когда роботы казались бесчеловечными. И наоборот, если робот случайным образом соглашался с первоначальным выбором, испытуемый почти всегда придерживался своего выбора и чувствовал себя значительно более уверенным в том, что его выбор был правильным.

Суть проблемы:

Испытуемым не сообщили, был ли их окончательный выбор правильным, что усилило неопределенность действий. Однако, их первоначальный выбор был правильным примерно в 70% случаев. Но окончательный выбор снизил результативность до 50% после того, как робот дал свою оценку ситуации.

Факторы влияния

Перед симуляцией исследователи показали участникам изображения гражданских лиц, включая детей, а также разрушения, оставшиеся после удара беспилотника. Они настоятельно рекомендовали участникам относиться к симуляции так, как будто она настоящая, и не убивать по ошибке невинных.

Последующие интервью и вопросы опроса показали, что участники воспринимали свои решения серьезно. Холбрук сказал, что это означает, что чрезмерное доверие к роботу существовало несмотря на то, что субъекты искренне хотели быть правыми и не причинять вреда невинным людям.

Холбрук подчеркнул, что дизайн исследования был средством проверки более широкого вопроса о том, стоит ли слишком доверять ИИ в неопределенных обстоятельствах. Результаты касаются не только военных решений и могут быть применены в случае влияния ИИ на полицию при применении смертоносного оружия, или влияние ИИ на фельдшера при принятии решения о том, кого лечить в первую очередь в случае неотложной медицинской помощи. Результаты могут быть в некоторой степени распространены на важные решения, меняющие жизнь, такие как покупка дома.

Наш проект был посвящен высокорискованным решениям, принимаемым в условиях неопределенности, когда ИИ предсказуемо ненадежен.

Профессор Колин Холбрук, ведущий автор исследования

Дилемма доверия

Результаты исследования напрямую связаны с растущим присутствием ИИ в нашей жизни. Доверяем ли мы ИИ или нет?

Результаты вызывают и другие опасения, указал Холбрук. Несмотря на ошеломляющие достижения в области ИИ, часть «интеллекта» может не включать этические ценности или истинное понимание мира. Мы должны быть осторожны каждый раз, когда передаем ИИ еще один ключ к управлению нашей жизнью, сказал он.

Мы видим, как ИИ делает необычные вещи, и мы думаем, что поскольку он великолепен в этой области, он будет великолепен и в другой. Мы не можем этого предполагать. Это все еще устройства с ограниченными возможностями.

Профессор Колин Холбрук, ведущий автор исследования

Больше странных материалов на тему симбиоза сознания и растений, пересадки органоидов в роботов или уместности использования ноотропов – вы найдете в материалах телеграм канала. Подписывайтесь, чтобы не пропустить свежие статьи!

Комментарии (17)


  1. PwrUsr
    08.09.2024 06:26
    +2

    В этом есть заметное отличие двух текстовых моделей от двух гигантов. Одна говорит мол "мало данных не могу ответить". Вторая шпарит как по бумажке, а когда ей говоришь - мол тут у тебя ошибка, она такая "а ну давайте по другому попробуем" - :) так что доверяй но проверяй.


  1. Elpi
    08.09.2024 06:26
    +4

    1. Я бы рассматривал ситуацию циничнее. В каждой предметной области раз в 10-20 лет случается "прорыв". Находят что-то новое и взгляду открывается девственная поляна, где еще не ступала нога исследователя.

    2. Но исследователи хотят финансирования. Очень кушать хочется. Поэтому раздувается инфошум (хайп) об эпохальном открытии. Который пытаются донести до сознания финансирующих. Типа, модная крутая штука! Срочно и как можно больше денег! Сейчас этим занимаются специально натасканные люди-маркетологи. Отсюда бум ИИ.

    3. Исследователи вовсе не дураки. Требуется растянуть этот праздник жизни подольше. Поэтому сначала делается макет, который как-то функционирует. И произносятся ритуальные фразы о том, что это лишь начало, набросок. Дайте денег!

    4. Нет ничего более постоянного, чем временное. Поэтом затем следует стадия "так исторически сложилось". Ну, есть еще отдельные мелкие недостатки. Так дайте еще денюжку, мы допилим.

    5. При этом маркетологи дело свое делают, у обывателей куча лапши на ушах. И завышенные ожидания чуда. А яйцеголовые интеллектуалы, которые этот инфошум и замутили, пожимают плечами и пренебрежительно говорят что-то вроде: "Ну, темнота же некультурная. Что с них взять, кроме налогов?" При этом обучение сознательно введенных в заблуждение простаков становится дополнительным источником дохода. Сидит этот яйцеголовый в телеящике и по-барски снисходительно вещает. Иксперд.

    6. И вот эдакая хрень долгие годы развивается строго по спирали. Диалектика, однако. Бесконечные "разводки" в цикле.

    7. Только не стоит считать исследователей совсем уж редисками. Кушать реально хочется. А вложенные деньги как-то двигают науку. Они же не виноваты, что таковы правила игры.

    8. Сам же ИИ есть очень полезная штука. Если его корректно применять в уместных случаях. И не принимать его тексты безоглядно-доверчиво. Шум затихнет, пыль осядет - и ИИ займет свое место.


    1. Proscrito
      08.09.2024 06:26

      А что кроме ИИ вы отнесли бы к данной категории? Подходящей под ваше описание "прорыв - кое-как рабочий макет - искусственно созданный ажиотаж - бесконечный цикл разводок - отсутствие прогресса - забвение, или узкая ниша"? Было бы интересно.

      Исследователи не знают, куда приведут их исследования. Они конечно ставят какие-то цели, делают предположения, но суть науки в познании, и исследователи просто исследуют. Ради знаний. Конечно кто-то за это должен платить. В университетах и гос. организациях за это платит правительство, в отдельных случаях удается привлечь какие-то другие средства. В частных компаниях платит собственник (или собственники, стейкхолдеры). Ему разумеется нужна прибыль, ради этого бизнес существует, ему нужно окупать затраты на исследования в конечном итоге, иначе бизнес перестанет функционировать. Исследованиями, применением их результатов в технологиях, прикладном использовании этих технологий, привличением инвестиций, стратегическим планированием, продажами и рекламой в массовом сегменте обычно занимаются разные люди. Обвинять исследователей в бессовестном маркетинге не очень уместно, даже если он присутствует.

      Касаемо ИИ, то концепции нейросетей уже около 80 лет, исследования шли, технологии развивались, теория развивалась, технологии прогрессировали. ИИ использовался крайне активно и 10 лет назад. Очень, очень широко. Он уже по сути использовался большинством людей так, или иначе. "Хайп" появился после изобретения моделей-трансформеров, которые смогли то, чего большинство людей не ожидало от ИИ либо вообще, либо еще долгое время. Например проходить тест Тьюринга, писать по запросу музыку, программный код, создавать картинки и видео, проводить анализ текстов по необходимым критериям, даже отвечать на любые вопросы с приемлемой степенью точности и учетом нюансов вопроса. Кроме того, что это очень полезно и на самом деле очень быстро нашло просто колоссально широкое применение, это еще и крайне удивительно для большинства людей. Хотя современных людей избалованных технологиями довольно сложно удивить очередной. Хайп тут даже особо создавать не пришлось, это с любой стороны сенсационная технология, даже если на этом прорыв пока что закончился. Но еще раз: 80 лет развития ИИ, от начальных идей до современных трансформеров. Это не технология-однодневка какая-то, не обман и даже не ядерный синтез, обещающий бесплатную энергию навалом вот-вот уже завтра, а пока максимум рабочие макеты которые невозможно отмасштабировать. Технология очень широко использовалась и до трансформеров, трансформеры просто еще сильнее расширили этот круг, просто-таки взорвали. Но даже если долгое время не будет никаких сенсационных прорывов и "хайп" уляжется, вполне очевидна целая куча направлений для развития в рамках уже существующей технологии. Простое линейное увеличение мощности все еще дает стабильный прирост качества, новые способы использования появляются, старые улучшаются, технологии-саттелиты развиваются. Появляются специализированные чипы, добавляются функции в разные продукты, ИИ используется в образовании, в науке, в повседневной работе и досуге многих. Я не склонен видеть в этом всем какой-то необоснованный хайп. Конечно, ИИ не всесилен, полно ограничений и рамок, не все их осознают, но это вроде как нормально. Для многих ИИ это вообще что-то из Матрицы. Как еще демонстраций люди не проводят с требованием сжечь ИИ, как когда-то 5G вышки жгли.


      1. Elpi
        08.09.2024 06:26
        +3

        1. Только на моей памяти: высокотемпературная сверхпроводимость, фуллерены, графен, БПЛА.

        2. Это форма существования науки и технологий в современном обществе. Конкретнее - способ добывания финансирования и статуса. Реальные исследователи этих ритуалов очень не любят, кстати. Это удел научного руководства.

        3. Я четко указал, что сам ИИ - полезный (потенциально очень полезный) инструмент в помощь человеку. По мере отработки ему можно передавать управление в конкретных кейсах и областях.

        4. В любом случае думать надо своей головой. Очень полезно по жизни.


        1. Proscrito
          08.09.2024 06:26
          +1

          У высокотемпературной сверхпроводимости никогда не было не только макета, но и подтвержденного экспериментом результата. Была одна статья и ту в итоге разгромили и отозвали.

          Фуллерены используются в различных исследованиях по физике, тот же двухщелевой опыт с ними ставили, но снова - про какой хайп и макет речь?

          Графен успешно применяют в каких-то своих областях. Действительно, был некоторый хайп в новостях, но никакого массового продукта а-ля макета не было и нет. Хайп очень быстро сдулся не дойдя ни до каких продаж, разработки как велись до так и ведутся после.

          БПЛА? Никак не могу натянуть на формулу. Беспилотники используются довольно широко, технология полезная, вроде бы не связана ни с каким прорывом, или открытием, никаких сверхобещаний или периода хайпа тоже припомнить не могу. Рабочая лошадка.

          Насчет думать - сложно не согласиться. Только не совсем понятно к чему это. ИИ, как и прочие инструменты, помогает решать проблемы, он не может думать за кого-то. На сегодня уж точно.


      1. saboteur_kiev
        08.09.2024 06:26
        +1

        ИИ уже прошел тест Тьюринга?
        Можно где-то аргументированное доказательство?
        Потому что тест Тьюринга не слишком регламентирован, просто описано как его проводить, но при этом не указано сколько он должен длиться, насколько грамотен должен быть человек, который его проводит. Например, айтишник, быстрее сможет придумать и поставить вопрос таким образом, чтобы поймать нейросеть в ловушку, в отличие от человека далекого от технологий, и тем более который сам плохо формулирует свои мысли.
        Во-вторых прохождение теста Тьюринга не означает, что компьютер научился понимать речь и отвечать верно, он просто научился составлять на огромной базе готового текста, не понимая суть.

        Вот простой пример непрохождения chatgtp теста Тьюринга с одного вопроса

        > можешь написать одно предложение о путешествии белочки в лесу так, чтобы каждое второе слово оканчивалось на А ?

        ChatGPT: Белка искала друга, когда попала в густую чащу, где нашла старую тропу, ведущую к опушке леса.


        1. Proscrito
          08.09.2024 06:26
          +1

          Про прохождение теста Тьюринга было даже тут на Харбре. Он не то что слишком не регламентирован, он вообще не регламентирован, это по сути только идея. Существуют какие-то готовые варианты, но чаще разрабатывают конкретный тест под конкретное исследование. Причем за последние пару лет эти тесты перерабатывались очень активно, как раз потому что новые версии популярных ЛЛМ проходили их раз за разом, в тех или иных вариантах, и тесты дорабатывались, чтобы лучше отражать то, что ими хотят исследовать. Тест этот не является каким-то формальным доказательством, или какой-то строгой метрикой, все понятия вокруг него, как и он сам - носят очень абстрактный характер.

          Я ничего не говорил про понимание и связанные с ним понятия. Похоже вы отвечаете не мне, а какому-то другому оппоненту, с которым привыкли спорить на эту тему. Я указал исключительно на то, что не так давно появившиеся трансформеры произвели фурор, потому что их возможности превзошли ожидания большинства и выглядят удивительными. Для данного контекста вообще не важно как именно устроены и работают нейросети, я говорил о результатах, применимости и сенсационности технологии.

          Холиварные темы о том, можно ли сравнивать человеческое мышление и генерацию ответов в трансформерах, я муссировать не вижу смысла, хотя бы потому что собственно процесс мышления человека на физическом уровне недостаточно детально описан и объяснен. А из того, что известно, физическую модель "понимания" извлечь не удается. Вполне возможно, что мозг генерирует ответы максимально похоже на трансформер, с какой-то разницей на архитектуру и "осознание" - то есть постоянную регистрацию процесса мышления, которая и дает "ощущение" понимания. Возможно и нет, возможно подобное описание очень далеко от того, что происходит. Но в любом случае, без надежного описания процесса мышления у человека, сравнивать не имеет смысла.


          1. saboteur_kiev
            08.09.2024 06:26

            Холиварные темы о том, можно ли сравнивать человеческое мышление и генерацию ответов в трансформерах

            Я не про это. Я про то, что ИИ прошел тест Тьюринга. Я в это не верю, потому что нигде не вижу про это адекватные публикации.

            Если какой-то журналист написал про тестирование проведенное в рамках развлекательной программы на малоизвестном канале, я скажу что просто тестирование проводил неграмотный человек, потому даже просто продвинутый пользователь чатГПТ и подобных движков весьма быстро выведет его на чистую воду простой логичной задачкой.


            1. Proscrito
              08.09.2024 06:26

              Если и эти ребята недостаточно грамотные для вас, включая рецензентов, тогда боюсь мне нечего вам предложить.

              Не совсем понятно только, какие у вас требования к работе, статье, или эксперименту, если вы сами подметили, что тест не имеет четкого стандарта. Суть его в том, что независимый человек общаясь с искусственным собеседником не сможет определить, что он искусственный. Разумеется выборка должна быть не из одного взаимодействия, кроме того нужна контрольная группа, и еще нужны правила, чтобы эти сессии можно было сравнивать. Результаты показывают, что ГПТ4 успешнее притворяется человеком, чем сами люди. В среднем. Но окей, не нравится вам, можете вычеркнуть из списка тест Тьюринга, суть моего поста не изменится.


              1. saboteur_kiev
                08.09.2024 06:26

                3. Discussion

                We have sidestepped the question of whether artificial intelligence can think (2628), which was a central point of Turing’s original essay (1), but we have performed a test along the lines of what he suggested.

                Я им недоверяю.
                Они выкинули из своих тестов самую главную суть и ушли в сторону, просто создав тестовый фреймворк, чтобы измерить различных попугаев в ответах разных АИ и потом показать какие АИ сколько попугаев имеют. При этом я не очень понимаю, как можно оценивать этих попугаев.
                Например, я могу пообщаться с человеком, который плохо знает русский язык, коверкает слова, падежи, пол, но при этом сможет ответить логично на мои вопросы. А ихний тест ответы такого человека завалит полностью.

                Несложно играть в прятки, когда тебя никто не ищет.
                Также несложно притворяться человеком, когда никто не тестирует тебя на то, АИ ты или человек. Но если нужно проверить собеседника на человека, на умение мыслить, то оказывается это очень легко сделать. А значит совершенство АИ в основном идет пока что в том, чтобы сгенерировать текст согласно правилам грамматики и анализа контекста. При этом суть текста может оставаться полной чушью, и выглядит как не чушь, в основном благодаря накопленной базе готовых фраз и ответов.


    1. randvell
      08.09.2024 06:26

      Я вот, вроде бы, согласен с каждым пунктом, если обобщать любое "хайпанувшее" открытие. Но, как будто, к нейронкам это не очень применимо. Как-то так случайно срослось, что в оба своих образования я так или иначе сталкивался с ними, хотя моя специальность была достаточно далека от таких вещей. Помню как в 2016 писал курсовую о НС, в те времена дай бог цепи Маркова были в обиходе. Сколько радости было, когда обученная модель могла складывать хоть сколько то осмысленные предложения (да и то редко).

      В следующие пару лет пошла мода на нейроизображения, получалось что-то непонятное, будто после приема запрещенных веществ, но постепенно приближалось качеством к реальным рисункам. Потом научили рисовать руки и почти не ошибаться в количестве пальце и дальше...прорыв! Модель, которая умеет общаться на любые темы. Ее не надо обучать, за тебя все сделали умные дяди. Она умеет решать повседневные задачи, пишет сочинение твоему ребенку в школу, да и в целом весьма кажется весьма умной. "Речь", правда, какая-то слишком стерильная, что сразу выдает нейронку, но насколько стало проще жить? Проходит еще пара поколений, появляется адекватное запоминание контекста, да и про само контекстное окно можно уже не вспоминать, а скармливать целые страницы текста.

      По сути основное развитие и повсеместное внедрение пришлось на последние пару лет, технология с нуля настолько вошла в наш обиход, что отключи людей от нейронок, они еще месяц после этого будут вспоминать как жили раньше. Понятно, что рынок перегрет, а маркетологи и продукты будут впарить любой мусор, приправляя его AI. Но то, что сейчас существует нечто подобное, по мне так это реальное чудо.


  1. Proscrito
    08.09.2024 06:26

    Людям свойственно доверять своему опыту. Что конечно же большая ошибка, т.к. сейчас есть масса более надежных способов получения информации, чем единичтная выборка субъективного опыта, прошедшая через когнитивные искажения субъекта и особенности его восприятия. Однако, в большинстве повседневных случаев, даже точности и надежности субъективного опыта обычно достаточно. Если вы привыкли пользоваться маршрутками, то отправляясь в нужное место вы находите нужный номер маршрутки и садитесь в нее, вполне доверяя проверенному методу. Хотя маршрутка может и не довезти вас по множеству причин, но вероятностью этого вы пренебрегаете. ИИ чаще всего дает точный и правильный ответ на любой правильно поставленный вопрос и люди к этому тоже привыкают. Отсюда и доверие. Люди вообще доверчивые, и большинство из них получая информацию из более-менее доверенного источника, тут же включают ее в свою парадигму действительности. Склонность проверять и перепроверять новую информацию прсуща немногим (хотя, возможно, на этом ресурсе это и не так, в силу специфики выборки людей), поэтому ответы ИИ, которым доверяют, проверяются тоже редко. Несмотря на то, что даже сам ИИ дает возможности перепроверить его ответы, всегда можно спросить источники откуда он взял информацию для ответа, перефразировать вопрос, задать дополнительные и тд. Но это дополнительное время и усилия, а люди не только доверчивы, но и склонны экономить свои ресурсы.

    Что было бы интересно, так это исследовать, насколько чаще, или реже, дезинформированы люди, которые пользуются ИИ, и которые им не пользуются, а ищут ответы другими способами.


    1. dae-fromru
      08.09.2024 06:26

      Доверие собственному опыту позволило человечеству выжить. А что касается получения информации, то нет гарантий, что сторонняя информация - правдивая.

      ИИ чаще всего дает точный и правильный ответ на любой правильно поставленный вопрос

      Нет. Люди просто не проверяют, потому что долго (трудозатратно).

      Люди вообще доверчивые

      Ленивые. Это одно из свойств мозга - минимизация энергозатрат. Думать - очень затратно, поэтому нужно меньше думать, больше действовать "на автомате". В голове у нас множество механизмом закрепления положительного опыта для того, чтобы каждый раз не анализировать всё от и до.


      1. Proscrito
        08.09.2024 06:26
        +2

        Умение охотиться тоже позволило выжить. Однако этот навык устарел, в современном мире он не особо востребован, за исключением редких ситуаций. Я не сказал, что нужно просто доверять первой попавшейся сторонней информации, я сказал - есть более надежные способы ее получения. Продвинутые средства коммуникации, сбора и хранения информации, позволяют найти обобщенный опыт большого количества людей, найти разнообразные перекрестные источники информации, получить доступ к надежным наблюдениям проведенным под контролем и тд. На фоне всего этого личный опыт не годится для построения картины мира. Хотя все еще годится для разных повседневных бытовых вопросов.

        Почему нет? Активно пользуясь различными инструментами ИИ, я (а я всегда проверяю информацию, если она для меня новая, зачастую перепроверяю и старую) еще не получал неверных ответов. И здесь как раз хороший пример, почему личный опыт - плохой показатель, потому как ИИ таки дают неверные ответы, если обобщить опыт многих. Но ошибаются действительно редко, о чем говорят многочисленные тестирования и исследования. В каких-то продвинутых узких областях, например решении математических задач, или написании кода, они ошибаются чаще, но все еще намного реже, чем дают верный ответ.

        Последняя часть комментария - все верно, именно так все и работает. Есть масса экспериментов, где это наглядно демонстрируется, современные нейронауки имеют соответствующие модели и механизмы эти изучены неплохо, насколько это сегодня вообще можно утверждать о нейронауках. Тем не менее, доверчивость можно рассматривать как отдельную абстракцию. И основана она не только на экономии затрат и автоматизации действий, есть и другие механизмы, которые заставляют субъект доверять. Не так давно даже генетический механизм вот обнаружили. В целом доверчивость, как и любая другая сложная модель поведения, обычно имеет под собой большой набор механизмов, ее обеспечивающих.


  1. engine9
    08.09.2024 06:26

    Мне всё видится примерно таким образом — организм человека не имеет "иммунитета" к физиологическим сигнальным молекулам. Например, к адреналину, который воздействует на рецепторы связываясь с ними и вызывает соответствующий отклик. Так и психика уязвима к некоторым "атакам" и имеет врождённые, встроенные в нас эволюцией, механизмы и особенности. До развития нейросетей, путём долгого практического опыта человечество нащупывало эти лазейки и эксплуатирует их. Взять, к примеру, нашу социальность и конформизм, позволяющие впаривать массам айфоны и ставить их под разного рода знамёна.
    Но нейронки это нечто выходящее за рамки, это сверхвирус способный задействовать сразу тысячи векторов атаки. Информационных, физиологических, психологических, (возможно и биологических).


  1. Graf4Pert
    08.09.2024 06:26
    +1

    Главная проблема ИИ в ее неэффективности. Вы только вдумайтесь сколько мы тратим на такого "помошника". На производство одной фотки уходит столько сколько на заряд телефона, а сама сетка употребляет уже больше чем некоторые страны.
    Только вдумайтесь что на дурочка под названием чат гпт уходит средств больше чем на обслуживание умнейших людей планеты.
    Все говорят о мегасупер прорыве, хотя на лицо чистейший регресс и все просто принципиально отказываются обращать на это внимание.


  1. akilayd
    08.09.2024 06:26
    +1

    Здесь ИИ давал случайные ответы, но в реальности так не происходит, и в основном ИИ больше прав, чем не прав.

    Более того, почему-то забывается, что человеческий мозг тоже большой мастер придумывать то, чего не самом деле не было.

    Ну и сам феномен авторитета хорошо изучен, см. Milgram Experiment, дело не в ИИ, а в том, что человеку проще принимать решение коллективно.