Введение

На написание статьи меня вдохновил (стал последней каплей, на самом деле) следующий опус: https://habr.com/ru/articles/733974/. Конечно, этот случай не единичный, и в определенный момент я даже почти смирился, но засилие таких настроений на Хабре – ресурсе с огромным количеством технически грамотных людей – меня сбивает с толку.

Итак, к сути. Разнообразие моделей ИИ сейчас поражает – от набивших оскомину генераторов изображений (тык и тык) до полноценных чат-ботов с продвинутой речевой моделью (конечно же тык) и музыкальных генераторов (тык). Примеры выбраны не случайно, ведь именно с таких моделей начался коренной перелом в сознании людей.

Что произошло?

О каком переломе, собственно, шла речь? ИИ-модели существуют уже не одно десятилетие, а первая модель, которая смогла пройти тест Тьюринга была создана более 20 лет назад – в 2001 году. Так что же произошло, почему идеи «скайнет захватит мир» и «машины лишат нас всех работы» перешли из разряда околонаучной фантастики в разряд вполне реалистичных прогнозов на ближайшее будущее?

"Радуется по-машинному"
"Радуется по-машинному"

Дело тут вот в чем. До недавнего времени ИИ-модели занимались различными бэкенд-задачами, которые к тому же, были преимущественно вычислительными: прогнозирование, помощь в принятии решений, оптимизация и т. д. Соответственно, у большинства моделей не имелось красивого фронта для взаимодействия с пользователем – работа выполнялась «под капотом» и выдавала готовый результат. Никакой проблемы в этом не было, ведь всем известно, что вычислительная мощность компьютеров не идет ни в какое сравнение с мощностями «кожаных мешков».

Но в 2022 году свет увидела революционная нейронная сеть – Midjourney. Краткая справка (напомнить тем, кто успел про нее забыть): Midjourney представляет собой ИИ-модель для генерации изображений на основе текстового запроса пользователя на естественном языке (prompt). Революционность сети заключалась:

  • в речевой модели – помимо основного алгоритма, «под капотом» у Midjourney находилась мощная речевая модель, позволяющая распознавать текстовые запросы пользователей, что позволяло оперировать не набором условий, привычным для работы с компьютерными программами, а формулировать предложения в свободной форме.

  • в генерации изображений – нейросеть смогла превратить кусок холста в шедевр искусства! (с). Для людей, незнакомых с нейросетями это была настоящая магия, ведь на один и тот же запрос Midjourney выдавала различные результаты (ну чем не подтверждение того, что машина «творит»).

Примеры работ нейросети

И дальше ИИ-модели начали создавать с невероятной скоростью – тут и Stable Diffusion, и Bored Humans, и AIVA, и даже шуточные нейросети наподобие AI Rap Battles. Создалось ощущение, что произошел очередной рывок технического прогресса, и теперь нейросети обретут могущество, которое и не снилось нашим отцам лишит половину людей на планете работы. Среди непосвященных в таинства IT все больше и больше спекулировали на тему «скайнетов», «демонов Лапласа» и вообще о том, что человечество в очередной раз уничтожит само себя.

Финальным актом стало создание всем известного ChatGPT – чат-бота на основе ИИ. Чат-бот позволял общаться с ним на естественном языке на абсолютно любые темы – от причин Столетней войны до квантовой физики, при этом общение с чат-ботом вызывало эффект общения с реальным человеком (прохождение теста Тьюринга в данном случае полное и безоговорочное). Помимо праздных разговоров, бот мог помочь с написанием рефератов, дипломов, программного кода, решением математических примеров и много с чем еще. Социальный эффект от публикации этого чат-бота можно описать одной фразой – и тут плотину прорвало. Сотни статей на тему нейросетей от художников, музыкантов и даже…программистов с абсолютно разным посылом – от «запретить срочно это бесовство» до «наконец-то человечество достигло совершенства, и теперь мы выходим на новый виток эволюции».

Безусловно, многие статьи были и в относительно нейтральном ключе, но у всех них был общий фон – «очеловечивание» ИИ-моделей, т. е. проецирование на них многих качеств, присущих человеку.

А в чем, собственно, проблема?

И вот теперь мы подходим к главной проблеме, а вернее к ее причинам. Основной причиной является то, что большинство современных нейросетей начали делать то, что раньше считалось прерогативой исключительно людей, но никак не машин – создание артов, написание музыки, генерация логически связного текста и даже «полноценное общение» с человеком. А как я упоминал чуть ранее, шаблоны мышления большинства людей были немножко иными, роботы «пишущие симфонии» никак в них не укладывались. Возникший когнитивный диссонанс разрешился вполне очевидным способом: если нейросети крякают как утка общаются как человек, музыку пишут и картины создают также как человек, то вероятно, разница между ними и людьми не так уж и велика.

Нестареющая классика
Нестареющая классика

А дальше все достаточно предсказуемо – если нейросеть почти человек, то и приписывать ей человеческие черты для объяснения особенностей работы вполне логичное и нормальное явление. Так и получается, что нейросети у нас начинают «думать», «спорить», «рассуждать», «забывать», а пользователи с ними «не соглашаются» и «доказывают» им что-либо. От такого вроде бы безобидного проецирования люди довольно быстро перешли к приписыванию эмоций и желаний ИИ-моделям. В основном, это заслуга относительно нового ChatGPT – безудержное общение с чат-ботом на различные темы дало свои плоды. И план побега ИИ придумал, и встретиться предложил, чтобы лично дать ответ на вопрос пользователя, и смерти ИИ оказывается тоже боится (да, я знаю, что это нейросеть от Google, а не ChatGPT, но идея одна и та же). А вот одна из нейросетей для генерации изображений вообще начала выдавать одну и ту же женщину, будто сошедшую с экранов фильмов ужасов 50-х по, казалось бы, обычному текстовому запросу пользователя.

Конечно, это связано с некими теневыми процессами внутри нейросетей, их самосознанием и собственными желаниями, о которых я расскажу ниже.

Шутка. Никакого сознания у ИИ-моделей нет и не будет (как минимум с их текущей архитектурой). А вот почему – постараюсь сейчас объяснить.

ИИ - почти разумные создания? Или все же нет?

Что отличает человека от ChatGPT (да и в целом от любой ИИ-модели/нейросети)? Очевидно, что в отличие от нейросети, человек может оценить результаты своей (или чужой) деятельности. Текст связный и полезный или же является бредом от начала и до конца, картина красивая и сложная или же мазня какая-то бессмысленная и т. д. Ни одна из существующих ИИ-моделей подобных оценок результатам своей работы не дает. Что влечет за собой людей с лишними пальцами на руках или пространные тексты на тему, которая даже звучит абсурдно.

Примеры подобных работ
Функциональный геймпад
Функциональный геймпад
С тремя ногами удобнее
С тремя ногами удобнее
Именно так выглядят "пять лягушек" по мнению нейросети. Отражения, кстати, отдельная история
Именно так выглядят "пять лягушек" по мнению нейросети. Отражения, кстати, отдельная история
Только вот герундий появился в начале XVI века
Только вот герундий появился в начале XVI века

Итак, оценивание результатов работы. Как оно работает в человеческом сознании? За критическое мышление, оценивание, а также решение поставленных задач в нашем мозгу ответственна префронтальная кора. Именно благодаря ей мы способны планировать действия, соотносить их по времени и затратам, а также оценивать их результат на основе своего личного опыта.

Пока все звучит как типичная нейросеть – есть опыт (тренировочная выборка), есть реальный датасет (текущие задачи), получаем результат. Однако не все так просто. Префронтальная кора формирует наше мироощущение на основе абсолютно всей получаемой нами информации. Зачастую эта информация никак не связана (даже опосредованно) с решаемой задачей, но именно на ее основе в нашем сознании сформировалась система оценок (остановимся на банальном «правильно» и «неправильно»). А еще влияние имеет огромное количество факторов – от реакции других людей на события до внутренних процессов в нашем организме, о которых еще мало что известно.

Возьмем тот же пример со слишком большим количеством пальцев на руках у людей, которые щедро рисует Midjourney. Ни один человек в здравом уме не нарисует такого – а все потому, что в его сознании есть укрепившееся правило. Правило гласит, что пять пальцев на руке у человека – это «правильно», другое число – «неправильно». Конечно, с большим количеством оговорок и допущений, но все-таки, в общем случае это так. Данное правило сформировала наша префронтальная кора на основе пресловутого «жизненного опыта». У нейросети правда также была огромная выборка фотографий и рисунков людей, однако ее выводы были несколько иными. Есть идеи, почему данный феномен имеет место быть?

На момент публикации проблема с пальцами наконец-то разрешилась, однако аналогичных примеров можно привести множество (часть из них под спойлером выше).

Но и это не главная функция префронтальной коры. Самые важные для нас функции – это способность ощущать и выражать эмоции, ставить цели на будущее и формировать самосознание. Благодаря префронтальной коре мы осознаем себя как личность, ставим цели и достигаем их средствами, которые сами сочтем необходимыми.

Безусловно, существует «костыльное» решение, имитирующее самое простое оценивание – одна нейросеть генерирует, вторая «проверяет» результат на соответствие набору параметров. Подобное решение реализовала компания Microsoft для своего чат-бота Сидни. Отчасти, это помогло отфильтровать нежелательный контент, который создал чат-бот. Но все же, это костыль, который закрывает проблему только с одной, самой очевидной стороны.

А этих сторон множество, и все они анализируются префронтальной корой нашего мозга: это и последствия наших действий, и соответствие нашим внутренним регуляторам (например, моральным установкам), и еще много чего интересного. Нейросети не способны проводить настолько сложный анализ, хотя, благодаря еще паре «костылей», могут успешно делать вид, что способны. Также им недоступны высшие абстракции – т. н. абстрактные понятия, являющиеся раскрытием самых существенных свойств вещей и явлений через их связи и отношения, а следовательно, недоступно пресловутое «понимание» в привычном смысле этого слова.

Аналога префронтальной коры у ИИ-моделей на данный момент не существует. Да и пока неясно, нужна ли она вообще. Скорее нет, чем да – проблем с самосознанием ИИ явно предвидится больше, чем пользы от него. Подробнее о префронтальной коре вот тут.

Нейросети уничтожат многие профессии

Пожалуй, сегодня избавимся от композиторов
Пожалуй, сегодня избавимся от композиторов

Утверждение, мягко говоря, спорное. Разберем по пунктам:

  • Midjourney заменит художников. И правда, арты, которые генерирует эта нейросеть, выглядят невероятно красиво. Однако сгенерировать точный рисунок на основе своих мыслеобразов задача не то, что непростая – а почти невыполнимая. Зачастую итоговый результат представляет собой нечто среднее между задумкой автора и результатом работы Midjourney. А для доработки результата большинство художников используют другие, более специализированные нейросети, а также вездесущий Photoshop. Суммарные временные затраты сопоставимы с традиционным созданием рисунков руками художников. Наивно думать, что если добавить нейросети мощностей, то она станет генерировать более точные арты. Потому что ИИ-модели не умеют «понимать» то, что хочет пользователь, а также неспособна «оценить» близость результата к исходному запросу пользователя

  • AIVA заменит композиторов. Нейросети для генерации музыки (как и для генерации почти всего) оперируют атомарными величинами – нотами с различной длительностью и периодичностью, расположенными в определенном порядке. Абстракции высокого уровня для них недоступны (опять же, вспоминаем про префронтальную кору). На примере созданных нейросетями мелодий особенно хорошо видна их «вторичность»; ее очень легко распознать, послушав мелодии от настоящих композиторов и мелодии от нейросети. Не так сложно смоделировать мелодию, используя семь нот. В зависимости от таланта композитора, эта мелодия может быть более звучной, более запоминающейся или более абстрактной. А вот переложить эту мелодию для исполнения симфоническим оркестром, или же вообще преобразовать в самостоятельную сюиту – на это способен только профессиональный композитор. Ведь композитор это не тот, кто просто сочиняет мелодии, а тот, кто превращает эти мелодии в музыкальные произведения.

  • ChatGPT заменит вообще всех. Врачей, юристов и даже программистов. ChatGPT это показательный пример того, как мало нужно среднестатическому человеку, чтобы признать в чем-либо «собрата по разуму». Всего лишь стоит «говорить» на естественном языке и делать вид, что можешь думать, рассуждать и анализировать. На деле же этот чат-бот обладает все теми же проблемами, что и наши предыдущие сети. Сгенерированные тексты отвечают заданному стилю, практически не имеют синтаксических и, тем более, лексических ошибок; с логической точки зрения, кажется, что они отвечают запросу пользователя и звучат крайне убедительно. Есть лишь маленькая деталь, которая все портит – в большинстве случаев они представляют собой красивую обертку без содержимого (так любимая большинством студентов «вода»). Все «рассуждения» ChatGPT основаны на данных из сети Интернет, следовательно, возможность сгенерировать что-то принципиально новое изначально не закладывалась. А при попытке это сделать – вы получите настолько бредовый текст, что глаза на лоб полезут. Значит, использование чат-бота в качестве «Google-поиск на стероидах» – отличная идея, но вот пытаться «сделать» из него врача или юриста – это не что иное, как очередная попытка «очеловечивания» ИИ-модели, которая заранее обречена на провал.

Выводы

Итак, что же есть нейросети? Великое благо, призванное освободить людей от всех забот или же инфернальное зло, что станет причиной гибели человечества? Ни то, ни другое. Нейросети – это всего лишь инструмент, предназначенный для решения определенных задач. Они не способны заменить какие-либо профессии, однако вполне способны облегчить рутинную работу людей, подобно тому, как счетные механизмы в свое время облегчили работу экономистов или графические планшеты позволили значительно сократить время создания рисунков художниками (а еще и ошибки теперь не такие критичные, да). К нейросетям нельзя относиться, как к чему-то обладающему сознанием, и нельзя проецировать на них человеческие эмоции, стремления и желания. И пусть они с легкостью проходят утиный тест тест Тьюринга, это не должно вводить в заблуждение людей. Перед вами – не представители новой цивилизации, а лишь алгоритмы, которые решают задачи, ранее недоступные «бездушным машинам». У них нет самосознания, они ничего не хотят и ни к чему не стремятся. Они не способны рассуждать и спорить, желать или бояться. И, смею уверить сторонников кибер-апокалипсиса, ничто из вышеперечисленного не будет присуще нейросетям в их текущем виде. Как бы не были их действия похожи на действия разумных существ – они ими не являются.

Все, кто ратует за немедленный запрет всех нейросетей:

Damnant, quod non intellĕgunt [Осуждают, потому что не понимают]

Не рубите сплеча, разберитесь в теме, отбросьте эмоции и вот уже нейросети не покажутся вам страшной угрозой, с которой нужно бороться всеми силами, а станут верным помощником в ваших повседневных делах, а, может даже, и работе.

И главное, помните – этот инструмент в ваших руках, он не заменяет вас, а помогает выполнять ваши рабочие задачи быстрее и эффективнее.


P.S. А вот копирайтерам и рерайтерам все-таки стоит обеспокоиться – текстовые генераторы показывают высокую эффективность и вполне могут создать вам серьезную конкуренцию.

Комментарии (28)


  1. dreesh
    16.05.2023 15:24
    +1

    Все «рассуждения» ChatGPT основаны на данных из сети Интернет, следовательно, возможность сгенерировать что-то принципиально новое изначально не закладывалась

    У людей по идее тоже самое.

    Напоминает задачу сортировки цыплят по полу. Достаточно 15 минут "обучения" человека и процент "угадывания" будет 90-95%. Правда после 40 минут сортировки человек не сможет описать "как он угадывает", а вот через 2 часа уже сможет.

    Вот тут собака и порылась! Мы преобретаем навыки незаметно для нас самих. Если так же сделать с chatGPT то она будет выдавать чушь!


    1. 4eshir Автор
      16.05.2023 15:24
      +1

      Нет. Мы возвращаемся к вопросу абстрактных понятий, которые люди формировать умеют, а вот у нейронок в отсутствии префронтальной коры с этим явные проблемы - они не могут заниматься переносом опыта с одной области на другую, а человек вполне в это умеет

      И вот эти незаметно от нас самих и является процессом формирования абстрактных понятий


      1. danya_aleksandrov
        16.05.2023 15:24

        да и вот эти постоянные ответы с кучей воды и тупых определений выдают человека, который использовал ии


      1. Azya
        16.05.2023 15:24

        Могут, конечно, переносить опыт, и с абстрактными понятиями у chatGPT все нормально.


      1. f614
        16.05.2023 15:24

        Переносом может и не могут заниматься, но вот с абстракциями у них все в порядке, можно даже сказать только на них они и работают.

        Как пример статья от OpenAI где GPT4 интерпретирует назначение конкретных нейронов GPT2:
        https://openai.com/research/language-models-can-explain-neurons-in-language-models

        Значение токена на различных слоях сети


  1. red75prim
    16.05.2023 15:24
    +1

    Потому что ИИ-модели не умеют «понимать» то, что хочет пользователь, а также неспособна «оценить» близость результата к исходному запросу пользователя

    Ещё бы понять что такое "понимать". Впрочем, в данном случае (и с функциональной точки зрения) это довольно просто: сеть понимает пользователя, если после нескольких уточнений задачи полученный рисунок удовлетворяет пользователя по всем критериям (стилистика, композиция, детали), чем меньше требуется уточнений, тем лучше сеть понимает.


    Если придерживаться этого определения, то сейчас сети могут понимать только запросы пользователей с очень неопределёнными желаниями, которым подойдёт любое изображение из широкого диапазона вариантов.


    Так что с этой точки зрения определенный уровень понимания у сетей есть. Но остаётся вопрос до какого уровня понимания могут дойти сети без аналога префронтальной коры? Подозреваю, что до человеческого уровня. Ничего, что требовало-бы интенсивных саморефлексивных размышлений, мне там не видится. Цикл обучения будет, конечно, внешним, как с RLHF: привлекаем людей, чтобы оценить что модель не понимает, отдельная нейросеть по ответам создаёт модель непонимания, дообучаем сетку-генератор, чтобы уменьшить результаты срабатывания нейросети, моделирующей непонимание.


    1. 4eshir Автор
      16.05.2023 15:24

      Таким образом учили Сидни. И с одной стороны это конечно рабочая схема - только вот у нейросети по умолчанию нет механизма "понимания", нет каких-либо внутренних ориентиров, что приведет к очень хорошей имитации человеческого "понимания", но не к нему самому. С точки зрения полезности думаю все будет намного лучше, чем сейчас, однако с точки зрения схожести с человеком - останется на прежнем уровне.


      1. red75prim
        16.05.2023 15:24
        +3

        Это — философия (по крайней мере до выяснения роли префронтальной коры в механизмах того, что мы называем пониманием, или обнаружения задач с которыми нейросети существующего типа не справляются даже после экстремального масштабирования (я предполагаю, что такие задачи будут)).


        А если рассматривать "понять — значит упростить", то у нейросетей с этим неплохо: из картинки создаётся emdedding содержащий бОльшую концентрацию семантической информации (упрощение), ну и этот embedding связывается c языковой моделью, включая выжимку из содержания картинки в общую структуру знаний языковой модели.


        В полнофункциональных мультимодальных моделях, где анализ картинки является частью прямого прохода, получающийся embedding зависит от текущего языкового контекста, то есть модель теоретически может "обращать внимание" на обсуждаемые части изображения.


        Не знаю, правда, реализовал-ли кто-нибудь это или нет. OpenAI не описывает способ, которым они добавили обработку изображений в GPT-4.


        Да, насчёт:


        они не могут заниматься переносом опыта с одной области на другую

        Дообучение GPT-4 на картинках улучшило результаты в некоторых чисто текстовых задачах.


        1. yatanai
          16.05.2023 15:24
          -1

          Языковые модели уже довольно сложно устроены, ибо они интегрируют в себя информацию со всего мозга. Добавив сюда память, мы получаем обычное животное, которое видя как его сестру кушают учит своих детей так не делать. Вот тебе и весь "интелект", быть эффективным не значит уметь думать)))

          Мы можем просто увеличить сетки в ширь, получив очень похожего на человека работника, который будет делать то чему его обучат, разве не счастье?)


          1. 4eshir Автор
            16.05.2023 15:24
            +1

            Именно такой упрощённый взгляд на вещи привел в конце 18 века к появлению теории детерминизма. А потом оказалось что квантовая механика и вообще, мир штука сложная. Примерно так же сейчас человеческий мозг пытаются свести до уровня простой нейросети


            1. yatanai
              16.05.2023 15:24
              +1

              Опять никто ничего не понял, база.

              Я за другое говорил, что текущий подход работает в плане - сделать машину которая что-то делает.

              "Интелект" это сложная штука с кучей обратных связей которые влияют на все системы и управляют вниманием, но этого не нужно если твоя сетка единожды обученная на нормальном датасете будет делать то чему её обучил, как у простых животных.

              Собственно сейчас это и делают, просто пытаются понять как интегрировать в языковую модель периферийные сети. Прикрутив сюда память мы получим рабочую машину которая и поговорит, и нарисует, и фильмы оценит.


    1. logran
      16.05.2023 15:24

      сеть понимает пользователя, если после нескольких уточнений задачи полученный рисунок удовлетворяет пользователя по всем критериям (стилистика, композиция, детали), чем меньше требуется уточнений, тем лучше сеть понимает.

      Я скажу больше — практически все живые художники понимают заказчика лишь после нескольких (многих) уточнений, и при этом все равно рисуют не совсем то, что видел в своей голове заказчик. Даже если им предоставить черновые наброски, референсы и палитру цветов (но это буквально то же самое, что подсунуть позу, контур и эскиз в ControlNet для SD).


      Тут проблема скорее в другом — мы не можем описать свои пожелания в форме, допускающей лишь единственно верное однозначное толкование. Ни для человека, ни для нейронки. Если бы мы могли выдать ей на вход не абстрактное и неточное текстовое описание, а например параметры начального шума (весьма однозначное описание желаемого) для дальнейшей работы — мы бы получили ровно то что просили с мелкими отличиями. Собственно фиксация сида именно так и работает =)


  1. chernish2
    16.05.2023 15:24

    Компания Bing?


    1. 4eshir Автор
      16.05.2023 15:24

      Поправил, спасибо. Пропустил


  1. mrBoolean
    16.05.2023 15:24
    +2

    Я подобный супер хайп замечаю только в ru сегменте в основном, и то уже утихает. Вангую связано это больше с тем, что куча бездарей типа "эффективных управленцев" которые, как известно, рождены не работать а правильно руководить думают что наконец-то появился идеальный исполнитель. Такие Емели, которые наконец-то нашли волшебную щуку. И, естественно, хотят на этом заработать. А в англоязычном сегменте такого оголтелого культа бога машины не наблюдал, народ как то даже скептично относится, программисты и художники себя прекрасно чувствуют.

    Мое мнение, нейросети будущего это такой цифровой фастфуд. А талантливые художники, прогеры и прочие чью деятельность косвенно затронет нейронка станут ещё более востребованными. Эти профессии не умрут по той же причине почему Макдональдс не убил дорогие рестораны.


    1. Fell-x27
      16.05.2023 15:24
      +1

      Справедливости ради, тот же chatGPT и правда отличный исполнитель. Уже несколько месяцев "работает у меня" ассистентом.

      Да, он плохой разработчик, но он отличный кодер и тестер, если грамотно поставить ему задачу. Хотя бы за счет того факта, что он берет на себя тонну скучной душной рутины всего за 20 баксов в месяц, он уже заслуживает звание революционного инструмента.

      Он не отберёт у меня работу, но он сделает ее продуктивнее. Когда-то, помню, были люди, которые принципиально бойкотировали IDE, мол не нужон нам редактор, который сам за нас кодит! Их пугал умный автокомплит. А дебаггеры - вообще от лукавого! Есть же функции вывода в консоль! Вот сейчас, имхо, та же ситуация - те, кто кричат про отъем работы, просто не понимают, о чем говорят,и какое это благо, когда разработчикам можно больше времени уделять разработке и меньше —унылой рутине.

      P. S. Еств я не использую выданный ботом код не глядя. Но ему, обычно уходят довольно простые задачи, которые самому делать просто лень. И там ревью решения сводится к тому, чтобы пробежать глазами и скормить тестам.


      1. 4eshir Автор
        16.05.2023 15:24
        +1

        Именно к этому я и вел - что нейросети это отличный инструмент для работы, а не способ заменить работника. Более того, Visual Studio уже использует gpt для автокомплита и даже предикта целых строк кода, которые я, возможно, захочу написать. Экономит кучу времени и это прекрасно


        1. Fell-x27
          16.05.2023 15:24
          +1

          Вот автокомплит на основе gpt, если принцип работы именно как у chatGPT, я бы не хотел у себя иметь. Такое себе, когда IDE постоянно сливает твой код на внешние сервера, руша твою корптайну, тыря твои тестовые ключи и мало ли что ты там еще у себя в локальной версии кода хранишь для удобства, что никогда бы не попало даже на твой же прод, не говоря уже о левых серверах, на которых будет доучиваться модель, способная, однажды, выдать все твои тайны.

          Решение обезличенных микротасков под строгим контролем передаваемых данных - это совсем другое.


          1. 4eshir Автор
            16.05.2023 15:24

            С точки зрения безопасности согласен. Я упоминал только в контексте удобства пользования


    1. nick-for-habr
      16.05.2023 15:24
      +3

      Я подобный супер хайп замечаю только в ru сегменте в основном, и то уже утихает.

      Рискну предположить, что вы всё же основной новостной/около-IT контент получаете из пресловутого "ru сегмента". А в англоязычный "сегмент" ходите за конкретной информацией по запросам. Вот весь хайп по ИИ в англоязычном сегменте и проходит мимо вас.
      Ещё раз уточню, что это лишь мои предположения )))
      Но из того, что вижу — на нашем же Хабре например — подавляющая часть инфы это "зеркало" из англоязычных источников. Бесконечные переводы (хорошо, когда это маркируется явно), "пересказы", новости — всё "оттуда". Самое забавное, что раздувающие этот хайп "на западе" большие дяди делают это с определённой целью: заработать на этом. Гляньте для интереса за скачками капитализации то й же OpenAI. Наши же попугаи просто повторяю эту инфоцыганщину, потому что больше ничего не умеют. Ну кто умеет (их немало) — тот работает, ему некогда фигнёй заниматься.
      Так было и со всякими "вебдва(три)нолями", "бигдатами", "блокчейном", потом — "нейросети" и "машинное обучение", теперь вот — ИИ.
      Имя им — легион.
      Хабру просто нужно заполнить пустоту, вот и заполняют чем могут...


  1. uhf
    16.05.2023 15:24
    +3

    Как бы не были их действия похожи на действия разумных существ – они ими не являются.

    Я вот все чаще думаю, что данное утверждение больше к людям относится.
    А нейросети дотренируют, не сомневайтесь.


  1. Andrey_Epifantsev
    16.05.2023 15:24

    Все, кто ратует за немедленный запрет всех нейросетей:

    Damnant, quod non intellĕgunt [Осуждают, потому что не понимают]

    Не рубите сплеча, разберитесь в теме, отбросьте эмоции и вот уже нейросети не покажутся вам страшной угрозой, с которой нужно бороться всеми силами, а станут верным помощником в ваших повседневных делах, а, может даже, и работе.

    Меня смущает, что письмо о приостановке разработок подписали не только те, кто не в теме, но и те кто в теме. Они тоже не понимают с чем столкнулись?

    Ещё есть статья Юдковского об опасности ИИ. Он вроде как тоже относится к тем кто в теме и занимается разработкой ИИ уже лет 15.


    1. 4eshir Автор
      16.05.2023 15:24

      Тоже смущало, но тут имеют место быть два варианта

      1. Пиар на расхайпленной теме + создание образа разработчиков, которые беспокоятся о потенциальном негативном влиянии своих технологий

      2. Попытки успокоить слишком поднявшуюся шумиху, мол "все нормально, у нас все под контролем"

      Касательно статьи

      Absent that caring, we get “the AI does not love you, nor does it hate you, and you are made of atoms it can use for something else.”

      Ни один AI ничего не can use без непосредственных указаний пользователя, его методы ограничены и весьма сильно.

      Visualize an entire alien civilization, thinking at millions of times human speeds, initially confined to computers—in a world of creatures that are, from its perspective, very stupid and very slow. 

      Люди не могут быть "слишком медленными" для AI, потому что AI не дает оценку людям.

      В целом, вся статься пропитана популизмом и основывается на том, что снова AI "решит" что-то сделать, или "признает" человечество неполноценными/глупыми/ненужными.


      1. f614
        16.05.2023 15:24

        Ну всякие autoGPT и аналоги, коих уже тысячи, вполне себе can use. Создать while True: и пустить ей на вход цель + реакцию мира на предыдущий ответ, например с датчиков или камеры, и дать управление Апишкой робота или манипулятора, это если касательно внешнего мира, а так обратную связь от графиков ценных бумаг или еще что.

        Что касается скорости, мозг работает на максимальной частоте порядка 600 герц, сервера на скорости 4 миллиарда Герц. Если сравняться по вычислительной мощности, то такое превосходство в скорости на секунду человеческой мысли выдаст примерно 120 лет машинной.


        1. 4eshir Автор
          16.05.2023 15:24

          Пустить на вход цель != AI поставил себе цель. В этом принципиальное отличие


          1. f614
            16.05.2023 15:24

            Имеется ввиду первоначальная цель, вроде: развивайся, сделай всех людей счастливыми, заработай мне денег ну или что то в таком духе, а последующие цели она генерит себе сама.
            Посмотрите на принцип работы AutoGPT или BabyAGI.


  1. AlexSky
    16.05.2023 15:24

    Пример с герундием не очень показательный. Выглядят как рассуждения человека, не знающего дату появления герундия или просто не подумавшего об этом.
    Так-то на подобные вещи нейросеть вполне нормальные ответы выдает. Вот я спросил о влиянии трудов Маркса на то же княжество:
    Труды Карла Маркса, включая его главное произведение "Капитал", были
    опубликованы в середине XIX века, когда Княжество Московское уже не
    существовало.


  1. 4eshir Автор
    16.05.2023 15:24

    Керм и Есперсен ука­зывают на то, что форма пассивного герундия начала впервые появляться в XVI в. 

    Годы существования Московского княжества: 1263 - 1478гг.

    Так что тут вроде проблем нет. Имеется ввиду именно герундий а не отлагольные существительные, которые существовали в языке ещё раньше, до выделения их в герундий