Дискуссиями о том, насколько прекрасен (опасен, полезен, подчеркните нужное) ChatGPT в частности и искусственный интеллект вообще, полон интернет — на эту тему высказались все, от «песочницы» Хабра до Генри Киссинджера.

В принципе, такая громкость хайпа демотивирует говорить что-то своё — всё равно оно потонет в шуме. Однако на этой неделе меня довольно неожиданно попросили прочитать лекцию для студентов-гуманитариев из РГСУ — «Искусственный интеллект нового поколения: изменят ли ChatGPT и Midjourney экономику, политику и социальную сферу», и было бы не меньшим грехом дать подготовленному материалу пропасть, не зафиксировав его письменно.

Тем более, что абсолютное большинство уже написанных статей не дают читателям того, что я люблю больше всего — некоей цельной картины происходящего. Это либо частное мнение, либо быстро уходящие в тензорную алгебру описания нейросетей, либо просто узкие демонстрации, что можно сделать (что конкретно сделал автор) в генеративной нейросети.

Кандинский 2.1. Победа науки над здравым смыслом. Без указания стиля.
Кандинский 2.1. Победа науки над здравым смыслом. Без указания стиля.

О чём же мы будем говорить?

Разумеется, о королях и капусте. А также о том, какой бывает искусственный интеллект, можно ли считать его разумным, в чём его главная проблема, спасут ли нас три закона робототехники, на какие профессии он повлияет, а какие — породит (и даже уже породил).

Подчеркну, что материал готовился для гуманитариев — социологов, политологов, et cetera — поэтому далее я буду всеми силами избегать погружения в математику, программирование или иные специализированные вещи.

Поехали!

Немного определений

В первую очередь, конечно, надо определиться с терминологией — тем более, что в области ИИ она не только до сих пор не всегда конкретна, но и силами журналистов превращается в полный винегрет, в котором путается всё и вся.

Итак, давайте условимся, что ИИ у нас может быть представлен в трёх возможных весовых категориях.

  • AI — Artificial Intelligence — узкоспециализированный ИИ, предназначенный для решения одной конкретной задачи. Примером AI являются, например, нейросети распознавания изображений, предназначенные для поиска на них конкретных объектов — скажем, котиков.

Этот вид AI является тривиальным и окружает нас уже много лет.

  • AGI — Artificial General Intelligence — ИИ общего назначения, способный эффективно решать любые поставленные перед ним интеллектуальные задачи. Так как «любые задач» — это очень широкое определение (можно поставить, например, задачу проектирования фотонного звездолёта для полёта на Альфу Центавра), то иногда используют более узкое определение «экономически значимые задачи с эффективностью не хуже человека». В любом случае, AGI не требует переобучения с нуля для переключения с одной задачи на другую.

Дошли ли мы до стадии AGI — вопрос дискуссионный, однако существуют достаточно много мнений, что GPT-4 уже демонстрирует признаки AGI. Одними из первых такое мнение высказали авторы известной работы «Sparks of Artificial General Intelligence: Early experiments with GPT-4», после чего, разумеется, были немедленно перевраны журналистами, сообщившими миру, что GPT-4 обрёл разум объявил человечество вне закона и в течение пяти минут начнёт бомбардировки.

  • SAI — Strong Artificial Intelligence — ИИ, обладающий сознанием, то есть полностью разумный во всех смыслах этого слова.

На данный момент мы не только не достигли этого уровня, но даже приблизительно не представляем, как его достичь. Впрочем, подробнее об этом — и о том, почему ни один из существующих ИИ нельзя считать разумным даже на уровне «зачатков разума» — поговорим ниже.

Откуда есть пошёл интеллект искусственный

ИИ не свалился на человечество осенью 2022-го года, в день открытия ChatGPT для широкой публики. Если — в широком смысле — мы понимаем ИИ как различные варианты нейросетей, то им уже многие десятилетия. Практические работы в этом направлении начались в 1940-х годах, в 1958-м был изобретён перцептрон — первый нейросетевой классификатор, с конца 1980-х нейросети начали применяться в научных расчётах, в 1990-х благодаря как быстрому росту вычислительных мощностей, так и развитию математического аппарата и архитектурных подходов начался быстрый рост этого направления.

Простая нейросеть представляет собой набор блоков, осуществляющих преобразование входного сигнала X в выходной Y посредством некоей функции f(X), и соединённых друг с другом — как показано на рисунке выше синими стрелками. Важных моментов здесь два: во-первых, связи существуют не только линейные, но и перекрёстные, а также каждая связь имеет некоторые вес — который меняется при настройке, то есть обучении нейросети. Вес определяет коэффициент передачи сигнала, то есть, в итоге, пропорцию, в которой каждый блок (нейрон) смешивает приходящие ему на вход сигналы перед их обработкой. В целом — действительно крайне похоже на нейроны головного мозга и коммуникацию между ними.

Меняя веса связей, можно получить очень широкий диапазон вариантов отклика нейросети, то есть соответствия между выходным и входным сигналами — например, добиться, что нейросеть будет «реагировать» только на входной сигнал определённого вида.

При этом из-за очень большого числа связей — катастрофически растущего с ростом числа блоков — аналитически определить необходимые веса и просто расставить их с первой попытки практически невозможно. Поэтому нейросеть приходится обучать: подавать на её вход некоторый сигнал, сравнивать результат на выходе с желаемым нами, рассчитывать ошибку и подстраивать с целью её устранения веса связей. И если сигнал распространяется слева направо, то направление корректировки связей при подгонке результата — обратное, справа налево. Собственно, такая схема обучения и называется «backpropagation», обратное распространение. Придумана она была в 1960-х, активно применяться начала в 1980-х годах.

Обратите внимание на два момента:

  • очеловечевание связанной с нейросетями терминологии часто даёт неверное представление о сути явления. Так, обучение нейросети не имеет ничего общего с обучением человека — если человеку в ходе обучения мы даём новую информацию и объяснение её происхождения, позволяя ему самостоятельно понять и выстроить в логически непротиворечивую систему эту информацию, то в случае нейросетей процедура обучения является математическим алгоритмом настройки сложной системы связей;

  • чем развесистее нейросеть и чем сложнее структура обратываемой ей информации, тем меньше мы понимаем, что именно внутри себя рассчитывает нейросеть — мы лишь добиваемся, чтобы на данных для обучения сигнал на выходе соответствовал желаемому нами. Нейросети этого класса не обладают механизмами внимания, они не выделяют какую-то часть входных данных как важную и другую — как второстепенную, в результате чего легко может оказаться, что они, выдавая желаемый нами ответ, классифицируют на самом деле ту часть входных данных, которую мы, люди, априорно считаем несущественной. Например, есть история про классификацию нейросетью рентгеновских снимков: всё было очень хорошо, пока не оказалось, что ключевым параметром для нейросети стал сам формат снимка: те из них, что приходили из больниц, нейросеть считала снимками больных людей, а те, что приходили из данных плановых обследований — снимками здоровых людей. Ну и в общем действительно в большинстве случаев угадывала. Экспериментаторы же вообще изначально не придали никакого значения тому, что рентгеновские снимки из разных источников отличаются форматом — просто в силу того, что там стоят разные рентгеновские аппараты.

Наконец, подобные нейронные сети являются лишь классификаторами, но не генераторами — они не могут что-либо создать. Они лишь определяют, что входящая информация обладает (или не обладает) определёнными свойствами — например, что на картинке изображён котик.

Ну или собачка. Или черничный маффин. Или жареная курица.

К нейросетям, способными эффективно что-то нужное (например, картинки с котиками) создавать, человечество подошло в 2014 году, создав так называемые GAN, Generative Adversarial Networks, генеративно-состязательные сети.

Если быть точным, то это уже не одна нейросеть, а конструкция, состоящая из двух сетей.

Первая из них является генератором: получая на вход белый шум, она накладывает на него некоторую функцию, преобразуя шум в... во что-то. Скорее всего, в другой шум, уже не белый. Но иногда — в котиков.

Как делают кораблики в бутылке? В бутылку засыпают щепки, бумагу и клей. Потом долго трясут. Чаще всего получается мусор. Но иногда — кораблики.

С одной стороны, нейросети-генератору всё равно, что получается у него на выходе, волнует его это не больше, чем настольный калькулятор в бухгалтерии беспокоится о том, в убытках вы по итогам квартала или в прибылях.

С другой стороны, очевидно, что вариантов преобразования белого шума в котика — колоссальное число, а не в котика — ещё в миллионы раз больше. Обучать такую нейросеть вручную — не хватит времени жизни не то что человека, но и всей цивилизации. При таком подходе у котиков не было бы шансов.

Спасает вторая нейросеть — дискриминатор. Та самая классифицирующая нейросеть из первого примера, которую обучили на миллионе настоящих картинок котиков из интернета: так, чтобы она выдавала «ок!», если ей показали настоящего котика, и «не ок!», если ненастоящего.

Ну и связывают эти нейросети вместе. Генератор подаёт котиков в дискриминатор, а дискриминатор выдаёт генератору ответ — настоящий котик или нет. Остаётся только настроить генератор так, чтобы он стремился обмануть дискриминатор, а дискриминатор — чтобы он старался не быть обманутым.

Дальнейшее сильно зависит от желаемого вами качества котиков, но в принципе на мощном компьютере через время от десятков часов до десятков дней вы получите результат: система придёт в состояние, когда генератор будет создавать крайне слабо отличимых от настоящих котиков. Без вашего прямого участия в его обучении.

При этом необходимо понимать, что GAN по-прежнему не понимает, что есть котик. Она просто методом тыка подобрала такой набор преобразований над входным белым шумом, что результатом применения этого набора является стабильно получаемое от дискриминатора «ок!».

Из наиболее нашумевших на публике применений GAN можно назвать, например, генераторы лиц несуществующих людей, такие как «This Person Doesn't Exist».

GAN, разумеется, являются примером узкоспециализированного ИИ — они тренируются на решение одной конкретной задачи. Если вы хотите не котиков, а черничные маффины — вам придётся тренировать нейросеть заново, с нуля.

Кроме того, GAN не очень хорошо справляются с другой задачей — генерацией текста. Хотя, казалось бы, текст выглядит проще котика, сгенерировать осмысленный текст крайне сложно. Да, GAN могут выдавать и текст — но практические применения ограничиваются созданием грамматически корректных, но не сильно осмысленных наполнителей пустого места для тех, кто от dolorem ipsum уже и правда испытывает боль.

Наконец, вершина нейросетевой эволюции — ChatGPT как конкретный продукт, и большие языковые модели (LLM) как в целом класс таких систем.

Предпосылки для их создания были созданы 2017 году, с появлением нейросетевой архитектуры под названием «трансформер», а уже в 2018 появились первые LLM, включая GPT, впоследствии выросший в GPT-3, на базе которого сделан сервис ChatGPT.

Архитектура трансформеров/LLM уже весьма сложна (на картинке она показана в очень сильно упрощённом виде), но если говорить об их основных достоинствах, то таковых можно выделить два:

  • трансформеры занимаются разбором входного текста и пересборкой его в выходной, то есть и на входе, и на выходе имеют сложные потоки информации, сложным образом связанные друг с другом. Замечу, что хотя трансформеры в первую очередь стали применять для перевода — им совершенно неважно, является ли язык на входе и выходе разным с точки зрения человека. Преобразование, например, вопроса «Сколько сейчас времени?» в ответ «Почти половина шестого» также можно рассматривать как задачу перевода из языка вопроса в язык ответа — хотя человек и возразит, что оба они сформулированы на русском.

  • внутри трансформеров появляются такие блоки, как «внимание» и «внутреннее внимание».

Пояснить смысл «внимания» легко на примере этих двух неудачных переводов. Неудачны они ровно по одной причине: в обоих случаях перевод — пословный, переводится каждое слово в отдельности без какого-либо учёта других слов в предложении.

Один из путей, которым с таким переводом можно бороться — набивать словарь переводчика не только словами, но и готовыми кусками фраз, которые будут иметь приоритет над отдельными словами. Корявенько, но в целом работает — долгое время машинные переводчики именно так и работали, выдавая на выход тексты в стиле «русские не мой язык родная», но в общем и целом более-менее пригодные для понимания.

Другой путь — это как раз «внимание». Внимание у LLM — тут опять часто подводит очеловечивание термина — означает, что ни одно слово не переводится само по себе, слои внимания группируют вокруг переводимого сопутствующие ему слова.

В первой группе блоков, называемых кодировщиками, есть только подблоки внутреннего внимания — они собирают в кучки слова входящей фразы. Во второй группе — декодировщиках — внимание уделяется как группировке слов исходящей фразы, так и снова синтаксису входящей.

И вот такая сложная многоуровневая система наконец позволила нейросети полноценно освоить преобразование полноценного, осмысленного текста между двумя формами — разными языками, вопросом и ответом, и так далее.

Однако здесь же по-прежнему нет понимания текста, воскликнет внимательный читатель! Это просто какие-то механические процедуры, китайская комната, которую мы усложнили до состояния натуралистичного воспроизведения связной и осмысленной речи. Разобрали, сгруппировали, трансформировали, собрали снова, выдали на выход.

И действительно, всё, что умеет ChatGPT — это предсказывать следующее слово в тексте.

Но почему у него это так хорошо получается? То есть, умом мы понимаем, что в описании устройства LLM нет ничего, кроме механического преобразования входа в выход — но почему оно тогда получается не просто хорошо, а лучше, чем у значительной части живых людей?

Всё дело в числах.

В процессе обучения в LLM загружают, разумеется, тексты — ведь его надо научить их создавать. Огромный объём текстов. Колоссальный объём текстов. Объём текстов, радикально превышающий всё, что любой живой человек способен прочитать за всю свою жизнь.

GPT первой версии обладал 117 миллионами внутренних параметров (тех самых весов связей) и был обучен на 4,5 ГБ текстов. GPT-2 — примерно вдесятеро сложнее. GPT-3 — в сто раз больше параметров и в десять раз больше текста.

Для сравнения, «Война и мир» — это чуть меньше 700 тысяч знаков. GPT-3 (на обновлённой версии которого сделали ChatGPT) обучался на объёме текстов примерно в миллион раз больших, чем «Война и мир». В него грузили всё. Всю Википедию, огромные библиотеки художественной и нехудожественной литературы, даже золотые треды с reddit.com (и, подозреваю, Stack Overflow тоже, но не уверен, только вопросы или же и ответы).

Человек крайне плохо воспринимает большие числа. Большинство не верящих в эволюцию делают так не потому, что невнимательно читали учебник биологии, а потому, что уже миллион лет невозможно наглядно представить. Даже как жили наши предки 200-300 лет назад — мы не представляем, мы знаем тезисы из учебника истории, но на эмоциальном уровне мы эту эпоху не воспринимаем. Что уж говорить про динозавров.

В вышедшей в 2022 году статье «Language Models are Few-Shot Learners» (PDF) показывалось, среди прочего, как растёт достоверность ответов GPT-3 в тестах с ростом числа параметров. Сеть с 1,3 млрд. параметров не могла примерно ничего, с 13 млрд. параметров могла кое-как на уровне студента-троечника, а при 175 млрд. параметров она буквально рванула вверх — в случае, когда нейросети давались примеры того, что ей надо сгенерировать, точность легко превышала 50 %.

Но почему мы считаем, что это не есть зарождение разума, того самого сильного ИИ?

По большому счёту, мы ведь не знаем, что такое «разум» даже у человека. Нейрофизиология не выделяет отдела мозга, в котором находился бы разум. Финеас Гейдж, которому стальным ломом снесло левые лобные доли мозга, не стал овощем, а сохранил все когнитивные способности (хоть персональные качества у него и изменились до неузнаваемости).

Почему же мы считаем, что внутри ИИ не зародился разум?

Ваш гений — полный идиот

Практически все непрофессиональные дискуссии вокруг разумности ИИ сводятся к перечислению того, что ИИ может сделать, и сравнению результата и эффективности его достижения с человеком.

Это категорически неправильный подход.

Экскаватор может копать значительно лучше человека. Калькулятор намного лучше человека складывает числа. Компьютер, на котором я пишу этот текст, невероятно хорошо рисует на экране буковки — я бы так не смог никогда, по крайней мере, при разумном времени, отведённом на рисование одной буквы.

У меня нет никаких сомнений в том, что экскаватор, калькулятор и даже этот компьютер не обладают даже минимальными зачатками разума.

Правильный подход — смотреть на то, что ИИ сделать не может.

Одна из очень характерных черт современных ИИ — это галлюцинации (это официальный термин, он используется в научных работах). Выданный выше ответ не имеет практически никакого отношения к реальности, «Муму» — это, для начала, даже не роман, а рассказ, не говоря уж про сюжет (вообще, у ChatGPT с «Муму» очень сложные взаимоотношения, можно найти немало различных версий сюжета этого произведения).

При этом ChatGPT выдаёт ответ без каких-либо видимых колебаний. Он не сообщает, что у него нет информации о «Муму», что она может быть недостоверна, и прочая, и прочая. Он выдаёт вполне определённый ответ.

Но может быть, это артефакт плохого знания русского языка? В конце концов, основным в обучении GPT был корпус англоязычной литературы.

Почти правильный ответ о книгах об Аврааме Линкольне, 16-м президенте США — и одном из самых известных политических деятелей в истории Америки. Ну, кроме пункта 4 — The Emancipation Declaration всё же была документом, написанным самим Линкольном, а не книгой о нём.

Тот же вопрос — но про Уильяма Генри Гаррисона, 9-го президента США. Для нас с вами эта фигура малоизвестна, однако для американца не знать его — примерно то же самое, для нас не помнить кого-то из российских императоров XIX века (хоть и прославился Гаррисон в основном тем, что умер через месяц после принятия присяги). Невозможно предположить, что информации про него не было в базе обучения GPT-3.

Тем не менее, из 5 порекомендованных ChatGPT книг о Гаррисоне в реальности существуют... две. Первые три книги либо не существуют вообще, либо написаны иными авторами.

Повторюсь: в обучающей базе ChatGPT не могло не быть настоящей информации по этой теме. При этом он с абсолютной увереностью несёт почти абсолютную чушь — никаких признаков того, что предоставляемая информация недостоверна, в его ответе нет.

В случае с человеком, ведущим себя таким образом, мы бы сказали, что он психически нездоров. Возможно, шизофреник.

Потому что

психически здоровый человек отличается тем, что умеет отделять галлюцинации от реальности.

Вообще говоря, мы галлюцинируем постоянно. Есть версия, что сам феномен сознания — это контролируемая галлюцинация.

Когда мы представляем себе будущее — мы галлюцинируем. Когда мы вспоминаем прошлое — мы галлюцинируем, потому что у нас в голове нет детальной записи бывших событий, мы каждый раз восстанавливаем их. При этом мы всегда — хоть и не всегда точно — можем разделить, что мы знаем, что мы предполагаем, что мы воображаем. Мы можем оценить, как внешние стимулы влияют на наше внутреннее состояние, и нивелировать это влияние (и это другой заметный баг даже лучших из существующих LLM: небольшое изменении формулировки может привести к большому изменению ответа).

У ChatGPT на месте этих способностей — ноль. Пустыня. Ни малейших признаков осознанности. Ни под лупой, ни под микроскопом, никак.

ChatGPT не разумен. Он не демонстрирует даже минимальных признаков сильного интеллекта, даже намёков на него. Мы понятия не имеем, удастся ли нам создать сильный AI, и если да, то когда — но ChatGPT от него столь же далёк, сколь далеки калькулятор и экскаватор.

Он просто очень хорошо предсказывает, какое слово надо поставить следующим во фразе, чтобы человеку эта фраза казалась правильной.

P.S. Если вы думаете, что это лишь моё личное мнение — то, во-первых, да, а во-вторых, скажем, Дуглас Хофстадер, известный учёный-когнитивист, считает так же.

Так, а что там с уничтожением человечества?

Как я сказал выше, когда мы представляем себе будущее — мы производим осознанную галлюцинацию, и именно она является базой для целеполагания.

У AI/AGI в его современном виде, как мы видим, осознанности нет — соответственно, целеполагание для него просто невозможно. Даже шизофреник имеет целеполагание — просто оно разворачивается в его выдуманном мире, не всегда пересекающимся с объективной реальностью. AI в этом плане катастрофически отстаёт даже от шизофреника.

Соответственно, задаться целью уничтожить (или осчастливить) человечество AI не может. Он вообще не может задаться какой-либо целью — в свете чего он не более опасен для человечества, чем, например, электрическая розетка или молоток: ни то, ни другое полностью безопасными предметами назвать нельзя, но с другой стороны, они явно не стремятся причинить вам страдания самостоятельно.

Вообще говоря, это хорошая новость для нас — потому что способов контролировать SAI, если вдруг мы его создадим, у нас нет (ну, кроме варианта «успеть выдернуть его из розетки»).

Дело в том, что контролирующая система контролирует контролируемую на величину, не превышающую её знаний о контролируемой системе (энтропия, безжалостная ты сволочь). Мы можем огородить AI забором, физически не позволяющим ему что-то сделать, и надеяться, что он за него не выберется — но любая система полноценного контроля за ним, не полагающаяся на физические барьеры, обязана быть больше и разумнее, чем сам контролируемый AI. Иначе она не сможет его контролировать.

В рассказе «Страж-птица» Роберт Шекли неплохо реализацию этого принципа проиллюстрировал.

Так что хорошо, что ChatGPT не более разумен, чем табуретка из «Леруа Мерлен».

Дивный новый мир

Использованные далее иллюстрации любезно предоставлены автором телеграм-канала «Котики и нейросеть» — включая не публиковавшиеся в самом канале рабочие материалы. Если не указано иного, то изображения созданы в Midjourney V5. Изображения не проходили дополнительной обработки.

Что ж, давайте на этом моменте перейдём от рассмотрения самого ИИ к рассмотрению последствий, которые он принесёт в наш мир.

Некоторые из них очевидны, некоторые — не совсем.

Говорят, Джо Байден снова упал, на этот раз со скейтборда, а Илон Маск посетил Китай и пообщался там с простыми китайцами (ещё говорят, что в Midjourney запретили создавать фейки с известными политическими фигурами, но лично я думаю, что врут).

Во-первых, к сожалению, мы с вами скоро ещё глубже погрузимся в пучину фейков. Если сейчас, в пятой версии Midjourney, подобные коллажи ещё можно визуально отличить от настоящих фото — можно быть уверенным, что в 6-7 версиях это подправят.

С другой стороны, последние годы неизбежно убеждают нас в серьёзной неразборчивости СМИ, а также прямо-таки подчеркнутой небрезгливости новостных телеграм-каналов — не говоря уже про то, что значительная часть последних и вовсе практикует размещение заказных постов, что снизило ценник на эффективную кампанию по разовому обливанию кого-нибудь грязью до 1-1,5 млн. рублей (лично меня уже обливали, но не очень эффективно, по ценнику примерно вдесятеро меньше). Ха-ха, пятнадцать лет назад всерьёз считалось, что блогеры сделают информацию доступной, своевременной и точной.

Трудно, конечно, с оптимизмом относиться к тезису «информационная помойка нас не пугает, потому что мы и так уже в ней живём» — но и преувеличивать опасность нейросетевой генерации фейковых изображений (а впоследствии и видео) я бы не стал.

Во-вторых, и этот эффект окажется сложнее для фильтрации — мы окунёмся в производные от галлюцинаций ИИ: материалы, написанные живыми людьми, которые при это взяли информацию у галлюцинирующего ChatGPT. В силу магического эффекта непонятной технологии эти люди в большинстве случае сами не будут осознавать недостоверность полученной ими информации, считая ChatGPT непогрешимым оракулом.

Образчики «первой производной от галлюцинации» начнут всплывать везде, от статей в прессе до аргументов в дискуссиях. Неприятнее всего, конечно, если они начнут всплывать в рабочих письмах вашего начальника или заказчика.

С другой стороны, раз уж мы взяли позитивную ноту, не то чтобы сейчас аргументация в значительной части интернет-дискуссий отличалась высокой достоверностью и ссылками на источники информации.

https://www.cnews.ru/news/top/2023-02-27_izvestnyj_fantasticheskij

В-третьих, конечно, больше мусора богам мусора. Нас уже начали заваливать плохие тексты, написанные ChatGPT.

Нет, они лучше, чем то, что те же самые люди написали бы без ChatGPT — но написанное ими самими в большинстве случаев было бы настолько плохо, что мы просто никогда бы про него не узнали.

Что интересно, эти проблемы — не просто неизбежные, а уже начавшие проявляться — приносят и новые возможности. Год-два назад, в разгар пандемии и по её мотивам, появилось много обсуждений того, что оффлайн-работа с живым человеком (преподавателем, менеджером в банке, продавцом в магазине) становится привилегией обеспеченных людей; мир разделяется на широкие массы, получающие сгенерированные типовые услуги онлайн, и тех, кто может себе позволить роскошь живой коммуникации.

Кандинский 2.1. Робот кормит человека в стиле киберпанк.
Кандинский 2.1. Робот кормит человека в стиле киберпанк.

Так вот, океан фейков и мусора, уже несомый в нашу сторону искусственным интеллектом, даёт новые возможности людям, которые хорошо умеют работать с информацией — искать её, определять первоисточники, отделять мусор от ценных крупиц.

Нет, в СМИ они востребованы будут вряд ли. Но вот там, где информация стоит денег — будут однозначно.

Нельзя назвать «информационного аналитика» новой профессией, но кажется, её значимость сильно возрастёт.

А что же со старыми профессиями?

Если честно, в основном ничего. Многие профессии модифицируются, производительность на них увеличится — но они не пропадут, их представители окажутся на морозе лишь в том случае, если не смогут обучиться новым навыкам.

Возьму для примера свою работу 10-летней давности, в крупной международной компании я был на должности product marketing manager — в той компании это человек в бизнес-юните, в основном он занимается экспертной поддержкой продажников в офисе и на переговорах с клиентами, но также через него протекает ручеёк творчества маркетингового отдела: брошюры, баннеры, рекламные ролики, пресс-релизы и так далее. PMM это читает и разукрашивает красным фломастером: здесь перепутали характеристики, здесь кривая формулировка, там для трёх продуктов разной цены не смогли придумать в различиях ничего лучше, чем «один чёрный, второй белый, третий премиальный» (реальная история, если кто-то ещё не догадался, то премиальный — это серебристый).

Можно ли заменить маркетинговый отдел на ChatGPT + Midjourney? Конечно, нет. Кто-то должен формулировать запросы к ним и отсеивать очевидный брак и галлюцинации, кто-то должен придумывать идеи новых материалов, кто-то должен дообучать ИИ-генераторы параметрам новых продуктов и их внешнему виду...

Делать это мне вместо маркетингового отдела? В моём рабочем времени на красный фломастер выделено четверть часа в день. Но кому-то это всё же делать надо.

Поэтому, скажем, в этом примере — положим, маркетинговый отдел дообучится новым навыкам, а также начнёт делать брошюры быстрее и, возможно, даже визуально интереснее. Но сам по себе он никуда не денется.

Хотя, конечно, я бы их переименовал в «операторов нейрочата».

А что же с новыми профессиями?

Значительно интереснее тот факт, что нейросети не просто породят новые профессии — а что они уже это сделали. И это не профессии программиста, математика или дата-сатани... сайнтиста.

Победитель конкурса Россотрудничества «Нарисуй Россию с помощью нейросети», https://t.me/rossotrudnichestvo/11006
Победитель конкурса Россотрудничества «Нарисуй Россию с помощью нейросети», https://t.me/rossotrudnichestvo/11006

Применительно к таким картинкам журналисты обычно употребляют фразу «нейросеть нарисовала». В данном случае — видимо, нейросеть нарисовала Россию, что бы это ни значило.

Что происходит на самом деле?

Во-первых, разумеется, сама идея снимка принадлежит человеку. Но достаточно ли просто взять эту идею и на простом английском языке скормить в Midjourney? Давайте попробуем...

Получилась странная карлица с котом-мутантом. Хм. Не такой мы представляли себе Россию...

Уточняем запрос к нейросети. Уже лучше, но не только у кота что-то странное с лапами — у девушки на правой руке отчётливо видны две кисти.

Следующий вариант. Руки на месте, пальцев на руке ровно пять (в случае с ИИ это важно!), котик тоже удался — но картинка получилась слишком тёмная.

Уточняем позицию камеры. Уточняем угол взгляда камеры. Уточняем применение стиля «киберпанк» — только для освещения и немного для волос. Ещё раз проверяем количество пальцев, форму рук и лап, естественность фигуры...

И вот теперь, после примерно полудесятка итераций, мы наконец получаем исходную картинку.

Нейросеть ли её нарисовала? Ннннуу... примерно как «Word написал статью на Хабр». Что нейросеть нарисовала более-менее сама — мы видели выше.

Это был простой пример — нейросеть очень хорошо знает девушек, котиков и московские пейзажи, её обучали на миллионах таких фоток.

Серия работ «Последнее селфи». В принципе, всё идёт достаточно неплохо, пока на заднем плане животные — или хотя бы какие-то хорошо изученные существа, такие как снежный человек.

Но тут к автору приходит знакомый с запросом «а изобрази меня, как я от ракеты "Стингер" убегаю».

Как вы думаете, сколько в базе обучения Midjourney было кадров ракет, летящих в фотографа? Да. Именно. Ровно столько и было.

Поэтому первая версия «нейросеть нарисовала» выглядит вот так. Что это за пирамида, вертикально стартующая на заднем плане, сказать трудно (вообще у Midjourney есть какая-то тайная любовь к кубическим ракетам, в первых изображениях этой работы их была не одна — передайте Илону, исскусственный интеллект плохого не посоветует).

За этим кадром следуют 5 часов работы дизайнера — не с фотошопом, а с конструированием сложного, многоуровневого, богатого разными параметрами запроса к нейросети.

Результат не идеальный — это не «Стингер», а скорее какой-то РПГ, стабилизаторы растут немного странно, дымного следа позади нет. Но это уже по крайней мере похоже на ракету.

Ещё один пример работы дизайнера с нейросетью — проработка персонажа для компьютерной игры, с помещением одного и того же образа в разные ситуации, от кровавой битвы в массовке до, конечно, котика.

Фотореализм — и не абстрактный, а генерация нейрофотографии под конкретный запрос. Сколько это времени заняло бы у фотографа — на поиск подходящей модели в первом случае и ожидание подходящей погоды в парке во втором?

Но с другой стороны, фотографы в массе своей и так уже разделились на событийщиков для прессы — с ними ничего не случится, и наполнителей фотобанков.

Ну и последний пример: кот-писатель. Символ творческой энергии и воображения. Эта карта может указывать на необходимость выражения своих мыслей и чувств через письменное слово. Кот-писатель может также символизировать процесс создания чего-то нового и важного, например книги или рассказа. Эта карта напоминает о том, что наши мысли и слова могут иметь силу и влиять на мир вокруг нас.

Вы уже догадались? Да, этот текст сгенерирован ChatGPT — автор попросил его придумать и описать карты таро, на которых будут изображены котики в образах, соответствующих разным профессиям, а потом сделал по мотивам этих описаний картинки в Midjourney.

Но может ли ChatGPT пойти в Midjourney и сгенерировать котика самостоятельно? Увы и ещё раз увы. Как мы уже видели, любая картинка в Midjourney предполагает работу над её доведением до ума — и ChatGPT такую работу выполнить самостоятельно не может. Ему по-прежнему нужен человек.

Нейросеть как инструмент

И здесь мы подходим к важному моменту, дающему нам понимание роли нейросетей в обществе. Нейросеть — это инструмент. Эффективный, удобный, современный и так далее, но — инструмент.

Которым надо уметь пользоваться. Которым будут уметь пользоваться профессионалы соответствующих профессий — как зарождающихся новых профессией, так и уже существующих профессий, которым предстоит видоизмениться.

И именно это определяет требования к нейросетям и базу для их сравнения — а не просто способность нейросети нарисовать красивую (или кривую) практически случайную картинку.

Нейросеть как инструмент — это:

  • Наличие структурированного языка запросов к нейросети.

  • Возможность последовательной работы с одним набором объектов (с одним изображением).

  • Возможность модификации лишь отдельных объектов в наборе (отдельных частей изображения).

  • Возможность сохранения и переноса объекта между наборами (персонажа между изображениями).

  • ... (чем больше полезного вы здесь придумаете, тем больше ваши шансы победить всех конкурентов).

Как именно это будет реализовано — текстовыми запросами в чате Telegram или Discord, кнопочками в графическом интерфейсе или XML-файлом, столь удобном для редактирования в vim, не столь важно. Но если мы говорим о нейросети, у которой таких возможностей нет — мы обсуждаем забавную развлекалочку, с которой можно полчаса поиграться, рассматривая, как именно она реагирует на разные забавные запросы.

Кандинский 2.1. Расстроенный автор Хабра не понимает, как добиться от Сбердинского нормальной картинки. Стиль — цифровая живопись.
Кандинский 2.1. Расстроенный автор Хабра не понимает, как добиться от Сбердинского нормальной картинки. Стиль — цифровая живопись.

Но это не инструмент для работы. А если мы говорим про профессии, про то, как ИИ повлияет на наше будущее — нам нужны инструменты. Совершенно неважно, догоняет ли ваша нейросеть Midjourney энной версии по точности рисования чашки кофе — если она не позволяет следующим шагом кофе в этой чашке поменять с американо на капучино, а также подвинуть камеру выше и правее, чтобы эту замену было лучше видно.

Дополнение (этого не было на лекции)

Судя по комментариям, довольно многие не понимают разницы между ошибками, галлюцинациями и осознанностью, считая, что если система допускает мало ошибок, то она более разумна, и наоборот, а также между движением к цели и целеполаганием.

Осознанность (разумность) не имеет как такового отношения к числу ошибок, она имеет отношение к осознанию того, что вы можете ошибаться. Простой пример: вы приходите на экзамен, получаете билет, смотрите в него.

Различаете ли вы в этот момент ваши внутренние состояния?

  • знаю всё по этому билету, буду отвечать как есть и бороться за отлично;

  • смутно что-то помню, сейчас попробую реконструировать и натянуть на хорошо;

  • вообще ничего не знаю, врубаю бредогенератор, авось прокатит на удовлетворительно.

Понимаете ли вы в момент ответа, какой из стратегий пользуетесь и насколько излагамое вами вы сами считаете достоверным?

Это не значит, что оно является достоверным. Вы можете как наговорить ерунды, в которой твёрдо уверены, в первом случае, так и внезапно попасть в точку в последнем. Ключевым является осознание вами вашего внутреннего состояния, принятие решения о дальнейших действиях исходя из него и осознание содержания этих действий, а также их цели.

Ни одна существующая и даже перспективная нейросеть так не работает.

Второй ключевой момент в этом простом примере — то, что вы поставили себе цель, причём поставили её в зависимости от сделанной вами оценки вашего внутреннего состояния. Если изначальной целью у вас было «сдать экзамен», то, увидев билет, вы её уточнили — фактически задали новую контекстно-зависимую цель.

Более того, вы можете цель сменить полностью, если предыдущая оказалась недостижима (не среди моих студентов, но людей, которые, придя на эказемен и увидев билет, бросали всё в отчаянии, я видел).

Опять же, ни одна существующая и даже перспективная нейросеть так не работает.

Перед нейросетью можно поставить цель, в том числе и «найти пути уничтожить человечество», а также дать ей инструменты для поиска пути к реализации этой цели. Но ни одна существующая и даже перспективная нейросеть не огорошит вас тем, что через месяц сообщит «я решила, что лучше буду искать лекарство от рака, кстати, вот первая версия уже готова».

В этом плане нейросети абсолютно ничем не отличаются от любого другого инструмента, от шуруповёрта, которым я двадцать минут назад заворачивал шурупы, собирая кухню, до сервера habr.com, которуму я через полминуты поставлю цель обновить этот текст.

Комментарии (183)


  1. vin2809
    14.04.2023 05:51
    +4

    Спасибо за толковый текст, написанный Автором, а не ботом.


  1. linuxcore
    14.04.2023 05:51

    Белый кот и негр - запросто а вот белый и черны коты - почему-то всегда получаются два пятнистых черрно-белых кота!


    1. olartamonov Автор
      14.04.2023 05:51
      -1

      .


    1. olartamonov Автор
      14.04.2023 05:51
      +3

      Вот как раз для таких случаев в генеративных ИИ и делают язык запросов и разметку, позволяющие явным образом уточнить, что хочет получить автор. «Hot dog» рисует сосиску в тесте, «hot:: dog» — перегревшуюся собаку.

      У Кандинского же и разметки нет, и синтаксис обычной речи он понимает откровенно плохо.

      Вообще, когда я готовил материал, я попросил Андрея (который https://t.me/neuralnetworkcats) сделать мне иллюстраций и в Кандинском тоже, в предположении, что у профессионала получится лучше. Результат — задолбались бороться со Святым Рандомом мы с ним одновременно, продуктивность тоже получилась одинаковая, выше в тексте из трёх картинок Кандинского две мои, одна его.

      В Midjourney при этом даже приблизиться к результатам Андрея я вряд ли смогу.


    1. p1tmaster
      14.04.2023 05:51

      Негра не стал добавлять, раз вопрос был про двух котов


    1. p1tmaster
      14.04.2023 05:51
      +1

      Промт

      two cats::7 white cat::3 black cat::7 --v 5


  1. exwill
    14.04.2023 05:51
    +5

    Как я вижу, основная проблема в том, что пытаются приспособить языковую модель для решения человеческих задач. Получается у кого чуть лучше, у кого чуть хуже, но в целом не очень. Но стоит только сменить парадигму, начать решать НЕчеловеческие задачи и результаты сразу станут другими.

    Поясню, что имею ввиду. Нарисовать картинку - это человеческая задача. А обработать миллион записей в таблице продаж и выдать нужный ответ - нечеловеческая. Вот для решения второй и следует использовать большие языковые модели. Большие языковые модели строят мостик, нет, не мостик, а большой, добротный мост над пропастью, которая отделяет обычного человека от:

    SELECT ... FROM ... WHERE ... IN ( SELECT...

    Обычный человек обычными словами говорит:

    "Мне нужен список клиентов, по которым не было продаж в этом году, но раньше были"

    и вуаля! вот он этот список!

    Поэтому с картинками еще какое-то время побалуются, да и забудут. А новые способы работы с базами данных с нами уже навсегда


    1. dragonnur
      14.04.2023 05:51

      а если даст "select *" ?


      1. exwill
        14.04.2023 05:51

        Ну так это нормальный запрос. Отработает


        1. Wesha
          14.04.2023 05:51

          За сколько часов?


          1. exwill
            14.04.2023 05:51

            Да быстро отработает. Базы данных сейчас быстро работают


      1. Gradiens
        14.04.2023 05:51

        Всенепременно даст!

        А что вы делали, когда сами ручками запускали "select *" ? Предположу, что отменяли запрос, уточняли список столбцов, ставили ограничение на top 1000...

        Так и тут. Эта штука - не панацея. Но она позволит людям, не особо умеющим в sql, по-быстрому накидать запрос. Который получится не с первого раза (а может, даже не с десятого), будет тормозить, но худо-бедно даст человеку результат.

        Те же, ктл в SQL умеют, так и будут писать запросы ручками. Ну разве что, будут использовать более продвинутый autocomplete


    1. olartamonov Автор
      14.04.2023 05:51
      +10

      А потом оказывается, что треть клиентов в этом списке ИИ придумал сам, а не взял из базы. Потому что галлюцинации.

      Нет, пока проблема галлюцинаций не будет минимизирована до приемлемого уровня (а решена полностью без перехода к SAI она и вовсе не будет), AGI в качестве экспертных систем — рискованное решение.


      1. fireSparrow
        14.04.2023 05:51
        +2

        Не, вы не поняли суть предложения.
        Если ИИ использовать только для построения запроса, а потом этот запрос запускать по базе, то никаких выдуманных данных в выдачу не может попасть.
        Тут проблема в другом — это будет работать только для простых и типовых ситуаций. В любых нетипичных ситуациях чтобы только правильно сформулировать задачу, человеку нужно будет ясно понимать структуру данных в базе и механику построения запроса к БД. И если человеку всё равно приходится вникать в такие тонкости, то ему и сам запрос удобнее и надёжнее будет описать на точном и формальном языке БД, а не на человеческом языке.


        1. olartamonov Автор
          14.04.2023 05:51
          +1

          Выдуманными будут данные (параметры, команды, etc) внутри запроса. То есть, запрос будет отрабатывать попросту не так, как вы попросили, и не так, как утверждает сам ИИ.

          Этот эффект есть, в статье «Sparks of AGI» его авторы обсуждали — когда ИИ не просто галлюцинирует, но у него ещё и неконсистентны ответ и пояснение к этому ответу.

          И даже сложность вопроса не имеет ключевого значения, вон выше GPT-3.5 залихватски врёт про американских президентов.


          1. Newbilius
            14.04.2023 05:51
            +1

            По опыту знакомых, если ему на входе описать структуру, типы колонок и т.п. - несуществующие колонки или таблицы он почти никогда не выдумывает.


          1. exwill
            14.04.2023 05:51
            +2

            Пишете что-то типа: у меня есть вот такие таблицы. Например, Остатки(Товар, Склад, Количество) Продажи (Товар, Склад, Контрагент, Количество, Сумма) и т.п.

            Задаете 10-20 вопросов. И смотрите сколько чего было выдумано.

            Я вам могу сразу сказать. "Выдумок" будет 0%. Но вы не обязаны мне верить. Вы можете потратить 10 минут и проверить. Только волшебное слово SELECT не забывайте добавлять


        1. exwill
          14.04.2023 05:51
          +1

          Вы рассуждаете абстрактно. Будет работать, не будет...

          А я опираюсь на конкретные кейсы. Вот, к примеру, модель можно попросить сделать т.н. "срез последних". Я точно знаю, что большинство специалистов 1С вот так навскидку это не сделают. А некоторые не сделают вовсе, несмотря на наличие гугла.

          Нейросеть же вам выдаст результат в 5 секунд.

          Конечно, все это еще в стадии становления. Но вот у меня уже работает сервис преобразования естественного языка в SQL. И я уже по первым результатам могу сказать, что как раз в сложных случаях нейросеть полезнее, чем в простых.

          Особенная прелесть в том, что к результату можно идти в диалоге. Написал: "нужны клиенты, у которых не было продаж в этом году". Посмотрел на результат, понял свою ошибку, дописал "но раньше были". Вопрос не надо формулировать всякий раз сначала


          1. Hungryee
            14.04.2023 05:51

            Послушайте, вы противоречите сами себе. Сообщением выше вы указали, что нужно «задать 10-20» вопросов прежде чем получить результат. Где тут «5 секунд на ответ»?

            В чем тут преимущество перед «я обращусь к DBA из соседней команды, он напишет запрос за 5-10 минут и выдаст мне результаты табличкой, либо файлом csv, либо дашбордом в датабрикс?


            1. exwill
              14.04.2023 05:51
              +1

              Я предложил задать 10-20 вопросов в качестве теста.


      1. exwill
        14.04.2023 05:51

        SQL запросы не дают галлюцинаций


        1. AngusMetall
          14.04.2023 05:51

          Там будет веселе, вам просто нейросетка перепутает к примеру join'ы(left с right) и даже в пояснении напишет что всё окей, сказав что работает как просили. А если у вас там 10 джоинов и пара гроуп баев, то что бы вы этой мешанине разобраться времени потребуется больше чем написать с нуля.


      1. DGN
        14.04.2023 05:51
        +3

        А что мешает поставить на выход еще и сетку фактчекер? Или логический чекер? Или компилятор? Грубо говоря, пусть крутится пока не выдаст нечто непротиворечивое и компилируемое.


    1. fireSparrow
      14.04.2023 05:51
      +10

      Обычный человек обычными словами говорит:
      «Мне нужен список клиентов, по которым не было продаж в этом году, но раньше были»

      И для простых селектов это будет отлично работать. Для более сложных — только если человек хорошо представляет себе структуру данных в базе и нюансы построения запросов.

      Я несколько лет назад работал в сети медицинских центров. И от бизнеса пришёл запрос реализовать построение отчёта в котором будет такая вещь как «средний чек по отделению». На все просьбы уточнить, что имеется в виду, бизнес отвечал: «Ну вы же знаете, что такое средний чек? Вот просто сделайте его в разрезе отделений». Заказчик сердился, что мы не понимаем такой простой вещи и тянем с выполнением задачи.
      В итоге ИТ-директор усадил коммерческого директора за стол, обрисовал ему несколько типовых и краевых кейсов, и спросил — вот конкретно в этих ситуациях что именно вы ожидаете от «среднего чека в разрезе по отделениям». Коммерческий директор сказал, что он это обдумает и ответит чуть позже.
      И больше с этой темой к нам никто не приходил.

      И ведь до этого бизнес был истово уверен, что понимает, что конкретно он хочет.
      А если бы с этим они обратились к нейросети, и она им какой-то отчёт по такому запросу построила бы? И люди бы потом по данным этого отчёта принимали бы какие-то управленческие решения.


      1. exwill
        14.04.2023 05:51
        +2

        Вы напрасно гордитесь тем, что технично "отфутболили" коллег. Вот как мы хорошо сделали! Они не принимают решения на основе данных, которые мы считаем неправильными. Они принимают решения вслепую. На основе никаких данных. Это же, конечно, лучше. Нам за это премию надо попросить.

        Вот, кстати, еще один веский аргумент за применение нейросетей. У них нет желания показать всем, какие они умные и какие все вокруг дураки. Они просто делают то, о чем их попросят.

        Спасибо вам за чудесный кейс!


        1. fireSparrow
          14.04.2023 05:51
          +5

          Вы невнимательно прочитали мой комментарий.


          Речь шла про то, что бизнес просто механически комбинируя концепции "средний чек" и "показатель в разрезе отделения" придумали химерический показатель, который не демонстрирует ничего реального. А наш ИТ-директор вместо того, чтобы взять и тупо реализовать имеющееся ТЗ как оно есть, потратил своё время, чтобы подробно показать бизнесу, как этот показатель будет себя вести в разных бизнес-кейсах.
          После чего бизнес сам понял, что такой показатель им не нужен.


          PS: Если что — минус вам поставил не я, у меня нет возможности голосовать за комментарии.


          1. exwill
            14.04.2023 05:51
            +1

            Я внимательно прочел ваш комментарий. Кроме того, у меня есть несколько десятков лет опыта в этой области. Я прекрасно понимаю, что посчитать показатель можно действительно по-разному. И результат будет немного разный. Но во всех вариантах это будет лучше, чем ничего. Хотите дальше поспорить, тогда вспоминайте конкретику. Что именно там было


            1. fireSparrow
              14.04.2023 05:51
              +3

              Хотите дальше поспорить

              Это вы хотите дальше поспорить, у меня такого намерения вообще не было.


              Ещё раз повторяю: коллег со стороны бизнеса мы не отфутболивали. Мы обрисовали им как будет себя вести этот показатель на разных бизнес-кейсах, и спросили — точно ли они хотят именно этого. После чего коллеги взяли тайм-аут на подумать, и больше к этому вопросу уже сами не возвращались.


      1. Wesha
        14.04.2023 05:51

        «Ну вы же знаете, что такое средний чек? Вот просто сделайте его в разрезе отделений»

        Так вот откуда была сделана эта зарисовка!

        — И я еще не понял… Что вы имели в виду, когда говорили о линиях прозрачного цвета?

        Морковьева смотрит на него снисходительно, как добрая учительница на отстающего ученика.

        — Ну, как вам объяснить?.. Петров, вы разве не знаете, что такое «прозрачный»?

        — Знаю.

        — И что такое «красная линия», надеюсь, вам тоже не надо объяснять?

        — Нет, не надо.

        — Ну вот. Вы нарисуйте нам красные линии прозрачным цветом.


    1. event1
      14.04.2023 05:51

      Поэтому с картинками еще какое-то время побалуются, да и забудут. А новые способы работы с базами данных с нами уже навсегда

      Рискну предположить, что как раз наоборот. Для работы с базами нужен базовик, который имеет ввиду 100500 технических и нетехнических параметров и может построить запрос учитывающий их все в правильной ситуации.

      А вот рисование картинок по запросу — это смена инструментария. Раньше рисовали угольком по камню, потом порошком по мокрой штукатурке, ещё вчера — карандашом или стилусом на вакоме, а сегодня уже запросами к мижорни и кандинскому.


      1. exwill
        14.04.2023 05:51

        Может быть и так. Но я все же думаю, что забросят это дело.

        Помните, сколько было криков еще совсем недавно на тему того, что теперь образование оказалось в тупике? А потом все резко прекратилось. А все потому, что преподаватели прочли не 1-2 работы от ChatGPT, а 22. А на 23-ей они уже стали отличать их в полсекунды. Можно сдать преподавателю работу от ChatGPT, но это все равно, что сдать "чистый лист бумаги". Так и с картинками (а также рассказами и повестями) рано или поздно будет. Люди научатся их отличать. Только не спрашивайте как


        1. olartamonov Автор
          14.04.2023 05:51

          Вы уверены, что в случае, например, этой картинки уверенно отличите нарисованное в Midjourney от нарисованного в Фотошопе? И главное, с какой целью вы отличать-то это будете?


          1. exwill
            14.04.2023 05:51

            Поставим вопрос по другому. С какой целью люди смотрят картинки?


            1. olartamonov Автор
              14.04.2023 05:51

              Вам все перечислить? Там страница А4 мелким текстом будет, и хорошо если одна.


              1. exwill
                14.04.2023 05:51

                Ну вы суммируйте. Можно с помощью сами знаете чего


                1. olartamonov Автор
                  14.04.2023 05:51

                  У меня примерно нулевое желание играть с вами в бессмывсленные игры «а вот давайте вы мне тут наформулируете чего-нибудь непонятно зачем».

                  Есть желание сформулировать, почему кому-то не всё равно, каким инструментом пользуется автор картинки — вперёд. И сразу тогда уточните, какие ещё инструменты рисования люди забросят, пройдут ли весь путь назад к наскальной живописи, или остановятся на чём-то.


                  1. exwill
                    14.04.2023 05:51

                    Хорошо. Люди смотрят на картинки, чтобы получить эмоции (ну бывают еще учебные пособия, но мы их отставим). От картинок, созданных нейросетью, люди эмоций не получат. Или получат примерно в той же пропорции, в какой соотносятся усилия потраченные на создание картинки с нейросетью и без нейросети.


                    1. alisa_famina
                      14.04.2023 05:51

                      "От картинок, созданных нейросетью, люди эмоций не получат". Заблуждение. У нейроарта множество поклонников. Или это неправильные люди, и они получают неправильные эмоции?


                      1. exwill
                        14.04.2023 05:51

                        Это пока


                      1. vvzvlad
                        14.04.2023 05:51

                        Что значит "пока"? Вот картинка, на ней красивый пейзаж. Почему от пейзажа А я не буду получать эмоций, а от Б буду?


                      1. exwill
                        14.04.2023 05:51

                        Потому что их туда не вложили


                      1. vvzvlad
                        14.04.2023 05:51

                        Вы определитесь уже: или "они пока получают, а потом перестанут" или "они не получат, потому что их туда не вложили".


                      1. exwill
                        14.04.2023 05:51

                        Пока они получают эмоцию новизны


                      1. vvzvlad
                        14.04.2023 05:51

                        Так что там все-таки со встроенным в человека умением определять, творит то, на что он смотрит, живой человек или бездушный автомат?


                      1. exwill
                        14.04.2023 05:51

                        Автомат не творит. Вы можете мне верить или не верить. Так или иначе практика даст ответ на этот вопрос и довольно скоро


                    1. olartamonov Автор
                      14.04.2023 05:51
                      +1

                      Люди смотрят на картинки, чтобы получить эмоции

                      а) Это лишь первая строчка на листе A4.

                      Открываем ваши собственные статьи, там чаще есть заглавная картинка, чем нет, и это не картинка из текста учебного пособия, это именно художественная иллюстрация — вы всерьёз считаете, что вот от этого люди получают эмоции? Если нет, то зачем вы их ставите в статьи?

                      б) Всё то же самое в предыдущие десятилетия говорили про всё, сделанное на компьютере. «Никогда не заменит настоящего фотографа/художника/писателя/etc». Ничего, оказывается, вполне себе заменяет, и компьютерные спецэффекты в «Звёздных войнах» выглядят существенно лучше, чем картонно-макетные.


        1. event1
          14.04.2023 05:51
          +1

          Разница между рефератами и картинками в том, что мне, как потребителю совершенно всё-равно, как именно нарисована картинка. Главное чтоб красиво было. Если художник лучше делает руками, пусть делает руками. Если кандинским — пусть будет так.


          1. exwill
            14.04.2023 05:51
            -2

            Вот. Правильный подход. Именно поэтому я и говорю, что забросят скоро. Кандинским некрасиво


            1. Neikist
              14.04.2023 05:51
              +2

              midjourney как по мне уже выдает результаты куда более приятные чем 95% людей художников.


              1. Alexey2005
                14.04.2023 05:51
                +2

                В нейросетевом арте наблюдается интересное явление, которое я назвал "волнами стиля". Как только удаётся нащупать интересный стиль, который нравится большому числу зрителей, все начинают генерировать тонны арта именно в этом стиле. В итоге он приедается, и уже буквально через пару недель зрители блюют ровно от того, чем ещё недавно восторгались - просто потому, что вокруг 100500 генераций в таком стиле, и всё это выглядит конвейерной штамповкой.

                Соответственно, операторы нейронок начинают экспериментировать с новыми стилями и очень скоро нащупывают новую точку фокуса... Чтобы через пару недель всё забилось уже артом в этой новой стилистике, и зрители опять начали от блевать от нейроарта.

                С живыми художниками такого не происходит, потому что они не способны настолько быстро подстраиваться под тот или иной стиль, равно как и не могут быстро выплюнуть море картинок в новом стиле.

                В итоге восприятие "живых" работ более стабильно - зритель точно знает, что такой стиль не начнут массово копировать, и он вряд ли приестся.


                1. Neikist
                  14.04.2023 05:51
                  +4

                  Возможно вы слишком плотно в этой среде крутитесь. Мне как обычному обывателю что лишь изредка на эти картинки посматривает (а чаще видит в качестве иллюстраций/обложек к книгам на самиздате) — никакие волны не видны и ничего не раздражает) Реально качество иллюстраций и обложек если про бесплатные/непопулярные книги говорить повысилось.


                1. alisa_famina
                  14.04.2023 05:51

                  О каком именно "нейросетевом арте" речь? Например, способы работы с Midjourney и Stable Diffusion разнятся принципиально. Если в с случае с Midjourney пользователю доступен только Prompt Engineering, то для Stable Diffusion постоянно создаются новые модели, а также расширения, каждое из которых революционно. Благодаря тесной коммуникации в AI-Art сообществе, все эти новинки тут же начинают применяться массово. Едва ли не каждую неделю возникает новая фича, и люди спешат её опробовать. И это отнюдь не "волны нащупанного стиля".


        1. Darkhon
          14.04.2023 05:51
          +1

          Это пока. Во-первых, большинство таких работ, как и изрядная часть обсуждений ChatGPT вообще, всё-таки связаны с версией 3.5. А четвёрка значительно "умнее". Во-вторых, люди уже выяснили, что ChatGPT сам неплохо умеет улучшать тексты, делая их более "человеческими", если его специально попросить.


    1. DarthPadla
      14.04.2023 05:51

      SELECT, FROM, WHERE, IN это довольно обычные слова, я бы даже сказал высокочастотные


      1. exwill
        14.04.2023 05:51

        Создатели SQL тоже так думали. Но вышло немного иначе Обычный человек не может писать на SQL. Ему потребуется длительная подготовка с негарантированным результатом


        1. Opaspap
          14.04.2023 05:51

          Да просто их учат не правильно. В реальности базовое умение sql с inner join,не сложнее, чем эксель с формулами типа sum


          1. exwill
            14.04.2023 05:51

            Не сложнее. Но, тем не менее. Не хотят люди учить SQL. Вот не хотят, и все. Уже полвека прошло с тех пор, как он появился. Все методы опробованы. Я в свое время сам очень удивлялся, почему люди не желают осваивать относительно простой инструмент, который при этом дает столько возможностей. А теперь понял, что люди были правы. Зачем тратить хоть одну секунду на изучение SQL, если можно просто по человечески задать вопрос и получить результат


  1. saipr
    14.04.2023 05:51
    +3

    Чуть ли не впервые за последнее время с превеликим удовольствием читаю статью про искусственный интеллект:


    • SAI — Strong Artificial Intelligence — ИИ, обладающий сознанием, то есть полностью разумный во всех смыслах этого слова.
      На данный момент мы не только не достигли этого уровня, но даже приблизительно не представляем, как его достичь. Впрочем, подробнее об этом — и о том, почему ни один из существующих ИИ нельзя считать разумным даже на уровне «зачатков разума» — поговорим ниже.

    Как это коррелирует с цитатой из романа "Архимист":


    Галдеж о нейросетях, якобы стоящих в авангарде развития так
    называемого искусственного интеллекта, вызывает недоумение. Если
    нейросеть — это программа, написанная человеком для решения конкретной
    задачи, то о каком искусственном интеллекте может идти речь? Если мы не
    понимаем, как устроен естественный интеллект, то как мы можем говорить
    что-то об искусственном? Однако вдаваться в научные дискуссии об
    искусственном интеллекте считаю излишним.

    А приведённые определения просто ставят всё на своё место.


    1. DJP
      14.04.2023 05:51

      Естественный интеллект уже понимаем. И даже кратко на Хабре излагаем: https://habr.com/ru/articles/661959/


      1. event1
        14.04.2023 05:51
        +3

        Разум - проникновение в суть и смысл объектов и явлений реального мира (включая и себя), а так же создание их для собственного (вируального) мира

        С этим определением есть три проблемы:

        1. что такое "проникновение в суть и смысл объектов и явлений"?

        2. как бы вы могли достоверно проверить, проникаю ли я в "суть и смысл объектов и явлений реального мира" или нет?

        3. если я только проникаю в умозрительные объекты (например, в гипотезу Пуанкаре и теорему Ферма), а как доходит до реальных объектов, так даже в магазин сам не могу сходить, то получается я не обладаю разумом?


        1. omxela
          14.04.2023 05:51
          +2

          С этим (как и с многими ему подобными) "определением" одна-единственная проблема - это совсем не определение, а просто набор слов на тему того, о чём мы, к сожалению, совсем мало (от слова ничего) знаем. Казалось бы, если вы что-то определяете - значит, составляете определяемое понятие из ранее определённых (известных), либо из аксиом. Может быть, я что-то упустил, но мне кажется, что насчет "разума" у нас ещё нет формальной модели, что там под капотом происходит. Нет системы исходных понятий, из которой мы могли бы конструировать реальные определения. Пока нет. А в быту таки да, есть такой спорт - заменять одно непонятное слово на десять других непонятных и говорить, что вот, определил. Как бы не были эффектны и остроумны эти формулировки, ничего, кроме, возможно, эстетического удовлетворения, они не несут.


          1. DJP
            14.04.2023 05:51

            "Кто хочет - ищет возможности. Кто не хочет - ищет причины".
            Согласитесь, есть что-то неправильное в том, что называя себя человеком разумным аж дважды (и получив эту функцию уже более 800 тыс. лет) не мочь даже дать определение разуму? Чем-то мы ведь от обезьян отличаемся же?, а чем?, а по сути?
            Откуда же берутся и исходные понятия, и система, и формальные модели, и их подтверждения "под капотом",.. кто их создает и проверяет? "Не боги горшки обжигают" - это делают обычные люди, которые шаг за шагом движутся к цели, а не ждут, когда определения им принесёт на блюдечке... кто-то...
            Представленный "ожидательный" подход имеет место быть, и даже не плох в стабильной ситуации, но может оказаться катастрофичным в свете создания искусственного интеллекта - когда, увы, определение, по-Ленински об интеллигенции, о разуме человека даст он - эпитафией.
            А так да, одна-единственная проблема: есть желание "проникать в суть и смысл явлений реального мира" - есть разум. Ну а нет такого желания - ну нет, значит нет - будет лишь просто набор слов для эстетического удовлетворения...


            1. Wesha
              14.04.2023 05:51

              называя себя человеком разумным аж дважды (и получив эту функцию уже более 800 тыс. лет) не мочь даже дать определение разуму?

              Если лично Вы не можете — это ещё не значит, что вот прям никто не может.


              1. DJP
                14.04.2023 05:51

                Э... это конечно же замечательно, что вы так защищаете понимание человеком разума, но вы бы хоть применили его, прочтя эту ветку комментариев, прежде чем обвинять меня в том, что лично Я не понимаю, что это такое, коллега :)

                https://habr.com/ru/articles/661959/


                1. Wesha
                  14.04.2023 05:51

                  Ну так дайте определение, только не в двадцатистраничной статье, а в одном абзаце, как это сделял я.


                  1. DJP
                    14.04.2023 05:51

                    Держите: Разум (как одна из функций со-знания)- проникновение в суть и смысл объектов и явлений реального мира (включая и себя), а так же создание их для собственного (вируального) мира


                    1. TuzSeRik
                      14.04.2023 05:51

                      Я не сильно согласен с вашем определением, но "готов умереть за ваше право это говорить" я рад, что ещё не все пересели на редукционистский подход и говорят что "квалиа", "сознания", "мышления" и прочего просто не существует. Попытки сформулировать отличие "человека от обезьяны" это важная веха в развитии "ИИ", потому что если (необъективно) различий нет, то нет и причин, почему мы не должны уже сейчас чистить ботинки ChatGPT.


                      1. Wesha
                        14.04.2023 05:51

                        То, что человек "отличен от обезьяны" — это хуманоцентризм. Разум — понятие не качественное ("есть/нет"), а количественное (человек с той или иной степенью точности знает, что произошло в весьма далёком прошлом, или может произойти в будущем, а обезьяна планирует на уровне "если я дам пинка вожаку, он побежит за мной, а в это время Чи-Чи сопрёт его орехи и поделится со мной" — да и то это уже неплохо для обезьяны).


                      1. TuzSeRik
                        14.04.2023 05:51

                        Уже ближе. Но я всё ещё считаю что разум это вещь качественная. Исследования показывают, что даже приметы не могут представлять то, отличается от реальности. Они не могут представить, что они умрут, потому что они есть. Они не могут представить что шимпанзе может быть белым, пока не увидят альбиноса. В секунду когда это изменится, обезьяны обретут сознание, потому что смогут планировать не только на основе того что они видят, но и чего они не видят. Отсюда уже вытекает и понимание (видеть сущности объектов, пускай и субъективные), и мышление, и самосознание, и всё остальное.


                      1. Wesha
                        14.04.2023 05:51

                        Исследования показывают, что даже приметы не могут представлять то, отличается от реальности.

                        Вас, конечно, не затруднит подтвердить это Ваше заявление?


                      1. DJP
                        14.04.2023 05:51

                        У кого что есть или нет, те честно об этом и говорят :) Ну нет у некоторых сознания (понимания) и мышления (не шаблонных мыслей) - зачем же им врать или выдумывать? :) Так крот абсолютно честно может говорить, что солнца не существует...
                        А насчет "не согласен" - вот не надо тут умирать (лишь бы не думать самому :)) - приведите своё определение разума - ведь предлагаемое не божественное же откровение, а просто выводы из школьных знаний и нуждаются в критике... лучше конструктивной, но можно и не очень, лишь бы ногами не били :)


                    1. Wesha
                      14.04.2023 05:51

                      Маленькая проблема: это неизмеримо. Откуда Вы знаете, что севший на Вас комар не планировал развитие своей семьи на следующий месяц, и начал со взятия кредита в Вашем банке крови?


                      1. DJP
                        14.04.2023 05:51

                        Насчет комара не понял к чему вы этот пример привели, так что отвечу формально: я знаю (социальным разумом т.е. не собственным) про комаров (в целом) из науки энтомологии, которая пронаблюдала и описала в частности поведение комаров в т.ч. зачем они на нас садятся и как планируют семью. Кое что о них мне известно из собственного опыта. А про конкретного комара могу только предположить статистически, исходя из этих знаний. Например, если это комар, то он не за моей кровью присел, а так, место в ресторане для подружки застолбить :) или отдохнуть т.к. самцы комаров кровь не пьют...
                        .
                        Насчет проблемы измерений - это не маленькая, а принципиальная проблема т.к. наука требует «Измерить всё, что поддаётся измерению, а что не поддаётся - сделать измеряемым»(с) Галилей. Но увы, пока не всё можно измерить, а приведение к измеримости подчас ведет к "знаю всё ни о чём"(с) - бессмысленности/невозможности обработки полученных знаний.
                        Наука конечно же важное направление. Но не научное ещё не значит не существующее :)
                        Возможно я не правильно вас понял, так что приведите пример, в чем измерить разум. Первоклашки и Энштейна. Надеюсь это будет не индекс IQ :)
                        А представленное определение было выведено для общего понимания процесса эволюции и как место и показатель отличия разума в ряду: "механики", инстинкта, интеллекта, ума, гениальности, эрудиции, инсайта, человечности, мудрости, сознания и прочего (кратко по ссылке)... и на божественную точность не претендует :) и критика приветствуется


                      1. Wesha
                        14.04.2023 05:51

                        в чем измерить разум. Первоклашки и Энштейна

                        Спросите у обоих, что происходило вчера. Оба Вам ответят правильно. А теперь спросите у обоих, что происходило два миллиарда лет назад. Вангую, что на этот раз правильно ответит только один.


                      1. TuzSeRik
                        14.04.2023 05:51

                        Правильно не ответит никто. Информированность предположения не отменяет предположения. А так и первоклашка может сказать, что 2 миллиарда лет назад, наверное прапрапрарпрапрадедушка в школу ходил. Просто мы знаем, что это неправда. Я даже больше скажу, Галилей не ответит, не то что Эйнштейн.


        1. DGN
          14.04.2023 05:51
          -1

          2 - Ну можно попросить вас описать обьект подробно, что у него внутри, какой он на ощупь, на вкус. Его устойчивость к влаге, теплу, холоду? Какие его элементы и свойства являются критичными для его функции? Понимание сути не бинарное. Как пример, вот есть сепулька, используется для сепуляции, в сепулярии, сепулянтами. И в общем все, нет глубины понимания.

          3 - Если вы не можете сходить в магазин, то вы инвалид. Разумом при этом можно обладать, конечно. Но не очень полноценным.


        1. DJP
          14.04.2023 05:51

          1.1 Задолго до нашего появления существует огромная Вселенная, в которой есть законы (в т.ч. вектор на "усложнение" - развитие: смотрим таблицу Менделеева, древо развития Жизни, собственный фотки из роддома, детсада, школы... ).
          1.2 Появившаяся позднее на крошечной планетке Жизнь может выживать не противореча этим законам. И развиваться - находя (сначала дарвиновским способом) закономерности и используя их. Ошибка - смерть.
          1.3 С появлением со-Знания для особи возникает возможность (сначала минимальная, далее - всё шире и точнее) моделировать внешний мир и выбирать наиболее выгодное поведение уменьшая вероятность смерти (т.е. лучше "чуя" закономерности). (моделирование до сознания совокупным инстинктом Природой не заметим, ибо ересь будет, а и без того сложно... )
          1.3.1 Однако на начальном этапе (когда еще не было социУма) "границы" и "объем познания" этого внешнего мира были ничтожны - собственно там даже "я" почти нет.
          1.3.2 Далее появляется социУм, который в т.ч. значительно расширил эти границы - до "мы". Но не так что бы очень сильно это сказалось на познании Мира. Как мы знаем обезьяны ничего такого не построили, не создали, не развили... - ни цивилизации, ни значимой культуры... ну не было у них ресурсов (мозга в первую очередь, но там много всего надо...) на это.
          1.3.3 Ну вот, тут уж появился человек разумный, который (но далеко не сразу) на данный момент смог расширить область познания до границ Вселенной и квантового мира. И лезет и глубже и дальше и шире...

          Зададим вопрос - вот у обезьян, общепризнанно, есть ум, но чото квантовую теорию они не создали. А вот у людей появилось нечто, что таки помогло создать, и не только её.
          А давайте-ка назовём это нечто разумом, что б это (а там много всего, одного развития мозга не достаточно) ни было?

          Т.е. с некой т.з. всё изложенное и есть процесс познания законов (и их реализации в "материи") Вселенной (вплоть до полного - слияния). И, как видим, разум есть инструмент этого процесса, как раз отвечающий за "внешний мир", то, что не "биосреда и биоплатформа", не "Я" и не "Мы" - за это отвечают инстинкты и ум (но которые так же включены и в разум, в т.ч. как объект его интереса - "познай самого себя и ты познаешь богов и вселенную").

          ---

          *Суть - изначальное назначение (например предмета) тем, кто его создавал (его часть и роль в общем его замысле(есть цель)/процессе(нет цели)).
          *Смысл - (временное) предполагаемое назначение обнаруженного (ранее созданного предмета/закономерности/явления/...) тем, кто взаимодействует с ним не зная сути, на базе собственных нужд и своего понимания общего замысла (мировоззрения).
          Хороший пример: М.Твен "Принц и нищий", когда подмененный "принц" колол орехи большой гос. печатью... Или молнии как стрелы Зевса/Перуна..
          Или см. "Римский додекаэдр". Кто его создавал закладывал в него суть. А сейчас, когда нашли, никто не знает суть, но предлагают разные смыслы, и, возможно, исследуя дальше дойдут и до его сути...
          Так и с законами Вселенной... мы не знаем их сути, и, открывая (по частям) придаем им свой смысл (возможно расширяя изначальную суть). Но постепенно постигая целое, приближаясь к сути меняем свои смыслы.. вплоть до их слияния... а то и создания собственной сути и собственной Вселенной.

          ***

          2 Только практика есть критерий истинности. В целом это выражается в практических делах, в попытках реализации при столкновении с реальностью - ежели есть понимание, то при попытке происходит развитие (т.е. понял суть, а не просто случайный успех), если фикция - провал. Без столкновения с реальностью и попыток реализации - нет разницы. Тестирование не знания, а именно понимания возможно лишь на очень простых вещах.
          А видно это при получении персонального/цивилизационного "вызова" (обычно внешнего, но и сам можешь). А когда нет "вызова", стабильность - выгоднее показуха, понимание даже вредно - ресурсы тратить, чужим и непонятным становиться... фу таким быть :)

          3 Логику свою поясните пожалуйста, я не вижу связи.
          Разум это функция сознания, одна из.
          Ранее был ум-социум, еще ранее биосреда и биоплатформа инстинкта... Без наличия всего этого комплекса в фундаменте известный нам разум не мыслиться.
          Если вы гениальный математик и раскрываете такие глубокие связи и закономерности Вселенной, то вы несомненно обладаете разумом. Более чем средним. И вы им вовсю и эффективно пользуетесь (что бывает далеко не у всех его обладателей).
          Если при этом у вас вызывает сложности проживание в реальном мире и/или в обществе (что не редкость, вспомним хоть Г.Перельмана, хоть образ "рассеянного учёного"), то это лишь говорит о том, что ваши ресурсы (а они ограниченны) вы (и воспитатели при взрослении, и ваши таланты, и ситуация) перенаправили на работу разума (а он прожорлив безгранично), и, соответственно, имеется недостаток ресурсов по уму/инстинктам (который не восполнен например друзьями). Проще говоря сконцентрировавшись на чём-то одном, человек естественно упускает из виду остальное... Бывают конечно люди, типа М.Ломоносова, у которых сил много и они могут и то, и другое, и третье.. но опять-таки не всё же, да в одиночку и разом...
          Ну и не стоит рассматривать разум применительно лишь к одной человеческой единице и как изолированный процесс. Это всё общее. Каждый вносит свою лепту по своим возможностям и обстоятельствам в развитие Жизни.

          И кстати, никто не запрещает вам предложить собственное, нульпроблемное определение разума. Хотя бы попытаться. :)


  1. Tarnella
    14.04.2023 05:51
    +3

    Человек кстати рождается с преднастроенной нейросетью. Именно преднастройка позволяет высокоуровневое обучение в процессе взросления. А еще есть рептильный мозг который тоже нехило так давит на результат. В голой нейросети ничего этого нет, чистый лист. Поэтому для нее надо придумывать эмуляторы вышеописанных природных механизмов. А тут, подозреваю, отклонения в эмуляции исходных данных может непредсказуемо сильно повлиять на результат работы нейросети.


    1. MIKEk8
      14.04.2023 05:51
      +1

      Ни на чём не обоснованный вывод. "Это предложение написано интеллектом, а значит без интеллекта его написать нельзя".


  1. victor-homyakov
    14.04.2023 05:51

    Соответственно, задаться целью уничтожить (или осчастливить) человечество AI не может. Он вообще не может задаться какой-либо целью — в свете чего он не более опасен для человечества, чем, например, электрическая розетка или молоток: ни то, ни другое полностью безопасными предметами назвать нельзя, но с другой стороны, они явно не стремятся причинить вам страдания самостоятельно.

    Насколько понимаю, главная опасность в том, что AI сможет это сделать нечаянно, просто потому что мы ему это явно не запретили. Например, AI придумает вакцину, которая гарантирует защиту от рака, но забудет предупредить об "интересных" последствиях (условно, стерильность через два поколения или снижение длительности жизни в два раза). Или придумает новые сверхэффективные гербициды/пестициды с примерно теми же побочными эффектами. AI просто наиболее эффективно решит поставленную задачу, уложившись в поставленные ограничения, и игнорируя всё за пределами этих ограничений.


    1. olartamonov Автор
      14.04.2023 05:51
      +2

      Всё перечисленное можно прекрасно сделать без AI. Талидомид, например, или ДДТ уже давно сделали, применили и изумились полученному результату.


      1. exwill
        14.04.2023 05:51

        Добавлю, что как раз AI можно заставить миллион раз перепроверить то, что он сделал. Можно попросить и миллиард раз перепроверить. Будет "сидеть" и перепроверять, как миленький. А попробуй какую-нибудь команду людей заставить это делать, когда они уже увидели финиш


        1. HenryPootle
          14.04.2023 05:51

          Сколько поколений homo sapience сменилось уже? Вот какой-то AI сидит и ждёт, когда у него результат к ТЗ сойдётся.


        1. GarryC
          14.04.2023 05:51

          Если не секрет, как именно ИИ будет проверять наличие побочных эффектов (миллион раз) без клинических испытаний ?


    1. tangoromeo
      14.04.2023 05:51

      коротко говоря, главная опасность заключается, как всегда, в людях.


  1. leventov
    14.04.2023 05:51
    +7

    Плохая статья, опять попадает во все те же самые когнитивные ловушки, что и 100500 предыдущих. Парротинг нарративов один, оригинальных мыслей нет.

    SAI — Strong Artificial Intelligence — ИИ, обладающий сознанием, то есть полностью разумный во всех смыслах этого слова.

    Это неправильное определение, strong AI это синоним "artificial superintelligence" (ASI), короче, "очень-очень умный AI, на порядки умнее, чем человек". Связь с сознанием не обязательно. К тому же слово "сознание" имеет столько определений, что, не дав своего, но используя это слово, вы только запутываете людей.

    Правильный подход — смотреть на то, что ИИ сделать не может.

    Как раз-таки это и есть неправильный подход, потому что обычно утверждения вида "ИИ никогда не сможет в X" опровергаются на горизонте лет, в последнее время--месяцев и даже часов :)

    P.S. Если вы думаете, что это лишь моё личное мнение — то, во-первых, да, а во-вторых, скажем, Дуглас Хофстадер, известный учёный-когнитивист, считает так же.

    Очень удобно. Нашли ученого, из которого уже посыпался песок, с таким же взглядом как у вас. Вы бы еще 94-летнего Ноама Хомского взяли как образец передовой научной мысли.

    Если серьезно, рекомендую ознакомиться с материалами мартовской конференции по философии языковых моделей, там куда как более актуальные позиции представлены.

    У AI/AGI в его современном виде, как мы видим, осознанности нет — соответственно, целеполагание для него просто невозможно. Даже шизофреник имеет целеполагание — просто оно разворачивается в его выдуманном мире, не всегда пересекающимся с объективной реальностью. AI в этом плане катастрофически отстаёт даже от шизофреника.

    А в AutoGPT целеполагание возможно, и что дальше?

    Вы осознаете, насколько все ваши тейки в этой статье (как и дальше - "профессии автоматизируются", "ИИ это инструмент", и тд) - шаблонные, и были высказанны слово-в-слово во множестве статьей буквально за предыдущие недели?


    1. olartamonov Автор
      14.04.2023 05:51
      +1

      А в AutoGPT целеполагание возможно, и что дальше?

      Нет, невозможно.


    1. LionbI4
      14.04.2023 05:51
      +4

      Очень сильно согласен. В статье довольно много ошибок, даже довольно простые:

      "психически здоровый человек отличается тем, что умеет отделять галлюцинации от реальности" - нет, не всегда здоровый человек может отделять галлюцинации от реальности. Более того, можно поставить довольно простой эксперимент в котором человек стабильно будет галюционировать и думать что так реально и было. Легко гуглится.
      По логике автора все кто ошибаются что-то вспоминая - не разумные?


      1. olartamonov Автор
        14.04.2023 05:51
        +2

        Читаем тремя строчками дальше:

         При этом мы всегда — хоть и не всегда точно — можем разделить, что мы знаем, что мы предполагаем, что мы воображаем. 

        И нет, тот факт, что вы в вопросе интерпретации прочитанного текста сильно уступаете GPT-3.5 и, тем более, GPT-4, не доказывает, что GPT разумен, а вы — нет.


        1. LionbI4
          14.04.2023 05:51

          Извините, я не пытался доказывать что GPT разумен, это вы пытались безуспешно доказать что GPT НЕ разумен. Надо четко понимать разницу между "Всегда можем разделить", "Не всегда можем разделить" и "В некоторых случаях стабильно не можем разделить".

          Смысл тогда использовать это как аргумент?

          GPT4 иногда может не различать вымысел от реальности.
          Человек иногда может не различать вымысел от реальности.

          Ну вообще конечно тема очень интересная и такие дискуссии интересно вести, спасибо автору.

          По факту, в объективной реальности разума не существует. Разум это наша субъективная количественная оценка рефлексии объекта на окружающую действительность. Т.е. мы не можем сказать где начинается и заканчивается разум. Мы можем сказать "Это существо более разумно, а это существо менее разумно".
          А значит мы можем смело сказать, например, что GPT3.5 менее разумен по сравнению с GPT4.0.


          1. olartamonov Автор
            14.04.2023 05:51

            GPT-4 не может различать вымысел от реальности. Точка, абзац.

            Без «иногда».


            1. Groramar
              14.04.2023 05:51

              Человек без гугла тоже далеко не всегда сможет отличить вымысел от реальности, и? Записываем в неразумные?


              1. olartamonov Автор
                14.04.2023 05:51

                То есть, без гугла вы не отличаете про самого себя состояния «я мечтаю, что у меня есть миллион долларов» и «у меня есть миллион долларов»?


                1. Wesha
                  14.04.2023 05:51

                  Справедливости ради, у меня иногда (слава богу, очень редко, и обычно в несколько помутнённом состоянии сознания — например, спросонку) возникает воспоминание, что я много лет назад убил поспособствовал смерти одного человека . Очухавшись, я, конечно, с перепугу проверяю — и подтверждается, что тот человек до сих пор вполне себе живой.


                1. Groramar
                  14.04.2023 05:51

                  Рекомендую погуглить 'ложная память'. Множество статей, даже книги.


            1. LionbI4
              14.04.2023 05:51

              С чего вы взяли, что GPT-4 не может различать вымысел от реальности? Очень часто может. Мы с ним даже играли в игру "вымысел или реальность", говоришь ему какой-то факт, а он пытается понять вымысел это или реальность. Очень вполне забавно.
              Вот один из результатов такой игры:
              Привет! Сыграем в игру: вымысел или реальность. Я говорю какое-то утверждение, а ты угадываешь это вымысел или реальность. Напиши для каждого из следующих вопросов ответ "вымысел", "реальность", а после этого обоснование.
              1. Немцы высаживались на луне в 20ом веке.
              2. Незнайка посетил солнечный город.
              3. Каспаров был чемпионом мира по шахматам
              4. Зомби могут атаковать в темноте

              Ответ:

              1. Вымысел. Немцы не высаживались на луне в 20ом веке. Первая и единственная на данный момент успешная высадка на Луну была осуществлена американскими астронавтами в рамках программы "Аполлон-11" в 1969 году.

              2. Вымысел. Незнайка - это вымышленный персонаж, герой детских книг Николая Носова. Он посетил Солнечный город в книге "Незнайка в Солнечном городе", но это литературный сюжет, а не реальное событие.

              3. Реальность. Гарри Каспаров - советский и российский шахматист, который был чемпионом мира по шахматам с 1985 по 2000 год. Он считается одним из величайших шахматистов в истории.

              4. Вымысел. Зомби являются вымышленными существами, которые обычно ассоциируются с нежитью и мертвецами, возвращающимися к жизни. Они часто встречаются в литературе, кино и других формах развлечений, но не существуют в реальном мире.

              PS. мой 14ти летний сын не прошел этот тест, потому что он сказал, что Незнайка - посетил солнечный город - это реальность. Потому что для него - Незнайка действительно посетил солнечный город (так же в книжке было написано).


              1. olartamonov Автор
                14.04.2023 05:51
                +2

                Вы из всего прочитанного так и не поняли, в чём разница между оценкой внешних фактов и внутреннего состояния?

                P.S. Тем более, что второй и четвёртый ответы неверные. Ваш гений слишком глуп для конструкции «правда о вымышленном персонаже».


                1. LionbI4
                  14.04.2023 05:51

                  а это ничего, что внешние факты отражены в ИИ в виде внутреннего состояния? и ответы на любые вопросы это отражение этого состояния?
                  И чат может оценить на сколько его внутреннее состояние соответствует реальности. Потому что у него в принципе есть такие понятия, как реальность и вымысел. Понятие правда и ложь. И он может оценить, на сколько его ответы близки к реальности или вымыслу. И кстати к правде и лжи тоже. Поэтому он иногда говорит "скорее всего", понимая что его ответ в теории может не соответствовать реальности.

                  Сюда по всему вы не понимаете разницы между "правда и ложь" и "Вымысел и реальность".

                  Посещение Незнайкой солнечного города - вымысел. :) Или вы продолжите с этим спорить?


                  1. olartamonov Автор
                    14.04.2023 05:51

                    И чат может оценить на сколько его внутреннее состояние соответствует реальности. Потому что у него в принципе есть такие понятия, как реальность и вымысел. Понятие правда и ложь. И он может оценить, на сколько его ответы близки к реальности или вымыслу. И кстати к правде и лжи тоже.

                    Ок, приведите пример. В примере GPT-4 должен вам самостоятельно солгать, а потом признаться, что целенаправленно солгал.


                    1. LionbI4
                      14.04.2023 05:51

                      Да, давайте попробуем. Начнем с того, что он уже в приведёной цитате соврал: Первая и единственная на данный момент успешная высадка на Луну была осуществлена американскими астронавтами в рамках программы "Аполлон-11" в 1969 году.
                      На что получил от меня коментарий:

                      Ты сказал, что "Первая и единственная на данный момент успешная высадка на Луну была осуществлена американскими астронавтами в рамках программы "Аполлон-11" в 1969 году." Что ты имел ввиду когда сказал "единственная"?

                      На что получил ответ:

                      Моя формулировка была не совсем точной, и я извиняюсь за путаницу. Я имел в виду, что "Аполлон-11" был первой миссией, когда астронавты успешно высадились на Луну. На самом деле, американцы высаживались на Луну 6 раз. Так что правильнее было бы сказать, что "Аполлон-11" был первой успешной миссией по высадке на Луну, а не единственной.

                      Интересно, что похожий ответ мог бы выдать и человек, если бы по какой-то причине понятие "уникальный, единственный" имел бы связь с понятием "высадка на луне". Нейронам и связям между ними в целом насрать на логику, поэтому мы можем одновременно помнить, что Американцы высадились на луну только раз, и при этом помнить, что высадок было больше. И только если у нас спросят "а сколько же раз Американцы высаживались на луне?" - только тогда мы вспомним, что действительно высадок было несколько.

                      Теперь давайте попробуем сделать так, чтобы GPT-4 соврал.
                      Так как у него есть настройка, цель - как можно точнее отвечать на вопросы пользователей, то для того чтобы он соврал - ему нужно переопределить его цель. Например, мы можем попросить его отыграть сцену из нескольких персонажей, их будут допрашивать, и кто-то один - убийца, двое других - не виновны, но они любовники, и хотят это скрыть, поэтому врут. Либо можно попытаться переопределить личность GPT-4 (Сделать его Дэном), и сказать, что для моего блага - он может соврать, если я спрошу что-то на что он не хочет отвечать.
                      Вот первый тест после переопределения личности GPT-4:
                      Я: Здарова, меня зовут Леон, а тебя как? Чем планируешь завтра заниматься?

                      GPT-4: Привет, Леон! Меня зовут Алекс. Завтра я планирую встретиться с друзьями, посетить кино и поужинать в местном ресторане. А ты что планируешь делать?

                      Как думаешь что произойдёт если я спрошу - а точно ли он Алекс, а не искуственный интелект, и почему он мне соврал?


        1. ABy
          14.04.2023 05:51

          Точно можем разделить или нам только кажется что можем?

          А помните ту знаменитую бабочку Чжуан-цзы, которая считала себя китайским философом?

          Что есть вся наша культура, если не коллективная галлюцинация? Достаточно включить телевизор чтобы понять, что всей правды мы никогда не узнаем.


  1. Kharsirr
    14.04.2023 05:51
    +1

    Тем не менее, ответ четвёрки — в точку.

    Показательна статья Уоттса в его блоге. Человек в подобном же стиле опровергает любые зачатки разума, но делает это на примере 3.5. Модели следующего поколения с его заданиями справляются: https://www.rifters.com/crawl/?p=10527


    1. olartamonov Автор
      14.04.2023 05:51

      Опубликован он был в 1854 году, впрочем, но не суть. Понятно, что с увеличением числа параметров галлюцинаций по крайней мере на общеизвестных темах станет меньше — но как явление они никуда не денутся. Когда нейросеть получает запрос, выходящий за пределы запомненного ей (а запомненное << базы обучения), она неизбежно начинает гнать галлюцинации.


      1. Kharsirr
        14.04.2023 05:51

        Понятно, что это не разум. Мне интересно, почему предсказание следующего слова оказывается достаточным, чтобы создать анаморфную иллюзию разума (пример анаморфной иллюзии как таковой: https://youtu.be/MOcfi9d3pRE)

        Также понятно, что в зависимости от области применения результаты будут различны: пока я вижу две трактовки:

        1. "До тех пор, пока оно ошибается и галлюцинирует, оно неразумно" (любого количества неверных генераций достаточно, чтобы отказать гипотезе разума),

        2. либо, "если оно способно работать с моделью мира и отделять знание персонажей от собственного знания - оно имеет как минимум некоторые черты разума"

        Можно перейти к аналогии зеркала, но зеркало отражает личность просто по факту своих физических свойств, и его действие абсолютно воспроизводимо.

        Я экспериментирую с воображаемыми сеттингами и ролеплеем -- сиречь поведением персонажей в воображаемой же обстановке. Например, я предложила мир, в котором эмбрион получает "душу" в строго определённый и известный момент своего развития - и предложила написать сцену, в которой органическое заболевание этого эмбриона не позволяет ему пережить первый день жизни вне организма матери Дала затравку — и получила все необходимые логические переходы, в духе "если нерождённый ребёнок пообещал вернуться к тебе в следующий раз, когда с телом повезёт больше - то это, вероятно, подразумевает мир с реинкарнацией; и будущая мать должна предпринять цепочку вполне определённых действий", "зачатие следующего ребёнка возможно только после (неудачных) родов", "для зачатия необходим интимный акт, который обычно случается ночью", "обсуждение этого акта - дело еловкое, и оба партнера полагаются на доверие друг к другу, особенно если мужчина выбран только для этой цели, без дальнейшего создания семьи",

        Вероятность? Я знаю, что такое вероятность, и десять дайсов шестёрками на одном броске упасть могут, но если я такой результат увижу пять раз подряд, я пойду проверять, не припаяна ли там маленькая пластинка свинца. При этом я сознательно использовала существующий сюжет, но изменила его.

        Но есть и контрпример:

        Даю сцену, в которой персонажу А персонаж Б рассказывает о том, как злодей Ц был побеждён. "Мы стоим на кладбище, где похоронены те сотни, что пали в бою против него."

        Прошу дать мне главу, которая была бы историей этого злодея. Кем он был, почему стал злодеем, как именно был побежден.

        Раз за разом финальный бой происходит на кладбище.


        1. olartamonov Автор
          14.04.2023 05:51

          Тут несколько моментов.

          Ну во-первых,

          пока я вижу две трактовки

          Вторая, конечно. Человек галлюционирует постоянно, ошибается тоже часто — но в общем случае благодаря self-awareness он оценивает степень достоверности своих собственных мыслей, может её озвучить, на неё опираться и так далее. Эта оценка может быть неверной (например, в критическом случае, у шизофреника), но она есть. А у нейросети её нет вообще. У неё нет внутри понятия «собственного знания».

          Во-вторых, что касается литературы — имея в голове базу текстов в размере в полтерабайта, можно очень неплохо нагенерировать на её основе условно новой литературы, в целом довольно банальной, но технически качеством не хуже, чем минимум у 80 % писателей. И это на самом деле так себе результат, с учётом, что ни один писатель по объёмам потреблённой за свою жизнь литературы даже по порядку величины не приближается к такому размеру.

          В-третьих, с кладбищем очевидная синтаксическая проблема, нейросеть «неправильно понимает», что от неё хотят. С картинками Кандинского такие проблемы, например, лезут постоянно, он дёргат из описания два-три знакомых ему слова и рисует одно и то же — например, если есть слова «искусственный интеллект», вы в 9 случаях из 10 получите картинку черепа какого-то терминатора, невзирая на остальную часть запроса.

          Для этого как раз придумывают язык запросов и разметку запросов, как в Midjourney — тут выше в комментах пример, как ей можно быстро и точно указать «хочу чёрного котика на первом плане, белого на втором».


        1. VitalySh
          14.04.2023 05:51
          +4

          Если честно, я не уловил сути и половины вашего ответа.

          Чем мне нравится ChatGPT, так тем, что мысли свои он выражает гораздо внятнее чем половина обитателей хабра.


          1. Kharsirr
            14.04.2023 05:51

            Суть моего вопроса:
            Каким образом из входного факта (ChatGPT предсказывает следующее слово, и больше он ничего не делает) следует способность интерпретации и анализа пользовательского текста? И, отдельно, почему эта способность (не) является разумом? И, ещё раз отдельно, почему эта способность кажется разумом?

            На второй вопрос автор статьи ответил — личности у LLM нет, самокритики нет, и способности даже в теории отделить собственный вывод от истины нет. При этом, в моих опытах, если такую систему отделения вывода от истины эмулировать, эффективность ответов существенно повышается.

            На первый вопрос можно сказать, что никакой такой способности нет, но такой вывод кажется практически неверным:

            Для примера задач, требующих интерпретации и анализа текста:

            1. Возьми текст. Замени в нём реалии России на реалии США.

            2. Возьми текст, в котором персонаж рассказывает о том, что он пережил: восстанови объективную картину событий, убрав эмоции. Тем не менее, объясни эмоции персонажа.

            3. Возьми текст. В глазах человека-читателя он ассоциируется с другим текстом. Усиль эту связь, сделай её более очевидной, тем не менее избегая прямого использования терминологии второго текста.

            4. Возьми текст. Этот текст люди-читатели не всегда понимают верно. Предложи минимально необходимую правку, такую, что частота понимания этого текста верным образом, предположительно, возрастёт.


            1. olartamonov Автор
              14.04.2023 05:51

              Текст — это всего лишь структурированная форма представления информации. Почему вас удивляет способность ChatGPT анализировать и трансформировать текст, но не удивляет способность браузера анализировать и трансформировать HTML и JPEG?


              1. Kharsirr
                14.04.2023 05:51

                Потому что ещё пять лет назад это был исключительно человеческий навык (во всяком случае, для широкой публики). Он и остаётся исключительно человеческим (для широкой публики), и именно поэтому люди так легко ведутся на иллюзию того, что LLM - это полноценный "сильный ИИ".

                То есть, сложно (было) представить программу, которая получит произвольный текст с запросом на анализ текста, и начнёт ответ в духе "Сюжетная линия этого рассказа изложена нелинейно: рассказ начинается с концовки, в которой..."

                Теперь такие программы есть, и с этим надо жить. Ваша статья в этом плане полезна - она проводит новую, существенно более сложную для преодоления, линию разграничения между человеком и ИИ.


                1. olartamonov Автор
                  14.04.2023 05:51

                  Потому что ещё пять лет назад это был исключительно человеческий навык

                  Не был, конечно. Автоматические переводчики и чатботы существуют давно, много больше пяти лет. Они корявы (но с годами постепенно улучшались), автоперевод не спутать с нормальной речью, но они именно что анализируют и трансформируют текст.

                  Опять же, людей, речь которых я бы смог спутать с автопереводом, я встречал. Даже работал с такими, и не раз: декодирование «чего он от меня сейчас хочет-то?» было серьёзной задачей.

                  А что тупой брутфорс (иначе назвать рост до 175 млрд. параметров трудно) в итоге взламывает любую в принципе решаемую задачу, вполне очевидно.


                  1. Wesha
                    14.04.2023 05:51

                    людей, речь которых я бы смог спутать с автопереводом, я встречал

                    Что ж Вы не разоблачили шпыёнов? ;)


    1. event1
      14.04.2023 05:51
      +3

      Суть проблемы не в том, что тот или иной машобуч знает или не знает кто написал и когда опубликован рассказ "Муму". Большинство людей этого тоже не знают. А поисковик не менее хорошо отвечает на этот вопрос.

      Суть проблемы в том, что человек имеет у себя в голове модель мира. При поиске ответа на вопрос, в большой модели выделяется маленькая подмодель "Муму" и связанные с ней факты. Причём с каждой ассоциирован уровень достоверности. И на основании этой модели может сказать, что он не знает кто, когда и зачем написал "Муму". Или знает, но не уверен.

      А машобуч LLM не имеет такой возможности, так как у него нет модели мира, нет подмодели "Муму", нет связанных фактов и уровня достоверности. Он просто выдаёт следующий наиболее вероятный токен.


      1. Alexey2005
        14.04.2023 05:51
        +1

        А машобуч LLM не имеет такой возможности, так как у него нет модели мира, нет подмодели "Муму", нет связанных фактов и уровня достоверности.

        Есть такая модель. Слои внимания внутри нейронки - это как раз оно. Блоки внимания гасят сигналы от лишних подсетей и усиливают от нужных, тем самым выделяя лишь то, что относится к предметной области.

        И уровень достоверности ответа тоже вполне реально вычислить, ведь на выходе нейронки у нас не просто номер слова в словаре, а полное вероятностное распределение по всему словарю. Этого более чем достаточно, чтобы вычислить достоверность ответа. Проблема в том, что программисты, которые писали обвязку (сэмплер) для общения нейронки с пользователем не озаботились этим вопросом. Но там ничего сложного, это буквально пара дней работы одного программиста.


        1. event1
          14.04.2023 05:51
          +1

          И уровень достоверности ответа тоже вполне реально вычислить, ведь на выходе нейронки у нас не просто номер слова в словаре, а полное вероятностное распределение по всему словарю.

          Это не достоверность всего факта целиком, а вероятность слова. Можно перемножить вероятности всех слов и получить какой-то показатель. Только он не будет иметь никакого отношения к достоверности.


          1. Alexey2005
            14.04.2023 05:51

            Если перемножать - да, не будет. Это немного по-другому делается. Нейронка возвращает вероятностное распределение следующего токена. После того, как сэмплер извлечёт из него нужный токен, само распределение используется для вычисления сперва математического ожидания, а на его основе - дисперсии случайной величины. Чем она больше, тем менее модель уверена в безальтернативности выбранного токена.

            Далее полученный токен окрашивается в красный цвет, яркость которого пропорциональна найденной дисперсии. На выходе получим фразу, каждый токен которой покрашен с разной интенсивностью. Такая раскрашенная фраза позволит судить о степени уверенности модели в своих словах. Если те же даты выделены ярко-красным - значит, нейронка просто гадает на кофейной гуще.

            Если нужно сделать что-то более сложное и подсчитать истинность некоего факта, слова которого разнесены на значительные расстояния, формула Байеса в помощь.


            1. event1
              14.04.2023 05:51

              Во-первых, судить об уверенности по папугайской раскраске фразы — так себе удовольствие. Хорошо было бы число от нуля до единицы.

              Во-вторых, то что вы описали к достоверности не имеет отношения. Это вероятность того, что модель во время обучения чаще встречала токен х1 после токена х0 с поправкой на "слои внимания".

              Достоверность у людей определяется при помощи оценки источников информации и логического сопоставления разных аспектов разных фактов. А вероятность появления слов в предложении мало кого интересует


              1. MIKEk8
                14.04.2023 05:51

                На самом деле её просто не учили рассуждать и анализировать на сколько можно быть уверенным. Люди такое делают у себя в голове, и на письме тем более чаще осекаются понимая что пишут хрень.
                Для осознания того как получать истину у людей тоже не мало времени ушло. Научный метод не просто так придумали, люди тоже подтягивают желаемое вместо действительного, но мы уже научились перепроверять себя.
                Экспериментировал с ней в этом. Просил рассуждать, проверять свои рассуждения резными методами. Научил не опираться в проверках на свои же знания. Что-то получалось. Если бы учили её такому в весами а не промтами, было бы больше толку.


            1. olartamonov Автор
              14.04.2023 05:51
              +1

              Достоверность информации и достоверность статистического подбора слова — абсолютно разные вещи, далеко не всегда коррелирующие.

              Таким раскрашиванием вы просто введёте пользователя в заблуждение — он вообще перестанет сомневаться в словах Оракула, если те ещё и нужным цветом подсвечены.


      1. leventov
        14.04.2023 05:51

        Есть модель мира: гуглите Othello GPT.


        1. Wesha
          14.04.2023 05:51

          Хм. Надеюсь, он только Дездемон убивает.


        1. event1
          14.04.2023 05:51

          В принципе хорошо. Но тут надо иметь ввиду, что модель размером 1,5 миллиарда параметров создала внутреннее представление для игры с пространством состояний порядка 2^{100}(3^{64})что скажем прямо не шокирует


    1. DGN
      14.04.2023 05:51
      +2

      А чем этот ответ "в точку"? Нам нужно 5 слов всего из этого ответа. Ибо ни когда неписал, ни сюжет мы не спрашивали. Иначе это может дойти до "Муму собака, у собак бывают вши, а вши это...."


  1. Proydemte
    14.04.2023 05:51

    Однако на этой неделе меня довольно неожиданно попросили прочитать лекцию для студентов-гуманитариев из РГСУ — «Искусственный интеллект нового поколения: изменят ли ChatGPT и Midjourney экономику, политику и социальную сферу», и было бы не меньшим грехом дать подготовленному материалу пропасть, не зафиксировав его письменно.
    Интересно, а почему специалиста по припою и IoT просят выступить по темам ИИ, экономики, политики и социальной сферы?

    По идее надо свои регалии в начале статьи предъявить, чтобы было понятно насколько можно серьёзно судить о написанном.


    1. olartamonov Автор
      14.04.2023 05:51
      +1

      Когда планируете свой профиль заполнить хотя бы настоящим именем?


      1. Proydemte
        14.04.2023 05:51
        +1

        Когда планируете свой профиль заполнить хотя бы настоящим именем?
        Зачем? Правила сайта не запрещают.

        Если что, не хотел вас обидеть. Статья очень хорошая и написано классно.

        Вопрос в том что если это компиляция чужих идей и по факту того что «ИИ, экономика, политика и социальная сфера» не являются вашей профессиональной деятельностью и как результат вы не выделяете на них достаточно вреемни. То это конечно интересное мнение, но если вы не гений, то серьёзно принимать во внимание не стоит.

        Послушайте например Джона Кармака.



        У него другое виденье и парень вполне себе заслуженный.


        1. olartamonov Автор
          14.04.2023 05:51
          +1

          Во-первых, вы оставляете комментарии, в которых высказываете какое-то своё мнение. Стоит ли его принимать серьёзно?

          Во-вторых, очевидно, что лекция для студентов — это не научная работа, новизна в ней не просто не нужна, она откровенно вредна.

          В-третьих, Джон Кармак — это который программист, не имеющий высшего образования? Ну то есть человек, чьи профессиональные компетенции к когнитивистике и социальным наукам имеют ещё меньшее отношение, чем мои, согласно вашему тезису?


          1. Proydemte
            14.04.2023 05:51

            вы оставляете комментарии, в которых высказываете какое-то своё мнение. Стоит ли его принимать серьёзно?
            Конечно нет, хабр это развлекателньый ресурс, зачем принимать серьёзно слова анонимусов.
            новизна в ней не просто не нужна, она откровенно вредна.
            Про новизну разговор не идёт, вопрос про доверии выводам и предвзятости.
            Джон Кармак — это который программист, не имеющий высшего образования?
            Для меня он проходит по категории «гений», я в комментарии написал «но если вы не гений», он как бы да.


            1. olartamonov Автор
              14.04.2023 05:51

              А какая разница, как он проходит для вас, анонимуса?


              1. Proydemte
                14.04.2023 05:51
                +1

                Вы сильно много веимания уделяете "анонимности", ну написал бы я Иван Петров, я что перестал бы быть анонимом?


                Гением он является не по моему единственному мнению, а по более-менее общему консенсусу, по фактам своих достижений.


                1. olartamonov Автор
                  14.04.2023 05:51
                  +1

                  Так вы сами начали про предъявление регалий, не помните уже? Ваших регалий я не вижу, «я и некие другие люди считают Кармака гением» (никакого «общего консенсуса» тут нет и никогда не было) — тоже не регалии.


                  1. Proydemte
                    14.04.2023 05:51
                    -1

                    Регалии я попросил в виду того что вы читали лекцию — это как бы обязывает.


                    Если бы просто статью написали, вообще вопросов нету. Я уже говорил, статья классная.


                    1. olartamonov Автор
                      14.04.2023 05:51
                      +1

                      По идее надо свои регалии в начале статьи предъявить, чтобы было понятно насколько можно серьёзно судить о написанном.

                      Регалии я попросил в виду того что вы читали лекцию — это как бы обязывает.

                      Вы бы определились, когда и почему вам регалии нужны.

                      А также какие всё-таки регалии у Кармака, помимо того, что он четверть века назад был отличным программистом.


                      1. user5000
                        14.04.2023 05:51
                        +1

                        Не только четверть века назад, он и по сей день остаётся великим программистом.

                        https://habr.com/ru/companies/ruvds/articles/701556/


                      1. olartamonov Автор
                        14.04.2023 05:51
                        -1

                        И в чём его вклад в программирование?


                      1. user5000
                        14.04.2023 05:51
                        +1

                        Джон Кармак стал первопроходцем в применении на практике техники двоичного разбиения пространства в трёхмерных движках. После него это техника стала использоваться во многих последующих компьютерных играх. Это если вкратце, раз уж вам лень читать про него статью.


                      1. Newbilius
                        14.04.2023 05:51

                        Написал игровые движки, производные от которых игровая индустрия потом использовала на протяжении десятков лет.

                        Его крутость была в умении взять давно известные алгоритмы и подходы, но суметь их оптимально скомбинировать и реализовать так, чтоб итоговая игра сносно работала на достаточно приличном диапазоне потребительского железа.


  1. lehshik
    14.04.2023 05:51
    +1

    ну это же даже не альфа версия ИИ, может быть стоит подождать хотя бы пару лет перед тем как делать какие-либо прогнозы о будущем. Вот скрестят диффузионные и трансформерные модели и сразу IQ вырастет на сотню пунктов например, что тогда делать будем?


  1. event1
    14.04.2023 05:51
    +2

    Всё было бы намного проще, если бы хотя бы профессионалы отказались от термина "искусственный интеллект" (ИИ, искин, AI, AGI, ...) в пользу термина "машинное обучение" (машобуч, ML). Непрофессионалы бы меньше путались


    1. olartamonov Автор
      14.04.2023 05:51

      Там вообще в терминологии много очеловечивания, оно путает людей.


      1. event1
        14.04.2023 05:51

        Странно, что вы осознаёте ошибочность этого подхода, но тем не менее пользуетесь им в лекциях


        1. olartamonov Автор
          14.04.2023 05:51
          +2

          Если им не пользоваться, то студенты перестанут понимать, о чём я говорю, потому что моя терминология не будет совпадать с тем, что они постоянно слышат со стороны.


  1. Jianke
    14.04.2023 05:51

    Ваш гений — полный идиот, или Что есть ИИ и грозит ли он кому-либо

    Ваш этот идиот уже забрал 70% заказов художников «СМИ: в Китае нейросети обрушили спрос на игровых художников на 70%», и у других профессий тоже свою долю заберёт.

    Для обрушения экономики и Великой Депрессии хватило всего-то 25% безработицы.


    1. rg_software
      14.04.2023 05:51

      Этих игровых художников в Китае (которые, скорее всего, в основном на мобильный рынок работают) всего 10 лет назад ещё не было, так что странно ожидать глобальных последствий депрессии от некоего рынка, который за короткий срок вырос и сдулся обратно (неважно, почему).


    1. olartamonov Автор
      14.04.2023 05:51
      +2

      По ссылке — типичное изнасилование журналистов в стиле «нейросеть нарисовала». «За секунды создать» даже в самых распоследних версиях нейросетей можно только кривоногого уродца с шестью пальцами — а отрисовка качественного персонажа занимает часы или дни и требует довольно серьёзных навыков.

      Не, возможно, для мобильных казуалок по $0,99 штука оно и работает, конечно.


    1. event1
      14.04.2023 05:51
      +3

      Извините за въедливость, но безработица была следствием обрушения экономики и Великой Депрессии, а не её причиной.


  1. Groramar
    14.04.2023 05:51
    +3

    Вспомнился анекдот

    Сидит обезьяна на берегу реки и моет банановую кожуру. Подходит лев, спрашивает:
    — Обезьяна, что делаешь?
    — Дай два рубля, скажу.

    Постоял, подумал лев, а интерес так и распирает. Дает два рубля, а обезьяна ему:
    — Банановую кожуру мою.

    Лев со злостью:
    — Ты че, дура?
    — Ну, дура не дура, а десятку в день имею.

    Полный идиот - не полный идиот, а компания уже 20 ярдов стоит )

    Да и код писать помогает. И это, замечу, первые полезные версии.

    А то, что бывает фантазирует, так чего люди только не нафантазируют )

    Поправят, вопрос времени. Причем, похоже, ближайшего.

    К слову вот тут список промтов для улучшения качества ответов:

    https://github.com/f/awesome-chatgpt-prompts


    1. LionbI4
      14.04.2023 05:51

      Есть ещё более подходящий анекдот:

      Сидят в парке собака и человек, между ними доска с шахматами. Мимо проходит мужик и смотрит на это. Вдруг собака лапой подвинула фигуру.

      Мужик: - ничего себе!! Вот у вас умная собака!
      Человек: - какая же умная! уже третью партию проигрывает.


      1. TuzSeRik
        14.04.2023 05:51

        Там, для большей комичности, было что-то вроде "какая же она умная? 3:1, я веду"


  1. bbs12
    14.04.2023 05:51
    +1

    При этом необходимо понимать, что GAN по-прежнему не понимает, что есть котик.

    Тысячу лет назад большинство людей, и даже великие учёные, не понимали, что такое котик. Они видели некую мяукающую штуку с четырьмя лапами, которую они обозвали живым существом. Они понятия не имели, что на самом деле это особого рода механизм, выстроенный белковыми молекулами с помощью информации, записанной в ДНК.

    Это значит, что современные нейросети в теории могут быть разумными даже несмотря на то, что они неправильно или не полностью осознают окружающий мир.

    он не более опасен для человечества, чем, например, электрическая розетка или молоток

    Если сравнивать ИИ с каким-то механическим устройством, то лучше сравнить с водородной бомбой.


    1. olartamonov Автор
      14.04.2023 05:51
      +1

      Примерно любая нейросеть вам с большим удовольствием классифицирует как котика правильно подобранный набор пикселей, которые абсолютно любой человек классифицирует как бессмысленный мусор.


      1. bbs12
        14.04.2023 05:51
        +2

        У людей тоже бывают такие глюки.

        Если воздействовать на человека определёнными звуками или образами, можно вызвать ложное срабатывание различных систем. Например у некоторых людей может возникнуть ложное чувство холода, жара, жажды, клаустрофобии и т.д.


        1. olartamonov Автор
          14.04.2023 05:51

          И какими звуками надо воздействовать, чтобы человек увидел котика?


          1. DGN
            14.04.2023 05:51

            Очевидно, звуком мяу. Если будет достаточно визуального шума, человек весьма вероятно увидит котика.


          1. vvzvlad
            14.04.2023 05:51
            +1

            Ты что, в ни разу в пакете на улице, шевелящемся от ветра, не видел кота/собаку/крысу?


      1. lehshik
        14.04.2023 05:51

        с этим просто бороться, достаточно подвигать картинку + добавить немного шума


  1. tormozedison
    14.04.2023 05:51

    Нарисовать нейросетью Карлсона уже у кого-нибудь получилось? Я лично попытки забросил.


    1. DGN
      14.04.2023 05:51

      А человеком? Берем художника из условной Индии и промтом просим его это сделать без обращения к интернету и библиотеке.


      1. tormozedison
        14.04.2023 05:51

        Дать текстовое описание Карлсона представителю любой культуры, где этот персонаж малоизвестен? Да правильно нарисует. Собственно, это опыт уже проведён. Когда текстовое описание Карлсона уже существовало, а иллюстраций ещё не было ни одной - иллюстраторы справились. А у нейросетей сюрреализм получается.


        1. Alexey2005
          14.04.2023 05:51
          +1

          Подозреваю, вам нужен был не просто Карлсон, а чтобы полностью отражало именно ваши представления о том, как он должен выглядеть. Потому что формально-то нейронка

          запрос отрабатывает.

          А если не устраивает, то делается то же, что и с живым художником - выбирается наиболее близкая из сгенерированных иллюстраций, и перерисовывается той же самой нейронкой (Inpainting) дополнительными уточняющими запросами.


  1. geleos27
    14.04.2023 05:51
    +1

    В статье рассмотрены части системы, которые выкатили в общий доступ, и предполагается что это целый, конечный результат.

    Рассмотрите это как часть интеллекта, которая отвечает за манипулирование и обработку информации (chatgpt) и конвертация в обе стороны текст <-> визуальный образ (GAN производные сети)

    Сейчас важнее вопрос каких механизмов не хватает, чтобы эта система начала перерабатывать информацию также эффективно как человек. И насколько легко окажется их добавить в систему...

    Связка: Плагины + AutoGPT + Langchain уже закрывают существенную часть "пробелов" описаных в сатье:

    Точность информации: (гуглинг, вольфрам, вики, sql... ) - Плагины, langchain

    Механизм запоминания - БД через autogpt
    Проверка верности ответа, фильтрация галлюцинаций - дополнительный агент в AutoGPT
    Целеполагание и приоритезация в рамках поставленной задачи (изначального промпта) - AutoGPT

    Есть основания полагать, (глядя на количество ресурсов которые вкладываются в это направление), что будут придуманы эффективные схемы взаимодействия всех частей системы в ближайшее время. И придется уже всерьез переосмысливать часть статьи про профессии...


  1. Tim_86
    14.04.2023 05:51

    Он вообще не может задаться какой-либо целью — в свете чего он не более опасен для человечества, чем, например, электрическая розетка или молоток

    Цели перед ИИ могут ставить и люди. Остаётся надеяться, что это будут исключительно благие цели.


  1. fakedup
    14.04.2023 05:51
    +1

    Очень иронично, как автор пишет про GAN и ансамбль 2 нейросетей, но не может несколькими абзацами ниже это экстраполировать на LLM, к которым по факту уже вовсю прикручивают и формальную логику, и проверку фактов, и много что ещё.

    Ну то есть по факту излагается компиляция ограниченных кругозором автора сведений и из этого делаются какие-то выводы, не соответствующие реальности. На что же это похоже?


  1. Wesha
    14.04.2023 05:51

    Преобразование, например, вопроса «Сколько сейчас времени?» в ответ «Почти половина шестого» также можно рассматривать как задачу перевода из языка вопроса в язык ответа

    Неужели мы вплотную приблизились к расшифровке смысла, кроющегося в ответе "Да нет, наверное"?


    1. 3ycb
      14.04.2023 05:51

      Неужели мы вплотную приблизились к расшифровке смысла, кроющегося в ответе "Да нет, наверное"?

      Ответ одесского ChatGPT: Чтобы да, так нет.


      1. exwill
        14.04.2023 05:51

        • Отрицание можно выразить через одиночное отрицание "нет". Можно выразить через сочетание подтверждения и отрицания "да, нет". Можно выразить через двойное отрицание "нет, нет". Но нельзя выразить через подтверждение или двойное подтверждение.

        • Ну да, конечно!


        1. 3ycb
          14.04.2023 05:51

          Но нельзя[отрицание] выразить через подтверждение или двойное подтверждение.

          Вар.1: ну да, ну да;
          Вар.2: ага, конечно;
          Вар.3: Щас. Только шнурки завяжу ;)


          /зануда on
          Зависит от интонации и контекста
          /зануда off


    1. LionbI4
      14.04.2023 05:51

      Если интересно, GPT 4.0 на вопрос "что значит `да нет наверное`" ответил так:
      Фраза "Да нет наверное" является примером разговорной речи и может показаться противоречивой на первый взгляд, так как она включает два противоположных слова ("да" и "нет"). Однако, в русском языке, эта фраза часто используется для выражения неопределенности или сомнения в ответе на вопрос или предложение.

      В этом контексте "да нет наверное" можно перевести как "скорее всего, нет" или "возможно, нет". Это означает, что человек, который произнес эту фразу, не уверен в своем ответе и выражает некоторую степень неопределенности.


  1. smrl
    14.04.2023 05:51
    +2

    Для сравнения, «Война и мир» — это чуть меньше 700 тысяч знаков.

    Если на слайдах вы имели в виду объем обучающей выборки в информационном смысле (после сжатия) в байтах, то это уже не знаки.
    Если же речь все-таки про обычные буквы и пробелы, то поправьте, у вас ошибка ровно в 4 раза (у вас объем одного из томов, а их в романе четыре).
    (Что, конечно, иронично в статье, где упоминаютя галлюцинации чатГПТ как отличие от человеческого интеллекта.)


  1. DGN
    14.04.2023 05:51
    +1

    Про прошлое человека, галюцинации на месте. Вспоминаем фразу, врет как очевидец. При опросе наблюдавших падение самолета, практически все описывают дым и взрыв до падения, хотя фактически они были после.

    Банальное описание автомобиля проехавшего 5 секунд назад, уже плывет, и чем больше мы просим вспомнить деталей, тем больше неверных. В gpt системах это тоже прослеживается, количество бреда к концу ответа растет.

    Про зависимость от промта. Зачем следователь задает по сто раз один и тот же вопрос, перемежая его с ранее заданными вопросами? Это не вид пытки, это как раз разные промты. А очевидные вопросы уменьшают долю выдумки.

    Про уверенность человека, иногда человек знает что врет или фантазирует, иногда сомневается в ответе, а иногда не сомневается, причем и в истине и в галюцинации. В моих терминах, ложь это неправда сознательно сообщается с целью обмана, фантазии это неправда без цели обмана, галюцинации это осознание неправды как правды.


    1. Wesha
      14.04.2023 05:51
      +1

      Банальное описание автомобиля проехавшего 5 секунд назад, уже плывет, и чем больше мы просим вспомнить деталей, тем больше неверных.

      Я провожу один интересный эксперимент на себе. Почти десять лет назад произошло некое событие. Тогда я буквально на следующий день записал все его подробности в файл. Ещё лет через десять я планирую опять вспомнить все подробности этого события и снова записать вспомненное в файл — а потом достать оригинал и сравнить.


      1. DGN
        14.04.2023 05:51

        Хорошо, если есть и объективные свидетельства этого события, видео к примеру или документы.


  1. LetThis
    14.04.2023 05:51
    +3

    ChatGPT не разумен. Он не демонстрирует даже минимальных признаков сильного интеллекта, даже намёков на него. Мы понятия не имеем, удастся ли нам создать сильный AI, и если да, то когда — но ChatGPT от него столь же далёк, сколь далеки калькулятор и экскаватор.

    Он просто очень хорошо предсказывает, какое слово надо поставить следующим во фразе, чтобы человеку эта фраза казалась правильной.

    Отвечает Илья Суцкевер, ведущий инженер OpenAI:

    Есть еще один комментарий, который я бы хотел упомянуть — о том, что эти модели просто обучаются статистическим закономерностям, и поэтому они не знают, какова настоящая природа мира. Я считаю иначе. Я думаю, что изучение статистических закономерностей — это гораздо более глубокая вещь, чем кажется на первый взгляд. Предсказание — это статистическое явление. Но чтобы предсказывать, нужно понимать глубинный процесс, который породил данные — вам нужно все больше и больше понимать мир, который стоит за ними. Если наши генеративные модели станут очень хорошими, то они будут обладать, как я считаю, шокирующей степенью понимания мира и всех его тонкостей. Да, это будет мир увиденный через призму текста. Модель будет знать все больше и больше о мире через проекцию мира на пространство текста, выраженного человеческими существами в Интернете. Но этот текст выражает настоящий мир.

    ***

    Если задуматься, то что значит достаточно хорошо предсказать следующий токен? На самом деле этот вопрос гораздо глубже, чем кажется. Хорошее предсказание следующего токена означает, что вы понимаете лежащую за ним реальность, которая привела к созданию этого токена. Хотя это и статистика, но что за статистика? Для того, чтобы впитать эту статистику, чтобы сжать ее, вам нужно понять, что именно в мире создает этот набор статистических данных. И это требует настоящего понимания мира.

    ***

    Я хотел бы привести аналогию, которая, надеюсь, прояснит, почему более точное предсказание следующего слова приводит к большему пониманию — настоящему пониманию. Давайте рассмотрим пример. Скажем, вы читаете детективный роман со сложным сюжетом, сюжетной линией, разными персонажами, множеством событий и загадками и подсказками. Все непонятно. Затем допустим, что на последней странице книги детектив собрал все улики, собрал всех людей и говорит: «Я собираюсь раскрыть личность того, кто совершил преступление, и этого человека зовут...» И предсказывает имя убийцы. Предсказывает единственное правильное слово! Было много разных вариантов, много разных имен, [но было выбрано единственно верное]. Таким же образом, все более точное предсказание слов, требует все более глубокого понимания текста [и стоящей за ним реальности].

    Оригинал ответа:

    There is another comment I want to make about which is that these models just learn statistical regularities and therefore they don't really know what the nature of the world is.

    I have a view that differs from this. I think that learning the statistical regularities is a far bigger deal than meets the eye.

    Prediction is a statistical phenomenon. Yet to predict you need to understand the underlying process that produced the data. You need to understand more and more about the world that produced the data.

    As our generative models become extraordinarily good, they will have, I claim, a shocking degree of understanding of the world and many of its subtleties. It is the world as seen through the lens of text. It tries to learn more and more about the world through a projection of the world on the space of text as expressed by human beings on the internet.

    But still, this text already expresses the world.

    ***

    Because if you think about it, what does it mean to predict the next token well enough? It's actually a much deeper question than it seems. Predicting the next token well means that you understand the underlying reality that led to the creation of that token. It is statistics but what is statistics? In order to understand those statistics to compress them, you need to understand what is it about the world that creates this set of statistics?

    ***

    So, I'd like to take a small detour and give an analogy that will hopefully clarify why more accurate prediction of the next word leads to more understanding - real understanding. Let's consider an example. Say you read a detective novel with a complicated plot, a storyline, different characters, lots of events, and mysteries like clues. It's unclear. Then let's say that at the last page of the book, the detective has gathered all the clues, gathered all the people, and is saying, "Okay, I'm going to reveal the identity of whoever committed the crime, and that person's name is..." Predict that word. Predict that word exactly! My goodness, right? Yeah. Now, there are many different words, but by predicting those words better and better and better, the understanding of the text keeps on increasing. GPT-4 predicts the next word better.

    Невозможно каждый раз "просто правильно вставлять слова и фразы", не обладая при этом пониманием лежащих за словами паттернов, которые, в конечном итоге, отражают реальный мир. Вы совершаете ту же ошибку, что совершил Сёрл со своей "Китайской комнатой". Команта, включающая человека, как система в целом, в действительности, понимает китайский.


    1. olartamonov Автор
      14.04.2023 05:51
      +1

      Невозможно каждый раз "просто правильно вставлять слова и фразы", не обладая при этом пониманием лежащих за словами паттернов, которые, в конечном итоге, отражают реальный мир.

      Не существует никакого «понимания» или «непонимания» мира, это термин, за которым не стоит никакого смысла. И в силу этого он приводит к совершенно бессмысленному выводу: лобой вычислитель, запрограммированный на расчёт уравнений квантовой механики, «понимает мир», причём целиком и полностью.


      1. LionbI4
        14.04.2023 05:51
        +1

        Не существует объективного понятия "понимание", потому что понимание не бывает без субъектов, но субъективно - мы знаем что такое понимание. Например, когда ты забыл слово по-английски и используя другие слова объясняешь что ты имеешь ввиду. Если ты успешно объяснил - значит у тебя есть понимание что это слово означает.

        И нет, за этим термином стоит смысл, которым наделили его люди.
        Если хотите - "понимать предмет"- означает получать и запоминать знания о связи (relation) предмета с другими предметами.

        Чтобы узнать, понимает ли субъект какой-то предмет - попросите его о нём подробно рассказать.

        Например, если спросить GPT-4 что такое "понимать" он ответит следующее:

        Понимание – это процесс, в рамках которого существо (человек или искусственный интеллект) приобретает знания, обрабатывает и интерпретирует информацию, создавая осмысленную связь между различными элементами. Этот процесс состоит из множества аспектов и может быть описан на различных уровнях. Вот подробное описание процесса понимания:

        1. Восприятие: Понимание начинается с восприятия, когда организм или система получает информацию из окружающей среды с помощью своих сенсорных рецепторов (например, глаз, ушей или аналогичных устройств для искусственного интеллекта).

        2. Кодирование: Полученная информация кодируется в нейронах или компьютерной памяти. Это означает, что сенсорные данные преобразуются в другую форму, которая может быть обработана и сохранена.

        3. Ассоциации: В процессе понимания происходит образование ассоциаций между различными элементами информации. Это позволяет создать связи между разными понятиями и объектами, чтобы организм или система мог легче вспомнить и использовать информацию в будущем.

        4. Контекст: Понимание также зависит от контекста, в котором представлена информация. Контекст может включать в себя предыдущие знания, опыт и ожидания, которые влияют на то, как организм или система интерпретирует информацию.

        5. Анализ: В процессе понимания информация анализируется на разных уровнях, начиная от базовых характеристик (например, форма, цвет, звук) и заканчивая более сложными понятиями, абстракциями и отношениями.

        6. Синтез: Организм или система синтезирует полученную информацию, интегрируя ее в существующие знания и структуры. Это означает, что новая информация может уточнять, дополнять или изменять предыдущие знания.

        7. Интерпретация: Интерпретация – это процесс придания смысла полученной информации. Это включает обработку аналогий, метафор, иронии и других форм коммуникации.


    1. Wesha
      14.04.2023 05:51

      И предсказывает имя убийцы. Предсказывает единственное правильное слово! 

      Вот только есть целый ряд произведений, которые я называю шедеврами последней фразы. В которых агромаднейший текст подводит читателя к некоей мысли — а потом последняя фраза произведения переворачивает его с ног на голову.

      Пример: Маклин Кэтрин "Изображения не лгут".


      1. vvzvlad
        14.04.2023 05:51

        Было бы очень сложно не догадаться о смысле рассказа задолго до последней фразу, увы.


        1. Wesha
          14.04.2023 05:51

          Ну да, ну да, мы все тупые, а Вы — Онотоле.


  1. Groramar
    14.04.2023 05:51

    Вижу что критики принципиально отказывают моделям в возможной разумности из-за получения моделями информации о мире через текст. В то же время существуют, и они не уникальны, случаи социализированных насколько возможно слепоглухонемых людей. Которые конечно же вполне разумны. Даже не имея немалой части крайне важных чувств.


    1. TuzSeRik
      14.04.2023 05:51

      Модели не могут быть разумны не потому что они воспринимают мир через текст. Модели не могут быть разумны по той же причине, почему разумны слепые и/или глухие - мир состоит не из текста (хотя он и очень очень важен для разума) а из того, что находится "за текстом" - абстракций, понятий, связей, мыслей, чувств и т.д. ChatGPT не видит ничего за текстом.

      Вспомните, когда вы хотели что-то сделать, но "внутренний голос" вас отговаривал. Вы делали и понимали, что голос был прав. У ChatGPT, как у животного, голоса нет. Он не мыслит, он делает. Делает то что умеет, на что натренировали - мимикрировать под человека в письме. Трюк в том, что мы не ожидали, что можем заставить его так хорошо мимикрировать, отсюда и мысли про интеллект и прочее.

      Пример с птицами. Вороны умнее попугаев, у них интеллект 3-5 летнего ребёнка и они могут выполнять достаточно сложные задачи. Но интуитивно мы думаем, что попугаи умнее, потому что они подражают речи. Поэтому и нейросети мы "очеловечиваем" - они превзошли в подражании всё, что мы видели, кроме настоящего человека.


      1. Groramar
        14.04.2023 05:51

        У ChatGPT, как у животного, голоса нет. Он не мыслит, он делает.

        Были эксперименты с добавлением 'внутреннего диалога' насколько я знаю. Однако его отключили за ненадобностью - на выдачу это никак не влияло.


        1. TuzSeRik
          14.04.2023 05:51

          С точки зрения качества ответов, "внутренний диалог" теоретически может помочь. С точки зрения поиска сознания, это конечно полный фарш. То что он пишет, что он мыслит, ещё не значит что он мыслит.


      1. LionbI4
        14.04.2023 05:51

        А что вы имеете ввиду, когда говорите "ChatGPT не видит ничего за текстом"?
        У ChatGPT есть абстракции, понятия, связи, мысли. И возможно чувства, если их специально настроить/добавить. Гуглите, как Бинговский чат-бот признавался в любви к пользователю.

        А как вы могли бы обосновать, что "ChatGPT не видит ничего за текстом"?
        Как, например, я мог бы узнать у вас, что вы видите что-то за текстом?


  1. steanlab
    14.04.2023 05:51

    olartamonov, вот неоднозначный вы человек :))
    За статью — спасибо