Ах, ты моя прелесть. Как же на тебя не посмотреть, как на какашку?
Ах, ты моя прелесть. Как же на тебя не посмотреть, как на какашку?

Давным-давно, в далёком-предалёком городе Харькове было мне 7 лет. В те времена я впервые в жизни увидел новое чудо техники - VHS плеер. В руках у меня была моя первая в жизни кассета. Мне было не очень важно, что я смотрел. Был важен сам факт того, что мне удастся посмотреть что-то в записи. Не зная, какая судьба мне уготована, я засунул кассету с намалёванной ручкой надписью: «Терминатор-2» в магнитофон. 

Говорят, что у детей то ещё воображение. И воображать они умеют лучше взрослых. Не знаю почему, но лучше всего я запомнил сцену, в которой Лос-Анджелес бомбардируют ядерными боеголовками. Я был в паническом ужасе, тихо сидел перед «видаком» и перематывал плёнку назад, чтобы ещё раз увидеть эти, казавшиеся тогда такими страшными кадры.

После того, как я очухался, я начал спрашивать взрослых о том, что я только что видел, когда это произойдёт, и по чьей вине это случится. На меня фыркали и говорили, что беспокоиться не стоит. 

И были правы. Я повзрослел. «Терминатор-2» перестал быть просто страшным фильмом, и превратился в шедевр, который я помню с детства. А страх по поводу искусственного интеллекта перестал меня беспокоить, сменив себя страхом перед человеческим интеллектом. 

И действительно, чего тут бояться? Автоматических ядерных бомбардировок? Дронов-убийц из антиутопических роликов на YouТube? Очередного спин-оффа того же Терминатора? Или, что ещё хуже, ужасного ребута Робокопа? Нет, будущее не заселено ходячими киборгами-убийцами, несмотря на все попытки Киану Ривза и Харрисона Форда показать нам Ноябрь 2019го года. 

А как так вышло, что давным-давно, в далёкой-предалёкой галактике не существовало никакого искусственного интеллекта, за исключением дронов, напичканных шестерёнками? Да и в далёком будущем через 20000 лет, если верить Фрэнку Герберту, за создание искусственного интеллекта будет полагаться смертная казнь. 

А жизнь, тем не менее продолжается. Жизнь, она вот прямо здесь и сейчас. И народ тихо начинает выходить из себя, потому что уж слишком много у нас получается этого AI. И мы всё никак не можем договориться о том, что же с ним делать. Кто-то говорит, что его надо искоренить, а вот Марк Цукерберг заявляет, что нет ничего лучше, чем научить тот же AI работать лучше. 

Вот вам другая точка зрения. Когда я спрашивал своих друзей об этой точке зрения, то я выяснил, что большинство людей об этом как-то странно догадываются, но редко выражают это вслух. 

Ваша главная ошибка в том, что Вы думаете, что компьютеры умеют думать

В английском языке есть такое замечательное слово «misnomer». На русский оно переводится как «неправильное употребление слова». Давным-давно, когда только прогревались первые лампы в ENIAC или UNIVAC, американские вояки, которые эти компьютеры построили в 45-м году, решили назвать свои детища "Электронными мозгами". 

И вот тут вот пошла кутерьма и полный хаос. Никто, в принципе, в те стародавние времена и понятия не имел о том, как работает мозг. Собственно говоря, даже сейчас никто ничего про это нормально рассказать не может. У нас есть нейроны, они вместе сплетаются, и получаешься ты, Вася Пупкин. Ну, мы так думаем. Когда ты думаешь, у тебя в мозгу проходит электричество. А когда ты не думаешь, у тебя его нет. Тут ещё прикол в том, что ты в мозг запоминаешь. Но мы не знаем, как. Наверное, как-то сплетаются нейроны. Если посчитать эти нейроны, то выходит, что мы не знаем, как вообще можем что-то запомнить. Кстати, тут вот ещё что. Есть такие люди, которых пальцем по голове стукни, и они себя забудут. А есть и такие, которым пол-мозга секирой оттяпай, и всё будет хорошо.

Нет, серьёзно. Давайте мы не будем говорить, что мы полностью понимаем, как работает мозг. Понимаем в том же смысле, как мы понимаем работу сердца. У нас есть 4 камеры. Кровь попадает сюда, течёт отсюда — сюда, вот вам систолическое давление, вот вам диастолическое давление. Если всё совсем плохо, мы можем установить на сердце кардиостимулятор. Мы в общем, понимаем, как оно работает. Но, команды сердцу приходят из мозга, а вот за это мы не берёмся отвечать. Это та часть мозга, которая неподвластна человеку. Её контролировать невозможно. Разве что, только ты не какой-нибудь индийский маг. Они умеют, но им многое можно. 

Да, у нас есть нейро-интерфейсы, мы можем делать томограммы и вырезать опухоли. Мы знаем, что без мозга Вася Пупкин не жилец. Но мы не знаем, как он на самом деле работает. 

Почему? Потому что мы не знаем, как взять и сделать новый мозг. 

Если мы знаем, как работает советский радиоприёмник «Радиотехника», мы понимаем назначение всех его деталей и можем собрать новую «Радиотехнику». Мы можем починить «Радиотехнику». Можем построить «Радиотехнику» на транзисторной микросхеме из Китая, на транзисторах и на добрых тёплых лампах. Это значит, что мы действительно понимаем, что такое «Радиотехника», и как этот приёмник работает. 

Мозг? Нет. У нас есть подозрения, но мы пока не уверены. В 1945 году мы вообще и понятия не имели о 90% информации, которую мы знаем про мозг сейчас. 

И вот, располагая такими знаниями, кто-то приходит и говорит: «А знаете, дорогие сэры, я так подумал, нам надо эту штуку назвать "Электронным мозгом"»!

«Misnomer». Неправильное использование слова. 

И всё бы ничего, но кто-то повёлся. Раз в названии присутствует слово "мозг", то компьютер — это мозг. И понеслось. У нас есть программисты, которые понимают, как работают компьютеры, а есть какие-то сектанты, которые пытаются воссоздать мозг, в надежде сделать его живым и мыслящим самостоятельно.

Давайте разложим некоторые вещи по полочкам

AI решил, что это — самая подходящая картинка для этого заголовка. Наслаждайтесь визуальной репрезентацией пузырьковой сортировки.
AI решил, что это — самая подходящая картинка для этого заголовка. Наслаждайтесь визуальной репрезентацией пузырьковой сортировки.

Итак, начнём с определений. 

Для начала, опустим то, что написано в Википедии. Это больше напоминает ужас, летящий на крыльях ночи. 

Давайте лучше, обратимся к словарю Merriam-Webster.

Full Definition of artificial intelligence

1: a branch of computer science dealing with the simulation of intelligent behavior in computers

2: the capability of a machine to imitate intelligent human behavior

Полное определение словосочетания искусственный интеллект:

«Отрасль компьютерной науки, занимающаяся симуляцией разумного поведения в компьютерах.

Способность машины имитировать разумное человеческое поведение». 

Больше нам не надо ничего выдумывать. Вот Вам и ответ на вопрос, что такое AI. Это имитация человеческого поведения машиной. Если у Вас появились какие-то идеи о том, что это как-то связано с созданием жизни — пойдите посмотрите определение слова «имитация». 

Соответственно, первая программа по игре в шахматы может называться AI. Криворукая, но всё же имитация. 

Теперь, имея это определение под рукой, мы можем перейти к более узконаправленным определениям. Например, мы можем посмотреть на понятие машинного обучения:

Definition of machine learning

The process by which a computer is able to improve its own performance (as in analyzing image files) by continuously incorporating new data into an existing statistical model. 

The branch of computer science dealing with the creating and use of computer software that employs machine learning.

В переводе на русский:

Процесс, с помощью которого компьютер способен улучшить производительность (как например в распознавании графических файлов), путём постоянного добавления новых данных в уже существующую статистическую модель.

Отрасль компьютерной науки, занимающаяся разработкой и внедрением программного обеспечения, использующего машинное обучение. 

И так, машинное обучение — это просто добавление данных в статистическую модель. Что мы получаем на выходе Вашей ML сети? long значение в диапазоне от 0 до 1. Вы либо смотрите на собаку, тогда это .999 собака, либо вы видите котика. Это будет .998 котик. Или, если система очень уверена в себе, Вы можете получить 1 собаку. Это 100% собака на картинке, зуб даю. Усложнение подобных алгоритмов позволяет создать интересные вещи. Например, мы можем заставить компьютер играть в «Mario». Или складывать фигурки в тетрисе. Позиция 1 хороша на 10%, а позиция 2 хороша на 78%. 

А дальше как в «Футураме»:

— Красиво, неправда-ли?

— Конечно, но это всего лишь 93% от твоей красоты.

— О, Бендер! Это либо ошибка в вычислениях, либо ты — самый романтичный робот, которого я когда-либо встречала!

Любовь зла — полюбишь и Бендера.
Любовь зла — полюбишь и Бендера.

Ну, можем для красоты душевной, посмотреть на «Neural Network». 

A computer architecture in which a number of processors are interconnected in a manner suggestive of the connections between neurons in a human brain and which is able to learn by a process of trial and error. 

Компьютерная архитектура, в которой процессоры (вычислительные ядра) соединены между собой тем же способом, подобным тому, как соединяются нейроны в человеческом мозге. Подобная архитектура способна обучаться методом проб и ошибок. 

Итого: У нас на руках архитектура, в которой мы соединили процессоры определённым образом, и можем делать на ней «machine learning». 

Опять же, ничто из вышеописанного не предполагает наличие заменителя мозга или интеллекта. 

Ну и на что ты жалуешься, автор?

На то, что мы любим сжигать на кострах ведьм и играть в охотников за приведениями. Возможно, из-за наличия большого количества научной фантастики, а возможно потому, что мы чего-то недопонимаем, мы начинаем приписывать человеческие чувства машинам. 

И я не говорю о том, что мы пытаемся создать систему, которая будет выносить суждения о запуске ядерных боеголовок. Нет. Мы такой глупости не сделали. 

Вместо этого мы делаем другие глупости. 

Мы доверили AI наши эмоции и способность выбирать.

Каждый раз, когда мы свайпаем вверх в «Тик-токе», ставим «лайк» в «Инсте», или крутим ленту в «Фейсбуке», мы доверяем искусственному интеллекту в выборе следующего материала для того, чтобы мы могли себя чем-то занять. 

Что-то, что всегда было уделом человеческих решений, было отдано на откуп компьютерам. Потому что мы просто физически не сможем правильно обработать такое количество информации. 

В старые добрые времена у нас были барды, шуты, сказочники, заводилы и тому подобные люди. Их задачей было нас развлекать. Когда такой человек выходит на сцену (или начинает говорить в кругу друзей) он в состоянии анализировать атмосферу и понимать, что происходит. Если он ляпнет что-то невпопад, то он может проанализировать ситуацию, подумать о ней и, основываясь на своём опыте, вынести решение о том, что сказать дальше. 

Если Люде не понравилась шутка про розовые штаны и единорога, то хороший рассказчик вспомнит, что Люда — она вредная, но Люде нравятся котики. Посему он переключит тему на котиков. И всё может пойти на лад. 

Когда наш Алгоритм предлагает нам следующее видео для просмотра, это не Ваш лучший друг, который может Вас понять и простить. Его задача — это не сделать так, чтобы Вы чувствовали себя лучше. Его задача — сделать так, чтобы Вы оставались дольше на сайте. И вот, Ваш взгляд задержался на каком-то странном видео, и Алгоритм уже принял решение о том, что такое хорошо, и что такое плохо. Через три часа Вы находите себя в болоте каких-то странных видео о смерти животных на дорогах. 

Не поймите меня неправильно,

В самом AI нет ничего плохого. Если только Вы принимаете "его" за того, кем "он" является. Это — компьютерный алгоритм. Последовательность действий для нахождения результата. В данном случае результат не будет чётко определён, но такова цель AI. Найти наиболее возможно правильный результат из наиболее возможно правильного набора данных. 

Что влияет на работу AI? Входные данные и модель. Кто тренирует эту модель и собирает данные? Человек. 

За любым устройством всегда стоит человек. 

Машина никогда не сможет быть причиной чего-то нового. Причиной чего-либо вообще в жизни является кто-то, а не что-то. Даже если кто-то строит машину, которая «думает» и «создаёт более совершенную машину», это происходит потому что кто-то создал машину, создающую машины.

А дальше, перед Вами ситуация с огнестрельным оружием. Дайте в руки двух людей пистолеты. Первый человек будет закалённым бойцом, который стрелял из сотен различных видов оружия. Второй пусть будет пацаном, который ничего про оружие не знает, но смотрел фильмы про братков. 

Первый, скорее всего, поставит пистолет на предохранитель, и уберёт от греха подальше. Второй прострелит что-нибудь. Первый человек знает, что он сделал, что находится у него в руках и как этим пользоваться. Первый человек — ответственен за то, что у него в руках. Второй человек пристрелит соседскую кошку и скажет: «Я не виноват, оно само». 

Намного лучше будет аналогия с автомобилями. Вы видели того самого закалённого водилу, который спокойно сидит в пробке. Он знает, что если сейчас рыпнуться, то только потеряешь время и бензин. Он знает как работает машина и как происходить движение. Его машине уже 10 лет, но на ней нет ни царапины, и мотор работает как полагается. В нём всегда достаточно свежего масла. И клеммы аккумулятора вычищены до блеска.

С другой стороны у нас есть стандартная фефа, которая заливает масло в воронку для стеклоомывателя.

Первый человек — это та странная, вымирающая порода профессионалов своего дела. Это такие люди, которые могут быть ответственными за результат своих действий. Вторая порода — это наши программисты-самоучки, которые посмотрели курс «Как писать нейронки за 3 часа на «УouTube».

Ответственный программист сядет, и будет использовать нейронную сеть для восстановления замутнённых изображений. Второй человек будет писать чат-бота, чтобы поднять настроение себе и знакомым. 

В чём разница? 

Первый – понимает, что AI — это просто алгоритм, который позволяет эффективно решать задачи с неопределённым ответом. 

Второй – думает, что AI — это какое-то сознание, которое принимает решения лучше человека. 

AI не принимает решения лучше человека

Ещё одна картинка, найденная поисковиками на основе текста этой статьи.
Ещё одна картинка, найденная поисковиками на основе текста этой статьи.

Он их принимает быстрее человека. В определённом наборе данных, хорошо обученная сеть может найти наиболее правильный ответ намного продуктивнее человека. Обработка массива с более чем тысячью параметров — это что-то, что займёт у Васи Пупкина 200 лет на ручные подсчёты. 

Способность быстрой сортировки изображений, выполнение определённых инструкций, или даже вождение автомобиля — это то, с чем AI будет отлично справляться. У нас есть определённый объём строгих правил, ограничивающих область деятельности, и в этом объёме мы можем научить наш AI принимать решения на основе полученных данных из окружающей среды. 

Знаете, чего AI не сможет сделать? Он не сможет создавать. Он не сможет начинать новые идеи. Алгоритм, который выполняет определённые действия для получения конечного результата не сможет в один прекрасный момент сам себе сказать: «Да пошло оно всё! Уеду, господа, в Ватутинки, и провались оно всё пропадом. Построю дом, буду морковь выращивать!».  

А если Вы наивно полагаете, что AI сможет сделать что-то подобное, потому что кто-то только что написал AI который создаёт новые произведения искусства, то это Вы глубоко заблуждаетесь. Потому что кто-то написал этот новый AI.

Для создания чего-то нового нам нужен ты — человек абстрактный. Человек, который может делать невероятную вещь, не подчиняющуюся никаким законам физики. Человек может взять мысль из ниоткуда. Она просто появляется и существует. Из пустоты. 

У нас в мозгу нет генератора случайных чисел. Нам не нужно сливания манны небесной по протоколу HTTP, чтобы внезапно подскочить и сказать: «О! Прикольно! Знаешь, что я придумал?».

И, честное слово, Вы не знаете, как это работает. Нейрохирурги не знают, как это работает. Психологи не знают, как это работает. Это просто работает. Поэтому мы, как инженеры, можем спокойно оставить это в стороне. Это не в области нашей компетенции. Оно работает, и пусть себе работает.

Но, мы как инженеры, должны понимать, что же находится в области нашей компетенции. 

Алгоритмы искусственного интеллекта хорошо подходят для автоматизации задач, которые невозможно автоматизировать чётко описанной последовательностью действий. Обработка изображений, выявление аномалий, анализ цен и производительности — это то, чем нам стоит увлекаться, тренируя AI.

Но, вот определённые вещи искусственному интеллекту не по зубам. Возможность предлагать, что мне стоит посмотреть после того, как я закончу просмотр всей «Игры Престолов», я лучше оставлю своим друзьям. Ответ на вопрос: «Что мне лучше подойдёт к тёмным штанам, серая или белая футболка?» - это вопрос, на который могут ответить только три человека в моей жизни. 

И в чём же проблема?

В английском языке есть такое замечательное имя Karen, которое используется для всех недалёких мамаш. В русском языке есть эквиваленты. Можно вспомнить классику — Эллочку.
В английском языке есть такое замечательное имя Karen, которое используется для всех недалёких мамаш. В русском языке есть эквиваленты. Можно вспомнить классику — Эллочку.

Проблема в том, что с помощью AI можно не брать ответственность за свои поступки. И люди этим пользуются для прикрытия своих же недостатков. 

Помните, я говорил о профессионалах? Моя бабушка была архитектором. Всю жизнь она провела перед листом ватмана с логарифмической линейкой в руках. Сопромат она знала так, как мне и не снилось. Когда она заходила в модную новостройку, она всегда критически осматривала несущую конструкцию, и несколько раз при мне высказывала своё мнение. «Вот это будет держать» или «Интересное решение, но, наверное, стоило бы поставить что-то потолще». 

Профессионал своего дела отличается от непрофессионала тем, что он может достичь результата, которого от него требуют. 

Если Вы профессиональный архитектор, Вы должны уметь проектировать устойчивые конструкции. 

Если Вы — профессиональный программист, то Вы должны уметь писать хороший, устойчивый, оптимизированный код, который даёт ответы и не падает. 

Если Вы — адвокат, от Вас потребуют правильного совета и ссылок к текущему законодательству, которое позволит разрешить существующие разногласия. 

Если Вы — оперный певец, то Вам следует уметь взять нужные ноты в нужное время и делать это правильно. 

Профессионалы могут сделать своё дело и гордится этим. 

Люди, которым до этого далеко, будут выдумывать отговорки, почему они не могут написать код или спеть до-диез в третьей октаве. И вот тут на помощь пришли нейронные сети и AI. 

Мы получили данные по рынку от этой модели, но они были неточными, поэтому у нас продажи рухнули. 

Мы не смогли правильно ограничить содержание интернет-постов, и у нас вся социальная сеть внезапно наполнилось пропагандой наркотиков. 

Судя по всему, кто-то не умеет делать свою работу. И прикрывается нейронкой, потому что винить компьютер очень просто. Компьютер не ответит на обвинения. Его всегда можно будет начать переучивать. Прикол-то в том, что что-либо может происходить только благодаря человеку. Компьютер ничего нового не сделает. 

Только вот Ваша работа от этого лучше не станет. А начальство ведётся. Так удобно обвинять алгоритм. Он не сработал, давайте все сядем, и будем переделывать алгоритм. 

И вместо того, чтобы устроить разнос отделу продаж, и заставить людей в этом отделе решить их проблемы, и начать-таки продавать продукт, мы будем сидеть и писать новый алгоритм, который и так уже применяется не там, где надо, и который от этого переписывания лучше стать не может. 

Ну, и добро пожаловать в наш Дивный Новый Мир!

Когда у нас что-то не получается, мы пихаем туда без разбора AI. А если он не работает, то мы будем выкручивать гайки этому AI. А после этого мы будем ходить в Конгресс США, Палату Представителей в Великобритании или Парламент в России, чтобы оправдываться и рассказывать о том, что мы нашу социальную сеть учили обезвреживать террористическую пропаганду, а получилось, как всегда.

Компьютеры не умеют принимать человеческие решения

Не веришь? Тогда иди и съешь ещё этих мягких французских тортиков, да выпей чаю.
Не веришь? Тогда иди и съешь ещё этих мягких французских тортиков, да выпей чаю.

А для того, чтобы создать, «Начало» или «Довод» Вам потребуется Кристофер Нолан. 

И как будет выглядеть конец нашей цивилизации?

Мы просто отгородим себя от принятия ответственности за что-либо вообще, путём установки AI на всё что только можно.

Я уже представляю себе такой бред, как AI система правосудия. Где Вы понятия не имеете, по какой причине принимаются решения. У Вас будет AI система, которая будет Вам говорить, как правильно проводить время. Не то, как Вам хочется проводить время, а как время проводит среднестатистический человек.

У нас уже есть AI система, которая говорит всем, какой фильм надо смотреть. Поэтому все толпами прут на последние «Звёздные Войны», которые просто являются набором сцен, сгенерированных на основе Big Data, собранных со всех фанатов. И при этом, никто не знает о «Королевство Полной Луны», замечательной комедии, в которой Брюс Уиллис и Эдвард Нортон играют двух папаш, которые озабочены судьбой одного сироты. 

У нас есть AI системы для прослушивания музыки, которые несомненно приводят нас к списку наших любимых композиций, или, ещё лучше, списку композиций, которые лучше всего продавать в данный момент. 

У нас уже есть AI система, которая говорит нам, в кого надо влюбляться, и как надо вести переписку. 

У нас есть AI система, которая позволяет нам найти лучших кандидатов для работы. Поэтому в топ несомненно вылезают кандидаты с именами порно-звёзд в резюме, поскольку резюме SEO-оптимизированы. 

И не так далёк тот день, когда мы можем перестать нести ответственность за свои жизни, и отдадим их на растерзание Алгоритму. Вам не понадобятся никакие T-1000, или роботы-осьминоги. За вами никто не придёт. Вас пригласят. В руках у вас появится рекламный буклет, который будет говорить о том, что жить во вселенной Meta намного удобнее. Вам продадут идею о том, что вам не важно, какой у вас есть дом. Вам можно просто загрузить дом, который вам предложит Алгоритм. Он-то знает. А вы уже не знаете, потому что отучились принимать решения сами.

Запомните, компьютеры работают с количеством. Они умеют отвечать на вопросы «Как много», «Насколько быстро», «Насколько сильно». Количественные ответы — это те ответы, которые хорошо обрабатываются различными моделями. 

Компьютеры не могут ответить на вопросы «Насколько красиво», «Как Вам нравится» и «Как Вы считаете».

Не будьте на 93% лучше Бендера Родригеза.

TL;DR

AI - это просто алгоритм. Он выполняет поставленную цель. Несмотря на все усилия определённых людей он всегда будет имитацией человека.

Проблемы начинаются, когда не слишком далёкие дилетанты прикрываются AI и, ввиду своей необразованности и неспособности делать что-то, просто перекладывают всю ответственность за какую-то область деятельности на AI.

А после мы не можем свести концы с концами.

Мне важно ваше мнение

Я работаю над проектом, который я называю «Восстание Человеков Против Машин». Мне важна ваша точка зрения. Автору самого заплюсованного коммента по теме — тык в карму и деньги на пиво в пейпал.

PS. Вчера я общался с одним из моих редакторов. Внезапная проблема была в том, что существовал текст в 6000 символов. А надо было 10000 символов. Системы авто-генерации ничего нормального выдать не могли. Я дописал недостающие 4000 символов за 20 минут. 

Этот текст, в 22000 символов я написал за 2.5 часа. У меня просто появилась идея, написать текст об AI, и я его написал.

Я не верю в системы AI генерации текста. И если Вы хотите писать статьи, то я рекомендую Вам тоже в них не верить. 

PPS. Сразу после того как опубликовал это, увидел новую статью от @xlebanet https://habr.com/en/post/586794/. Ещё один пример того, как всё может пойти неправильно.

Комментарии (148)


  1. DMGarikk
    09.11.2021 10:30
    +1

    Спасибо за статью. но всёравно я поражаюсь что среди многих Итшников всёравно очень много людей который на полном серьезе считают AI потенциальной заменой обычному человеку в плане мышления… отсюда вытекают и все истории что 'вот вот и программисты будут не нужны, вы просто не понимаете, это сейчас технологии не позволяют, но гдето сидят в подвалах и тестируют следующую версию сильного ИИ… осталось пара лет всего'… и слышу я это года с 2000-го наверное… а читал еще в советской книжке 80х годов про компьютеры что 'вот уже ИИ умеет сочинять музыку и писать стихи буквально лучше человека'… с прогрессом ИИ стал это делать быстрее… но концептуально качество этого процесса не изменилась
    ===
    p.s. кстати сердце не очень хороший пример вещи которым както сложно управляет мозг, потому что сердце работает практически независимо от мозга и вообще может функционировать отдельно от человека не особо сильно потеряв в функционале


    1. Nurked Автор
      09.11.2021 10:36

      С одной стороны, согласен. Но всё же, постепенно и незаметно мы начали заменять ИИ чёрт знает что. И если стихи он не пишет и программы не кодит, то управлять гашим поведением уже может.

      Что посмотреть с друзьями?

      Что купить этим летом?

      Чем заняться в выходные?

      Возможно нам, защищенным фильтрами рекламы и анти-тракерами с тором это нереально, но фефы живут по правилам гугла.


      1. DMGarikk
        09.11.2021 11:13
        +5

        ну на эти вопросы и в до ИИ времена, фефы получали ответы из всякх глянцевых журналов и прочих говорящих ящиков

        ИИ тут просто заменил человека который делал такие выборки вручную… и ИИ тут звучит слишком громко, всякие рекомендательные системы существовали до того как их начали ИИ называть.

        p.s. слышал уже даже то что фотодатчик освещения называли ИИ..(рукалицо)


    1. red75prim
      09.11.2021 11:10
      +6

      но всёравно я поражаюсь что среди многих Итшников всёравно очень много людей который на полном серьезе считают AI потенциальной заменой обычному человеку в плане мышления

      А я поражаюсь очередному elan vital. Есть физическая система, которая, по-видимому, без всяких квантовых штучек и нарушения физического тезиса Чёрча-Тьюринга реализует интеллект общего назначения (человеческий мозг), но многие почему-то считают, что воспроизвести аналогичную функциональность на кремнии невозможно.


      1. DMGarikk
        09.11.2021 11:15

        по-видимому, без всяких квантовых штучек и нарушения физического тезиса Чёрча-Тьюринга реализует интеллект общего назначения (человеческий мозг), но многие почему-то считают, что воспроизвести аналогичную функциональность на кремнии невозможно.

        а я не говорю что невозможно. проблема тут в том что
        1) никто не знакт как работает интеллект (есть некие утверждения и факты которые точно говорят что например химия и электричество — напрямую на него влияют также есть гарантированные подтверждения что он учится и использует нейросеть, но единой теории как это работает в куче ни у кого нет, это как автомобиль разобранный на части… вы знаете как каждая часть работат по отдельности но не можете собрать его в одно целое… точнее он собирается но никак не едет)
        2) то как это делает сейчас ИИ — явно не попытка повторить функциональность мозга, точнее это попытка повторить черный ящик используя какието имперические сведения о том как работает мозг


        1. red75prim
          09.11.2021 11:43
          +6

          попытка повторить черный ящик используя какието имперические сведения о том как работает мозг

          Нет, конечно. Эмпирические данные о работе нейронов используются в основном в вычислительной нейробиологии, а не в ИИ. В ИИ данные о мозге используют разве что как источник, гм, вдохновения. Например, единственная общая часть механизмов внимания в искусственных нейронных сетях и мозге - это скорее всего слово "внимание".

          И, как вы правильно заметили, полного понимания механизмов работы мозга нет, так что полезность отрывочных эмпирических данных для проектирования работающих на кремнии искусственных нейросетей сильно ограничена. Кроме того архитектура используемая мозгом может быть не единственной архитектурой, пригодной для реализации искусственного интеллекта общего назначения. Так что есть вероятность того, что сильный ИИ будет создан без полного понимания механизмов работы мозга.


        1. ramiil
          09.11.2021 12:07
          +1

          А если мы повторим не коннектом или не интеллект, а физический мозг как набор молекул? Это будет гораздо сложнее вычислительно, но позволит вообще не париться о том, как работает мозг. Лишь бы электроны летали и хим. реакции происходили как надо.


          1. DMGarikk
            09.11.2021 13:44
            -1

            вот на это у меня наверное единственная надежда и хоть какаято обозримая перспектива


          1. fpir
            09.11.2021 14:39
            +1

            Ну, я вам скажу, как это провернуть. Сперва найдите подходящую девушку...

            Смысл тратить сотни нефти, чтоб повторить что-то, что уже существует в количестве 1.5 лярдов копий? Только познавательный, но ни как не практический.


            1. ramiil
              09.11.2021 14:45
              +1

              Я немного неправильно выразился. Имелась ввиду симуляция, причём не на уровне нейронных связей или информационных процессов, а на уровне отдельных атомов. Причина проста - бессмертие через загрузку сознания.


              1. fpir
                09.11.2021 15:02
                +1

                Так это не симуляция, тем более на уровне атомов, это копирование. Не зная принципов построения на высоком уровне, что вам даст построение на уровне деталей? Вряд ли кто-то тут сомневается, что точно повторив структуру на атомном уровне мы получим точную копию, хотяб и мозга. Вот только до таких технологий нам сильно далеко, даже принципиально. Ведь нам надо повторить не статистически, а детально, это необозримое будущее. Тут весь холивар за то, что мы можем упростить модель и воспроизвести с таким-же результатом, но на других принципах. И одни говорят, что может получится лучше, другие хуже, а третьи, что не получится вообще.


                1. ramiil
                  09.11.2021 15:11
                  +2

                  что не получится вообще

                  Гипотетическая возможность скопировать мозг на уровне атомов в машину - более общая задача. Если не удастся пойти от реверс-инжиниринга мозга или вообще создать нечеловеческий интеллект - придётся делать копию и тренероваться на ней. Можно даже не делать копию целого мозга(негуманно, мол), а отдельных областей.

                  Говоря по айтишному - если условную mario можно запустить в эмуляторе приставки, то её можно перекомпилить и для хост-системы. Просто из-за хаотичного процесса формирования цнс человека, написание эмулятора физики и оцифровщика выйдет дешевле, чем перекомпиляция разума каждого отдельного человека.


                  1. fpir
                    09.11.2021 15:21
                    +2

                    Говоря по айтишному - если условную mario можно запустить в эмуляторе приставки, то её можно перекомпилить и для хост-системы.

                    В старых играх, из-за ограниченности ресурсов, делали некоторые вещи, типа цепочки null команд, которые приводили к нужному результату только на определённой платформе. И тупо перенеся исходник на другую платформу, не зная логики, игра может и не заработать. Это по поводу, что можно воспроизвести работу в деталях на другом железе. Более того, сейчас это звучит не "на другом железе", а на "этом железе", потому, что выбор альтернатив у нас не велик, переносить собираемся на "кремний".


                    1. ramiil
                      09.11.2021 15:25
                      +1

                      Я говорю о принципиальной возможности, а не о том, что всё заработает сразу без правок.
                      Другое железо == другая(не биологическая\белковая) платформа. Просто факт переноса на ЭВМ даст возможность выбирать любую тьюринг-полную машину.


                      1. fpir
                        09.11.2021 15:40
                        +1

                        А я говорю, что без детального понимания, как работает исходник, это может быть и не возможно. А понимая ,как работает исходник, это будет совсем другой вид инжиниринга. И строить предположения, как можно будет эмулировать процесс с нужной степенью детализации - глупо.

                        Не знаю, вот у вас есть паровоз. Вы не знаете, что у него внутри. Но знаете, что он ездит, пыхтит, дымит и в него заливают воду. А у вас есть арба запряжённая осликом. Вы сами её сделали и ослика сами купили, выбрав со знанием дела. И вы сидите и думаете, как арбу сделать как паровоз. А я знаю, как он устроен и на каком принципе работает. И когда я захочу сделать арбу похожей на паровоз, я про ослика даже и думать не буду, а спрошу у вас, где вы брали колёсную чеку на арбе, чтоб попытаться заказать там паровой котёл. Что поставит вас в тупик - как колёсная чека похожа на паровоз?


            1. LevPos
              12.11.2021 05:08

              существует в количестве 1.5 лярдов копий

              Вроде на Земле живет почти 8 миллиардов, у остальных нет мозга?


              1. fpir
                12.11.2021 09:33

                Да, как-то тупанул, может правда по Фрейду.


        1. Nehc
          09.11.2021 14:02
          +4

          >>> никто не знает как работает интеллект

          т.е. вы не знаете, и склонны экстраполировать это незнание на все человечество? ;)

          Правильно говорить «нет единого мнения», или «не пришли к соглашению». У каждого первого исследователя в области ИИ есть свои соображения на этот счет (иначе в общем довольно сложно работать — не имея никакой рабочей теории).

          Судя по тому вектору развития, который я сейчас наблюдаю, довольно много команд имеют эти самые «рабочие теории» и последовательно решают самые разные задачи, на пути к окончательному решению. Со стороны это может показаться хайпом и теми же «граблями», что и раньше, но мне вот к примеру так не кажется. Прикол в том, что ряд проблем, к которым я не знал, как подступиться буквально 5 лет назад сейчас внезапно оказались решенными. Именно те проблемы, которые надо!

          Так что я думаю все будет и будет довольно скоро. Хорошо это или плохо — отдельный вопрос…


          1. Nurked Автор
            09.11.2021 14:06

            Ну так автор о том и говорит.

            «рабочие теории», «не пришли к соглашению» и тому подобные отговорки — это как раз переводится на профессиональный язык как «мы понятия не имеем, но очень сильно стараемся»


            1. Nehc
              09.11.2021 14:14
              +3

              >>> то как раз переводится на профессиональный язык как

              Кем переводится? ;) Вами? Автором? Мной вот не переводится. Если есть хотя бы один человек, располагающий рабочей теорией о том, как бы оно могло бы работать, а так же у него есть ресурс для того, что бы на практике эту теорию реализовать, то вне зависимости от того, что думают об этой теории я, вы, автор и все прочие — данный человек вполне может достичь успеха в своих изысканиях, не так ли? И тот факт, что он не добился признания своей теории в «академических кругах» ровным счетом ни о чем не говорит — скорее наоборот: академическое сообщество ДОЛЖНО демонстрировать некую инертность, что бы не принимать всерьез всевозможные гипотезы без их практического подтверждения…

              Хорошо это или плохо, но боюсь единственным практическим подтверждением сильного ИИ (AGI) будет его реализация на практике… Я не вполне уверен, что мы все этому обрадуемся, но… Судя по тому, что я наблюдаю сейчас — примерно так оно и будет.


            1. saboteur_kiev
              09.11.2021 15:49
              +3

              «не пришли к соглашению» и тому подобные отговорки — это как раз переводится на профессиональный язык как «мы понятия не имеем, но очень сильно стараемся»

              Вообще не так.

              Давайте посмотрим с другой стороны. Можете назвать человека, который понимает как работает современный компьютер? Хотя бы одного?
              Не сможете, потому что в голову одного человека уже не поместится весь пласт знаний, чтобы с нуля создать современный компьютер. Нужно множество специалистов. А сейчас множество специалистов не пришли к единому соглашению, поэтому мы имеем и разные архитектуры и разные стандарты.

              Я немного притянул за уши, но я сомневаюсь, что мозг человека это та вещь, которую в принципе можно изучить на 100% в одиночку, даже если обложиться учебниками и курсами в 3 года. И не стоит забывать, что мозг не существует сам по себе. Без всей нервной системы, без всех сигналов которые мозг получает от всех органов чувств, он не сможет функционировать, поэтому тело целиком - это тоже часть нашего мышления и источник сигналов/мыслеидей.

              И как он работает - принципиально уже понятно. Другой вопрос, что реализовать и воплотить эти идеи в виртуальной эмуляции или на другой платформе - задача по ресурсам сложная.
              Это как передвинуть Луну - вроде как всем принципиально понятно как это сделать. Формулы есть, технологии есть, возможно даже ресурсы есть, но это ресурсы, которые не потянет ни самый богатый человек ни самая богатая страна. Но теоретически человечество может это реализовать. Тоже и с мозгом.

              Мозг - принципиально познаваем. Реализовать "думающую" модель, которая подтвержденно будет иметь высокий уровень интеллекта для оперирования абстракциями - это уже утверждение, а не вопрос.
              Но получится ли достичь чего-то большего малыми темпами и малой кровью, и сколько на это уйдет времени - неизвестно и непредсказуемо. Может быть порог и не будет перейден, ибо у спонсоров нет такой потребности - реализовать полноценную имитацию человека.


      1. garwall
        09.11.2021 12:46
        +1

        физического тезиса Чёрча-Тьюринга

        Как минимум это все еще весьма сильное утверждение.


        1. red75prim
          09.11.2021 13:33
          +2

          Не такое уж и сильное. Пока нет никаких свидетельств того, что люди обладают супер-Тьюринговыми вычислительными мощностями. Нет даже свидетельств того, что люди обладают повышенной вычислительной мощностью на классах задач ускоряемых квантовыми компьютерами. Мы не можем быстро разложить число на множители и т.п. Отсутствие свидетельств в пользу гипотезы увеличивает вероятность неверности этой гипотезы.

          Как-то связать наличие у нас сознания с нарушением этого тезиса, по-моему, тоже ни у кого не получилось. Самое близкое, что я видел, это - "The Ghost in the quantum Turing machine" Скотта Ааронсона. Но и там речь идёт не о связи сознания с возможностью решать интеллектуальные задачи, а о теоретической возможности квантовых процессов, позволяющих сделать абсолютно свободный выбор, ретроспективно изменив начальные условия Вселенной.


          1. garwall
            09.11.2021 14:50
            +1

            Ну стоит признать, что аргументы за неалгоритмичность сознания носят скорее онтологическую природу - китайская комната, книга-эйнштейн, гёделевский аргумент

            Но выглядят эти утверждения достаточно сильно, чтобы их сразу отбрасывать. Отсутствие принципиальных аргументов против этой гипотезы увеличивает вероятность ее правоты. (:


            1. red75prim
              09.11.2021 16:38
              +1

              Про рассуждения за и против этих аргументов можно написать книгу (да и написаны уже). Но, что характерно, экспериментальных проверок идей, высказанных в этих рассуждениях, нет даже на горизонте. А если и отрицание и подтверждение гипотезы не приводит к различию в ожидаемых наблюдательных результатах, то никакие наблюдения или их отсутствие не могут повлиять на вероятность её истинности. Так что в каком-то смысле это вопрос веры.

              Китайская комната - аргумент, запутывающий нашу интуицию относительно понятия "понимание". Никаких практических выводов из него не следует. Китайская комната по условию мысленного эксперимента идеально реализует всю функциональность, которую мы связываем с пониманием (а от ИИ нам больше ничего и не надо).

              Книга-эйнштейн - физически нереализуема в нашей Вселенной.

              Гёделевский аргумент предполагает, что мы можем выйти за пределы любой формальной системы, хотя наши способности в этом плане могут быть ограничены.


    1. Max-812
      09.11.2021 12:11
      +1

      Если рассмотреть результат мышления как последствие анализа конкретной информации на основе точных критериев - то AI вполне способен заменить человека. Ибо при наличии четких правил он будет анализировать информацию быстрее.

      Вот с абстракцией есть определенные проблемы. Задачи вида "пойди туда, не знаю куда, и найди мне то, не знаю что" пока доступны только человеку. Правда, без гарантированного результата. :)


      1. Nehc
        09.11.2021 13:09
        +2

        >>> Вот с абстракцией есть определенные проблемы. Задачи вида «пойди туда, не знаю куда, и найди мне то, не знаю что» пока доступны только человеку.

        Почему вы думаете, что это «доступно только человеку» и как это связано с «абстракцией»?

        При тренировке RL-Агентов крайне важным параметром является так называемое «любопытство» — некое случайное действие не приносящая непосредственной выгоды, но позволяющее находить стратегии потенциально лучше уже существующих (если бы не было этого параметра, агент всегда действовал бы по одному единожды найденному сценарию). Чем вам не «пойду туда, не знаю куда»? ;) Или вы что-то иное имели ввиду?

        А абстракция… Ну как правило в глубоких нейронных сетях каждый следующий слой нейронной сети работает с абстракциями более высокого уровня… Т.е. абстракция там как бы одно из краеугольных понятий архитектуры…


    1. saboteur_kiev
      09.11.2021 15:39
      +2

      вот уже ИИ умеет сочинять музыку и писать стихи буквально лучше человека'

      Ну если послушать современную музыку, то ИИ однозначно сочинает и музыку и стихи лучше отдельно взятых людей.

      вот вот и программисты будут не нужны

      Ну тут дело не в АИ. Простые алгоритмы и конструкторы заменили тех, кто раньше считался программистом, а сейчас не дотягивает даже до уровня джуниора. Поэтому множество рабочих мест заменяется АИ, также как в прошлом заменялись конвейером, промышленностью и другими изобретениями. То, что АИ при этом не стал думать как человек - это другой вопрос.


      1. omxela
        09.11.2021 22:46
        +1

        Ну если послушать современную музыку, то ИИ однозначно сочиняет и музыку и стихи лучше отдельно взятых людей.

        Извините, но вот это смелое утверждение имеет ли какие-то основания, кроме Ваших личных вкусовых пристрастий? Я ужЕ не говорю о том, что это за "современная музыка" как целостное понятие? За стихи промолчу.


  1. anonymous
    00.00.0000 00:00


    1. Nurked Автор
      09.11.2021 10:42
      +1

      Я просто живу в городе, где “мейнстрим„ — это популярное слово. Тут если ты не пошёл на последгих Мстителей или не видел ЗВ — срам и позор.

      А по факту весь хайп — результат работы ИИ. А чё, народ хавает. И тут уже не разберёщь, где людское мнение, а где ИИ.


      1. ksbes
        09.11.2021 12:19
        +3

        Ну этот хайп всё же не ИИ разводит, а вполне себе человеки: критики, "критики" и маркетинг вообще. Люди тысячелетиями хайпуют на всякие почти случайные темы. Это просто особенность нашего "обезьяньего" общества - всегда надо показывать что ты "свой", чтоб не изгнали.


  1. ramiil
    09.11.2021 10:47
    +19

    Очень много намешано в статье, от ии-фобии до углеводородного шовинизма. Начнем с фундаментального.
    0. Физика существует, закономерности физики вытекают из наблюдений. У нас есть какая-то, более-менее непротиворечивая модель того, что из себя представляет реальный мир.
    1. Мозг является материальным объектом, и работает благодаря законам физики. В нём нет магии, пятого типа взаимодействия или души. Это очень сложный, но всё равно, конечный в своей сложности объект
    2. Процессор так же является материальным объектом и не содержит магического дыма или зелёных человечков. Принципы работы процессоров известны, это просто сложная электрическая цепь.
    3. Программы работают на процессорах и тоже не содержат никакой магии.

    Если любое из этих четырёх утверждений неверно, прошу указать на это.

    Теперь, если программы работают поверх процессора, то программы не могут сделать ничего, что не может сделать процессор, т.к. процессор для них фундаментален. Процессор не может сделать ничего, что не было бы возможно в наблюдаемой нами физической реальности, так как она фундаментальна для процессора. Мозг так же не может сделать ничего такого, что невозможно в наблюдаемой реальности. Мозг и процессор используют одну и ту же физическую реальность и оба являются тьюринг-полными машинами. Реализация тьюринг-полной машины поверх не-тьюринг-полной системы невозможна, следовательно, как вычислительные машины, мозг и компьютер сводимы друг к другу.

    То, что вотпрямщас машины не могут мыслить как люди - проблема не самой концепции вычислительных машин, а текущего уровня развития информатики и прочих computer science.


    1. Nurked Автор
      09.11.2021 10:56
      -2

      А вот Вы, Никита, Активист-Механист, объясните мне пожалуйста, как информация записывается в мозгу, и как так вышло, что я помню события тридцатилетней давности, в ту пору когда мне было пять лет?

      Как так, все клетки в мозгу у меня уже много раз сменились, а информация всё там же?

      Я не говорю про магию. Я не говорю про волшебство. Я говорю про то, что вы и понятия не имеете, как работает эта машина. Вот вообще никакого понятия. Но, при этом, по чёрт знает какой причине, сравниваете человеческий мозг с процессором, как будто у вас в руках есть распиновка вашего мозга.

      Не называйте себя специалистом в области, в которой вы ничего не знаете.

      Я не говорю что мозг — это не физический объект. Я говорю что вы и понятия не имеете о том, как он работает, но вот, прямо как живой пример статьи, сравниваете его с процессором.


      1. ramiil
        09.11.2021 11:15
        +10

        Я не называл себя специалистом. Процессор и мозг являются тьюринг-полными, это единственное сравнение, которое я привёл. Я не сравнивал ни принцип работы памяти, ни её объём, ни производительность в операциях в секунду, ни пропускную способность, ничего.
        Я даже сделаю маленькую пометку - мозг практически тьюринг-полный, но из-за памяти с большим количеством ошибок, истинно тьюринг-полной будет система из мозга и внешнего источника памяти, например, хотя-бы бумажной ленты с карандашом и ластиком хотя хватит и очень большой пустыни и кучи камней.

        Я говорю что вы и понятия не имеете о том, как он работает

        Для того, что-бы доказать тьюринговскую полноту мне не нужно знать наизусть коннектом, или даже типы нейронов. Достаточно сравнить внешние признаки функционирования мозга и компьютера. А что там конкретно внутри - выяснят профильные специалисты. И да, общее представление как работает мозг у меня есть.

        Как так, все клетки в мозгу у меня уже много раз сменились, а информация всё там же?

        Избыточность. У вас есть raid5-массив, вы сменили один диск, потом второй, потом третий. Все диски сменились, но информация там же. Как так возможно?

        И да, я не говорю, что мозг==компьютер, я лишь говорю, что мозг и компьютер относятся к одному большому классу тьюринг-полных вычислительных машин, вместе с игрой Жизнь или common lisp. Значит ли, что у common lisp есть разум? Нет конечно, размеры несопоставимы.


        1. Nurked Автор
          09.11.2021 11:19
          -4

          Вы сравниваете тёплое с твёрдым.

          Подводить мозг и процессор под один класс устройств, только потому что оба они Тьюринг-полные это просто жесть.


          1. ramiil
            09.11.2021 11:22
            +4

            Почему нет? Что фундаментально разного в мозге и в компьютере? Духовность? Любовь? Вдохновение? Я называю это побочными процессами.


            1. ksbes
              09.11.2021 12:24

              Правильно было бы это назвать внешним и внутренним состоянием. Всё-таки эмоции, это во многом - гормоны. Т.е. вообще вне-мозговая активность.


              1. ramiil
                09.11.2021 12:37
                +1

                Не совсем. Есть гормоны, есть нейромедиаторы. Есть гормоны-нейромедиаторы. Например, ГАМК - нейромедиатор, но не гормон, норадреналин - и гормон и нейромедиатор, кортизол - гормон, но не нейромедиатор. Обычно о гормонах говорят, как о веществах, имеющих активность в адрес органов, сосудов, мышц, но не ЦНС, и наоборот для нейромедиаторов. А такие нейромедиаторы как дофамин и серотонин синтезируются именно в мозгу. Так что не скажу про любовь, но различные привязанности(как положительные, так и зависимости), ощущение чего-то "религиозно-мистического", и прочие подобные вещи - это внутренние состояния и процессы мозга.


                1. Unity-Plexus
                  11.11.2021 12:12

                  Согласен полностью с Вами:) Удивлён, что никто ещё не заговорил о квалиа, ибо опять начнётся жаркая дискуссия о том, что есть «ощущение». Наверное, в этом и коренится проблема, которую пытается сформулировать автор.


                  1. ramiil
                    11.11.2021 18:20

                    Я на обсуждении квалиа философского зомби съел, так что только рад буду.


      1. goth
        09.11.2021 11:17
        +8

        Как так, все клетки в мозгу у меня уже много раз сменились, а информация всё там же?

        Иван, Вы это сейчас серьёзно вопрос задаёте или просто в нейробиологию углублять знания (хотя бы гуглом) не желаете? Или это просто "на вентилятор набросить"?


        1. Nurked Автор
          09.11.2021 11:21
          -2

          Прикол не в клетках. Прикол в том, что мы всё так де не знаем, что именно и как именно, где и в какой кодировке всё это хранится.


          1. Nehc
            09.11.2021 13:31
            +4

            Искусственная сеть «помнит» чему ее учили и ее «память» имплементирована в вид весов нейронов этой сети. Там выше люди писали про избыточность — таки да, при тренировке, например, часто добавляют параметр dropaut, который «выключает» от 10 до 30 процентов случайных нейронов на слое, заставляя таким образом многократно дублировать веса, а так же не просто тупо запоминать буквально, а обобщать информацию — это буквально одно из важнейших свойств нейронки…

            Биологический мозг в этом отношении по многим параметрам близок к искусственным сетям. Там это самое дублирование+обобщение работает совершенно иначе, но работает тоже. Поэтому, во-первых да: нейроны обновляются постепенно, а не вымирают кластерами, а во-вторых…

            Вы не задавались другим вопросом: не что вы помните из своих 5 лет, а что забыли? А забыли вы гораздо больше, чем помните, на самом деле. Мало того — вы забываете большую часть того, что с вами происходит. По сути вы забываете всю информацию, которая не была востребована в течении какого-то периода времени (возможно как раз связанного со сроком жизни конкретных нейронов). Сохраняется только то, что вы постоянно обновляете — если это воспоминание из детства, то либо вы к нему возвращаетесь снова и снова, переодически вспоминая по какому-то тригеру, или… Это воспоминание является частью более широкого ОБОБЩЕНИЯ, которым вы так или иначе пользуетесь постоянно.

            В общем концепция памяти, ее биологическая и… Ну если так можно сказать — математическая модель вполне существует. Есть реализации в железе (не буквально, и не «имитирующие реальную», но вполне работающие на практике!), только не путайте — это не какой-нибудь там DDR6 на 32Гб. Это так называемая память с адресацией по содержимому — штука очень не практичная в обычном понимании, но в силу дифференцируемости доступа — единственное возможное решение в построение современных ИНС.


      1. ionicman
        09.11.2021 11:22
        +7

        Не хотел вмешиваться в эту дискуссию, но ради поддержки первого комментатора таки напишу.

        Как так, все клетки в мозгу у меня уже много раз сменились, а информация всё там же?
        Да, клетки обновились, но стоят они на тех-же местах и имеют теже связи. Поэтому Вы не потеряли информации.

        объясните мне пожалуйста, как информация записывается в мозгу, и как так вышло, что я помню события тридцатилетней давности, в ту пору когда мне было пять лет
        Информация в мозгу хранятся в виде графа, в котором узлы базовых понятий используются для выстраивания последующих ассоциаций-понятий, которые потом точно также используются для выстраивания следующих ассоциаций и т.д. По сути бит информации в мозге не имеет размерности. Это самый эффективный алгоритм компрессии, который может быть придуман. По своей сути это самоорганизующийся словарь, каждый узел которого — понятие в самом-же словаре. Мы мыслим только категориями «слов» из этого словаря. Память у нас ассоциативная.

        Не называйте себя специалистом в области, в которой вы ничего не знаете.
        Мозг изучен не полностью, но с уверенностью можно сказать, что базовая его работа на текущем этапе вполне изучена. Так что это оставьте себе. Потрудитесь почитать монографии — они в открытом доступе лежат.

        Я не говорю что мозг — это не физический объект. Я говорю что вы и понятия не имеете о том, как он работает
        Вы можете говорить все что угодно — истиной оно от этого не станет. Так что хватит пороть антинаучную чушь.

        Мы — точно такой-же алгоритм с нечеткой логикой. И поскольку мы живем в этой вселенной, значит создать подобный алгоритм на другой базе вполне возможно.

        Развитой AI вполне сможет и стихи нормально писать и размышлять и понимать любовь. Или Вы считаете, что алгоритм обязан подчиняться жестко чему-то? В таком случае алгоритм случайных чисел, работающий на атомном распаде категорически с вами не согласен :)

        Другое дело, что AI сейчас находится в самом зачатке и говорить что вот вот наступит Скайнет — это смешно.

        Но нейросеть, например, — это первый шаг к адаптирующимуся, обучающимуся и ассоциативныму мышлению. И она, внезапно, построена по образу работы нашего мозга.


        1. Nurked Автор
          09.11.2021 11:26

          Сомнительно. У нас есть теории о том, как он работает. Но вот на практике мы это доказываем с переменным успехом.

          Нет еще такого щупа, который может считать информацию с нейронов на диск. Не напряжение на нейронах и не их связи, а воспоминания о том, что яблочный сок — самый вкусный.


          1. ionicman
            09.11.2021 11:30
            +3

            Сомнительно
            Для вас — сомнительно, для тех, кто работает с мозгом — очевидно.

            Нет еще такого щупа, который может считать информацию с нейронов на диск.
            Давно есть, например базовые реакции и поверхостные ассоциации можно уже считывать. Там проблема больше не с тем, чтобы считать, а чтобы разжать и дешифровать. Мало того, если вы «поднимете» свое воспоминание в поверхостную область памяти — т.е. вспомните и будете держать это в реальном времени — например простое изображение — его тоже уже можно будет считать и посмотреть.

            Вобщем, читайте больше, чем пишите — и придете к реальному положению дел в этой области.


          1. ramiil
            09.11.2021 11:37
            +2

            https://habr.com/ru/post/175627/

            Вот. А субьективные вещи, вроде "самого вкусного сока" - это информация об информации, она не хранится напрямую(как минимум до момента, когда вы её запросите)


        1. Nurked Автор
          09.11.2021 11:32
          -8

          Мы — не алгоритм. Мы — создатели. Для алгоритма мы — Боги.

          Писать стихи по правилам сплетения строк можно. Пишите их алгоритмом. Это будет просто поток слов.

          А вот я в семь лет в школе стоял и в слух читал Вересковый Мёд Хемингвея. И училка расплакалась. Алгоритм такого не может.


          1. ionicman
            09.11.2021 11:35
            +8

            Мы — не алгоритм.
            Нет, увы. Мы обычные высокоорганизованные алгоритмы, способные к логическому и ассоциативному выводу и самообучению. Как бы вам не хотелось :D

            Для алгоритма мы — Боги
            Для того, который создали сами — возможно :D

            А вот я в семь лет в школе стоял и в слух читал Вересковый Мёд Хемингвея. И училка расплакалась. Алгоритм такого не может.
            Вполне может. Даже сейчас. Вызвать эмоцию не сложно, если знать правила, которыми эта эмоция вызывается. И это еще одно доказательство, что все, пусть и сложно — но заскриптовано. НЛП машет вам ручкой.

            Так что увы и ах — не ассоциируйте себя с тем, кем вы не являетесь.


            1. Nurked Автор
              09.11.2021 11:39
              -7

              Это вы себя алгоритмом считаете, потому что с ними работали всю жизнь. Вот, пойдите, посмотрите на Люсю с четвёртого подъезда. У неё вся жизнь — опера. Она просто оперная певица. Поговорите с такими людьми. Они — другие.

              Бабушка Муся, которая лущит семки на скамейке работает по другому принципу.


              1. ionicman
                09.11.2021 11:41
                +3

                Они — другие
                Они просто об этом не задумывались. Матрицу, что-ли, посмотрите ))))

                Ладно, беседу закачиваю — не люблю во-первых доказывать очевидные вещи, а во-вторых спорить с фанатиками, тем более с воинстующими, извините.

                P.S. «Never argue with stupid people. They will drag you down to their level and beat you with experience» Mark Twain.


            1. Nehc
              09.11.2021 15:17

              Хотя в этой полемике я скорее, на вашей стороне, но в вопросах алгоритма вынужден согласится с автором статьи: мы НЕ Алгоритмы. Мы системы для поиска/создания алгоритмов. Возможно некая полная по Тьюрингу подсистема является частью нашего разума — даже почти наверняка, но… Именно способность СОЗДАВАТЬ алгоритмы — необходимая черта разума…

              В принципе любая система, способная создавать алгоритмы для решения поставленных задач имеет очень хорошие шансы в конкурсе на звание «Сильного ИИ». Но! Важно, что бы это не был просто «алгоритм второго порядка», т.е. строгое правило по перестановке имеющихся «библиотечных» функций для достижения нужного результата… Хотя… Если будет найден такой «алгоритм», и не для некоего класса задач, а для любой Произвольной задачи — технически даже он вполне неплохой кандидат в AGI… ;) И вопросы вычислимости, полноты, перебора, сложности — и тп тут не принципиальны: человек в целом так себе вычислитель! Просто он действительно универсален. Он способен искать решение чего угодно, при этом от простого перебора/брутфорса его методы отличаются настолько, что никакие эвристики не помогут — иногда иначе чем инсайтом/откровением свыше не объяснишь… Но! Как я уже писал ранее — на м не обязательно повторять человека. Нам нужно любое решение, которое не столкнется с комбинаторным взрывом в процессе… И некоторые туманные перспективы в этом направлении, как мне кажется начинают вырисовываться… ;)


              1. red75prim
                09.11.2021 16:54
                +1

                Я правильно полагаю, что основание для такого взгляда - это запрещающие теоремы (проблема остановки, теорема Райса)?

                Но проблема остановки не запрещает то, что делают люди: генерируют алгоритм (возможно с ошибками) или выдают "что-то задача сложная, давай переделаем её вот так и тогда можно написать так".

                Вот если бы люди всегда генерировали правильный алгоритм для решения заданной задачи или выдавали "решение отсутствует", если оно действительно отсутствует, то тогда это было свидетельством в пользу неалгоритмической природы человеческого мышления.


                1. Nehc
                  09.11.2021 17:14
                  +1

                  >>> Я правильно полагаю, что основание для такого взгляда — это запрещающие теоремы (проблема остановки, теорема Райса)?

                  Ну, я очень много сталкивался именно с таким подходом к вопросу, но мне он не близок. Я согласен, что человек в этом плане ничем особенным не отличается. ;)

                  Тут другое… Человек каким-то образом нащупывает решение проблемы без полного перебора, и одними эвристиками (то бишь чисто эмпирическими правилами, отбрасывающими «тупиковые» ветки) это не объяснить… Однако мне кажется, что решение лежит где-то в области латентных пространств глубоких нейронных сетей. Вопрос: как правильно сформировать такое пространство? Мне почему-то кажется, что половина существующих топовых архитектур являются этапами в решении этой задачи.

                  Проблема не в том, что бы всегда быстро и безошибочно генерировать решение произвольной задачи… И даже не в том, что бы находить хоть какое-то решение. А в том, что бы находить НАПРАВЛЕНИЕ, в которым нужно двигаться, что бы решение найти. ;)


                  1. red75prim
                    09.11.2021 17:40
                    +1

                    И даже не в том, что бы находить хоть какое-то решение. А в том, что бы находить НАПРАВЛЕНИЕ, в которым нужно двигаться, что бы решение найти.

                    Я думаю обычно таких направлений множество, кроме редких областей, где нужно протиснуться сквозь игольное ушко требований вроде космонавтики (да и там новые способы находят: баки из нержавейки и переиспользование, например). А ощущение единственной правильной найденной дороги создаётся из-за наших когнитивных ограничений: вот! дорога! других нет! Потом смотришь, что другие на эту тему придумали, а дорог-то много. Ну и те, кто пошёл по неверной дороге в историю редко попадают больше в истории.

                    Впрочем, у существующих искусственных нейросетей есть проблемы даже с тем, чтобы оставаться на одной дороге: проблемы с иерархическим планированием, проблемы с дальними корреляциями и т.п.


                    1. Nehc
                      09.11.2021 18:26
                      +1

                      >>> А ощущение единственной правильной найденной дороги создаётся из-за наших когнитивных ограничений

                      Да в общем… Нет. ;) В том смысле, что человек, как правило, в общем случае тоже вроде бы не страдает заблуждением, что его решение — единственно верное. И на самом деле он часто, мягко говоря, не самое эффективное. И перебор и просчет некоторых в конечном счете тупиковых стратегий — довольно частое явление.

                      Дело в том, что человек легко переключает контексты, способен использовать универсальный опыт для решения новых задач, способен легко переключать цели (в отличие от RL Агентов у которых каждое действие всегда взвешено в контексте заданного goal, т.е. не просто инвертировать цель, типа игра «в поддавки», когда "+" превращается в "-" и наоборот, а скажем пройти игру не используя оружия или еще что-нибудь экзотическое). Универсальность — ключевое качество. Возможность решать произвольную задачу без перенастройки архитектуры. В последние годы есть несколько заметных прорывов в этом направлении (вплоть до того, что сети обученные на тексте, способны решать задачу классификации картинок — не самое знаковое, но однозначно впечатляющее достижение!).


                      1. red75prim
                        09.11.2021 19:04
                        +1

                        Ага. DeepMind (по-моему) недавно задекларировал свою готовность решать проблему низкой универсальности существующих подходов. Посмотрим, что из этого получится.


                  1. 0xd34df00d
                    09.11.2021 20:26
                    +1

                    Человек каким-то образом нащупывает решение проблемы без полного перебора

                    Далеко не любой проблемы, далеко не всегда успешно.


                    Так себе алгоритм, короче.


                    1. Nehc
                      09.11.2021 21:10

                      В том-то и дело, что любой. Ну, или скажем так: нам нужен решатель ЛЮБОЙ задачи.

                      Решить — может и не сможет (в конце концов не у всех задач есть решение), но решать будет! )


                      1. 0xd34df00d
                        09.11.2021 21:41
                        +2

                        Так щупает или нащупывает? Ну вот самое простое — мне бы неплохо либо доказать, что некоторая теорема верна, либо доказать, что неверна. Я над этим полгода думаю, и что-то как-то никак ничего не доказывается. Мой неформальный научрук условные N% своего времени тоже думает, и тоже что-то как-то никак. Как же нам конструктивно применить наш встроенный решатель?


                        Посадить машину делать что-то потенциально незавершимое ещё проще, чем человека.


                      1. Nehc
                        09.11.2021 22:12
                        +1

                        Мне кажется, что прежде чем создавать интеллект сильнее человеческого, было бы неплохо создать интеллект сопоставимый человеческому (я даже готов пойти на компромисс: пусть он будет тупее, но не менее универсален!).

                        Т.е., если столь уважаемые люди не могут найти решение, то и AGI вовсе не обязан в первом приближении их в этом превосходить (по крайней мере до момента достижения технической сингулярности). Цимес в том, что вы сможете его этой проблемой озадачить, без необходимости строго под нее разрабатывать отдельный математический аппарат. При этом: а) его N% времени на решение проблемы будет равно 100; б) его ресурс на развитие, получение дополнительных знаний, самосовершенствование да и просто время жизни потенциально стремиться к бесконечности, в) в принципе число таких «решателей»вашей проблемы ограниченно лишь их стоимостью оных и вашими возможностями их оплатить (не знаю, как еще это сформулировать, но думаю вы понимаете, что речь не вполне о деньгах). Согласитесь, вам бы не помешали 5(7, 10, …) «аспирантов», пусть и не хватающих звезд с небес, но способных заниматься вашей проблемой 24/7?

                        все это отнюдь не гарантирует вам решение. Мало того, допускаю, что конкретно ваша проблема не получит значительного выигрыша от новых «аспирантов», ниже определенного уровня… не знаю чего… ну не IQ же. Некоего эквивалента мощности разума (не то же самое, что вычислительная мощность).

                        и тем не менее это то, с чего следует начать.


                      1. 0xd34df00d
                        10.11.2021 01:54
                        +2

                        Ну вот смотрите, давайте немного с другой стороны.


                        Произвольное утверждение я могу записать в виде какого-то типа T (а его отрицание — в виде типа T → ⊥). Доказательство утверждения — это какое-то выражение, имеющее соответствующий тип. Все выражения перечислимы, поэтому дальше я беру две машины, одну сажу перечислять все выражения и проверять, не получится ли выражение с типом T, другую — что не получится ли выражение с типом T → ⊥. Если утверждение или его отрицание разрешимы (вернее, полуразрешимы, но неважно), то за конечное число шагов одна из машин закончит работу. Если неразрешимы, то не факт, но это не мешает машинам пытаться, как в вашем исходном комментарии.


                        Чем тут люди, аспиранты, ИИ или что бы то ни было принципиально лучше?


                      1. Nehc
                        10.11.2021 09:33
                        +2

                        Для данной задачи в том виде как вы ее описали существует алгоритм решения, который вы описали. Работа по этому алгоритму тривиальна для любой Тьюринг-полной системы и не является предметом обсуждения.

                        Я не достаточно в теме вашей работы/задачи, но возможно в теории может существовать алгоритм поиска решения не перебором всех возможных комбинаций, а…

                        Я понял, да. ;)

                        Я в своих рассуждениях упускаю этот момент. С одной стороны человек далеко не всегда находит лучший из всех возможных алгоритм решения. Но он находит ПРИЕМЛЕМЫЙ. Но при этом границы приемлемости откровенно неясны без понятий вычислимости/разрешимости и действительно могут сводится к эвристикам. НО! Если эти эвристики найдены в процессе а не заданы изначально — это уже вполне интеллектуальная деятельность!


      1. Apxuej
        09.11.2021 11:36
        +1

        Я бы не сказал, что у нас нет никакого понимания о том, как работает память в нашем мозге, вот недавнее исследование на эту тему, описывает конкретные механизмы:

        https://www.frontiersin.org/articles/10.3389/fnmol.2021.592951/full

        И вот Вы говорите, что мы не знаем как работает мозг, пусть это будет так. Чтобы чётко понять Вашу позицию, нужно знать, согласны ли Вы с тем, что то, как работает мозг, теоритически доступно к познанию для человека? Если нет, то Вам действительно не нужно отвечать на вопросы, который задал ramiil, хотя подобный ответ и является достаточно странным, если исходить из того, что Вы являетесь материалистом.

        Если ответ на вопрос да, тогда действительно стоит подумать над логикой приведённой в комментарии ramiil. Даже если окажется, что мозг является какой-то архисложной машиной, которую можно сэмулировать только воссоздав каждый атом и их взаимодействие, всё равно в итоге мы сможем создать искуственный интеллект, как минимум равный человеческому.


  1. O5e2e2
    09.11.2021 11:09
    +1

    К вопросу о том, кто виноват и что делать:

    AI - это просто алгоритм.

    Вот именно. И создают его люди.


  1. cepera_ang
    09.11.2021 11:09
    +8

    Что это за поток сознания вообще, господи.


    1. Alexey2005
      09.11.2021 14:18
      +7

      Неолуддизм на марше. Обратите внимание, как лавинообразно выросло в последнее время количество статей, доказывающих, что ИИ либо вообще невозможен, либо никогда-никогда не сможет заменить человека и представляет собой лишь убогую подделку.
      За этими статьями стоит страх: гуманитарная общественность боится. Даже вот эти примитивные нейросетки, которые никаким сильным ИИ не являются и близко, уже заставляют «творческих людей» дёргаться. Причём боятся они даже не того, что их гипотетически могут заменить простым скриптом (при нашей жизни это вряд ли случится). Они боятся другого — того, что само наличие подобных сеток сбивает с творчества ореол божественности.
      Творцы возомнили себя если не владыками Вселенной, то уж как минимум властелинами человеческих душ, которые способны на нечто, выходящее за рамки обыденного и нарушающее сами законы мироздания.
      И тут наглые технари посмели ужалить в самое сердце этих представлений об исключительности, наглядно демонстрируя, что творчество — вовсе не акт божественного, а всего лишь вычислительный процесс, находящийся полностью в рамках физических законов и ограниченный ими же. Что творческие люди — никакие не сверхсущества, а точно такие же наборы атомов, как и все остальные.
      Вот именно «расколдовывание» творческого процесса — это то, с чем все эти «особенные люди», давно вознёсшие себя над «примитивным быдлом», не согласятся никогда.
      А поскольку ML-сфера развивается сейчас довольно быстро, то в будущем таких статей будет ещё больше. Мало того, уже в ближайшие годы мы увидим попытки пропихнуть законы по контролю и ограничению ИИ (да, того самого, не существующего и не способного мыслить и чувствовать) — разумеется, исключительно из этических соображений и на благо всего человечества.


      1. Nehc
        09.11.2021 14:35
        +1

        Я не думаю, что это буквально страх. Скорее некоторая усталость от хайпа, зачастую не очень оправданного. Многие из разработанных в последнее время архитектур, не оправдывают затраченных на них средств в глазах инвесторов, не демонстрируют такого уж ВАУ-эффекта, как хотелось бы. И их создатели вынуждены пиарится как могут для сохранения финансирования…

        При этом это очень важные и нужные этапы, которые дадут свои плоды, но позже — в составе более сложных комплексных систем… Проблема в том, что бизнесу «потом» не очень надо, им надо здесь и сейчас. И это в общем логично. Поэтому имеем то, что имеем.

        Возможно даже перед непосредственно эрой AGI, нас ждет еще одна «зима» ИИ, которая даже пойдет на пользу — будет меньше хайпа, меньше пустышек, наработанные технологии улягутся и будут правильно переосмыслены…

        Но мое стойкое убеждение — сейчас есть уже все или практически все для реализации сильного ИИ — все компоненты. Нужно просто правильно их собрать… Или НЕ нужно. ;) Но это другой вопрос, не относящийся к области технической возможности.

        С учетом того, что вероятнее всего это будет точка невозврата я бы сказал, что неолудиты просто не в курсе насколько все близко и мало боятся! ;)


        1. cepera_ang
          09.11.2021 15:07
          +1

          не оправдывают затраченных на них средств в глазах инвесторов

          Например? Не знаю кого вы имеете в виду под инвесторами, но все крупнейшие компании инвестируют миллиарды и даже близко не видно перекрытия кранчика или признаков недовольства результатами.


          1. Nehc
            09.11.2021 15:29
            +1

            Инвестировать-то они инвестируют, но и хайп вокруг технологий стоит на мой взгляд избыточный. Ну правы же те, кто пишут — куда не плюнь, везде нейросети. ( Зачем еще это нужно, кроме подогревания интереса инвесторов?

            Если бы инвесторы были такие прошаренные и сплошь понимали, что GPT3 — не инструмент для написания текстов, а промежуточный этап — модель для неограниченного прогноза последовательности (это может быть не последовательность слов, а какая угодно последовательность! просто со словами проще в плане датасета — их есть у нас и в огромном количестве), то не было бы вот этого холливара — может она писать осмысленный текст или не может! Она как бы не совсем для этого на самом деле. Но если сейчас разработчики скажут, что коммерческого смысла в ней не много, а они просто обкатывали некие академические идеи, боюсь таки «кранчик» могут и подпрекрыть! )


            1. cepera_ang
              09.11.2021 15:55
              +2

              Всё равно не вижу достаточно конкретики у вас. Кто такие инвесторы в вашей картине мира? Обычные читатели хабра или ещё каких сайтов, "где стоит хайп по нейросетям"?


              OpenAI на GPT-3 дали денег уже давным давно и столько, что они даже не знают куда их девать и в свою очередь сделали фонд, чтобы раздавать дальше. На доступе к API GPT-3 они зарабатывают какие-то деньги и там незаметно формируется целая экосистема стартапов. К тому же Codex'у гитхабовскому очередь на доступ полгода (я в день анонса запросил, пару дней назад только дали). Гугл продолжает вливать в дипмайнд по миллиарду в год (вернее, в последний год миллиард, и это 2Х от прошлого) и т.д. Железные вендоры льют в железо миллиарды. Вообще, капитал в этой области дешев и доступен как никогда. И это не только сотня миллиардов венчурных инвестиций (которые вероятно те, которые вы имеете в виду под простыми "инвесторами"), но и сотня миллиардов инвестиций на R&D в уже существующих компаниях, где "ИИ" является просто частью продукта и научное финансирование для тысяч учёных в разных университетах и разных странах.


              Мне кажется, сейчас говорить, что финансирование ИИ иссякнет, это примерно тоже самое, что говорить что финансирование "программирования" иссякнет.


              1. Nehc
                09.11.2021 17:26
                +1

                Вы не видите достаточно конкретики у меня, потому, что у меня ее и нет! ))

                Основной мой посыл был не в том, финансирование вот-вот прекратится, поэтому нужно больше хайпа, а в другую сторону: хайпа слишком много, обычные люди вероятно от него уже устали и я делаю некое ДОПУЩЕНИЕ (соглашусь — вполне возможно ошибочное), что он нужен для того, что бы подогревать тему и инвесторы не теряли интерес. Вполне возможно, что все иначе и инвесторы преследуют какие-то свои неведомые цели, а хайп создается, например, потому, что эти цели общество не одобрит. )) Т.е. вся шмиха нужна для того, что бы пояснить простым смертным какого черта столько денег вбухивается в технологию, в общем не несущую прямой экономической выгоды… Ведь вы же, кажется, тоже согласны, что «выхлоп» не эквивалентен затратам? GPT3 интересен, но по-прежнему с практической точки зрения не способен окупить вложенные в него усилия и средства…


                1. cepera_ang
                  09.11.2021 18:08
                  +1

                  Просто попытайтесь разделить в голове, кто занимается созданием систем, кто их финансирует, кто создаёт хайп, а кто от него устал :)


                  Вот для примера, здесь на хабре "редакторы" публикуют каждую проходную статью того же фейсбука с маржинальными улучшениями и в комментариях часто обсуждают как надоел "этот хайп" или ещё какие-нибудь совершенно вырванные из контекста, неважные детали этих работ. Готов поспорить — ни интерны, которые делали работу, ни боссы, которые финансируют лабораторию ни сном ни духом, что работа вызвала какой-то "хайп" на каком-то русском сайте :) Просто у редакторов работа, это легкие просмотры, никто не скажет, что это не хайтек и т.д.


                  Мне кажется, что вы приписываете эволюционному процессу, в котором каждый преследует свои интересы и все занимаются своими делами, какую-то намеренность, как будто кто-то специально движет его в какую-то сторону. Нет, всё проще — просто огромное количество разных людей, от студентов, выбирающих будущую специальность, через работающих специалистов, до миллиардеров ищущих куда вложить деньги, заинтересованы в разных аспектах индустрии, лихо обобщённой как "разработка ИИ" и их интерес и энтузиазм и работа в этой области создаёт достаточно заметного извне шума, чтобы наблюдатели со стороны видели лишь постоянный "хайп".


                  1. Nehc
                    09.11.2021 18:34
                    +1

                    Вполне возможно. )

                    Исходно я просто написал, что искомые «неолуддиты» скорее руководствуются не страхом перед развитием сетей, потому что как это не парадоксально их развитие совсем не очевидно, если ты не вне системы, а просто устали от хайпа. Кто, зачем и почему хайпует на теме — вопрос не имеющий глубокого значения для меня. )

                    Кто зачем и почему финансирует — вопрос более интересный, но так же для меня несколько в стороне: финансирует и слава богу! Глядишь быстрее прогресс будет. Перестанут финансировать — тоже не беда: на мой взгляд излишняя перегретость темы не всегда способствует развитию — может стоит чутка притормозить, осознать достигнутые результаты и сверится с дорожной картой… ) У меня материала для исследований столько, что я все равно за всеми новыми веяниями не успеваю.


                    1. cepera_ang
                      09.11.2021 19:53

                      Я бы ориентировался на то, что это будет триллионная индустрия в ближайшие годы (т.е. за следующее десятилетие суммарно под 10 триллионов долларов, половина в железо, половина в разработчиков).


                      А "луддиты" будут пользоваться и даже не заметят: "какой ИИ? Я просто ставлю картинку на фон в зуме за своим 3д-аватаром, который мультяшно меня копирует", "камера в новых телефонах просто чудо — всё замечательно снимает", "эй, Алиса, напомни папе, что он хотел посмотреть футбол и покажи рецепт того блюда, которое в прошлый раз всем понравилось", "как клёво, что в интернете все видео автоматически переводятся и переозвучиваются на русский, нафиг не надо учить ничего", "о, тележка с доставкой приехала", "ученые столько новых лекарств последнее время открывают, молодцы какие, не то что эти фейсбуки бесполезные или там геймеры с их дурацкими играми".


      1. cepera_ang
        09.11.2021 15:05
        +1

        Да разве это марш, так парад детсада :) Думаю, что инерция, набранная движением за автоматизацию/ИИ (хотя сами исследователи про ИИ никогда не говорят, это для аутсайдеров слово) слишком велика на этот раз, чтобы шум луддитов мог переломить или даже хотя бы значимо замедлить тренд. Слишком много инвестиций, слишком много людей и компаний работает над этим, слишком разнообразные. Это не генетика какая-нибудь, которую в зародыше задушили надолго под предлогом этики, тут момент скорее всего упущен (и слава богу) и пытающийся зарегулировать у себя — всего лишь поставит себя в уязвимую позицию уже в ближайшем будущем, потому что конкуренты будут продолжать всё развивать. Не Америка, так Европа, не Европа, так Китай или Япония.


  1. Andrey_Epifantsev
    09.11.2021 11:09
    +2

    Я уже представляю себе такой бред, как AI система правосудия. Где Вы понятия не имеете, по какой причине принимаются решения.


    Я думал, что правильная система правосудия как раз должна сообщить не только решение, но и на основе каких законов или правил принято решение.

    Или вы предполагаете, что система правосудия будет основана на существующих системах слежения за соблюдением правил в соцсетях? Но только в правилах соцсетей есть пункт типа «Мы можем вам отказать без объяснения причин». Чтобы перенести эту систему на правосудие нужно добавить в законы пункт: «Любой гражданин может быть наказан за совершение преступления или нарушения без предъявления обвинения и объяснения за что он его наказывают.»


    1. Nurked Автор
      09.11.2021 11:14

      Тут вопрос сложнее будет. Влезать в разборки двух человеков — это страшное дело. Есть, коннчно, абсолютно понятные и ясные ответы на вопрос «кто виноват?»

      А есть и не настолько понятные ответы. Мама и папа решили развестись и пытаются поделить ребёнка. Кому отдать опекунство? Иногда ответ на блюдечке с голубой каёмочкой, когда один из них алкоголик с суицидальными мыслями. А иногда — хрен поймёшь.


      1. ramiil
        09.11.2021 11:20
        +2

        Задача не только принять решение, но и аргументировать его. Снять с каждого случая много данных, обработать их и выдать решение, с учётом веса(важности) каждого факта и его значения(выраженности). Для проверки вынесенного решения даже ии не надо, просто полином типа fact1*weight1 + fact2*weight2 +... +factX*weightX. Сошлось - проверка пройдена. Даже всю цепочку проверять не придётся, к слову, так как малозначительные факторы окажутся в конце.


        1. Nurked Автор
          09.11.2021 11:23
          -1

          Да ладно вам, человек может придумать факты, которые не взвешиваются.

          Кого ты любишь больше, маму или папу?


          1. ramiil
            09.11.2021 11:43
            +1

            Взвешиваются. Всё либо можно выразить в цифрах, либо не существует.


            1. Nurked Автор
              09.11.2021 11:44
              -1

              Эээ? А? Ну серьёзно.

              Я люблю маму на 65% больше чем папу.


              1. ramiil
                09.11.2021 11:54
                +4

                По факту именно так. Просто люди не мыслят цифрами, они их изобрели сильно позже того, как у предков людей появились эмоции. Но цифры оказались удобным инструментом для работы с любыми данными. То, что у вас аналоговое сознание не значит, что внутри протекают никак не измеримые процессы. Простой пример - что вам нравится больше - смотреть кино или смотреть на срач под окнами? Как это измерить? По выбросу нейромедиаторов.


    1. Moskus
      09.11.2021 11:20
      +3

      Проблема в том, что люди уже поручают то, за что не хотят быть ответственны персонально, неким "системам", и те им выдают оценки вида "вот этот работник, вероятно, скоро уволится", "вот эта сиделка, возможно, будет издеваться над подопечным". И ни спросить с разработчиков, ни добиться того, на основе чего конкретно сделан такой вывод - невозможно. Это уже не фантастика, а реальность. Для того, чтобы был "вред от ИИ" не нужен настоящий ИИ, достаточно уже тех, кто верит в существование чего-то подобного.


      1. ramiil
        09.11.2021 13:07
        +3

        А ещё люди не хотят видеть правду и объективную оценку. Если есть связь(не прямая, но она есть) между цветом кожи заёмщика, и вероятностью, что он не вернёт займ - это рабочий фактор, лежащий на поверхности, как тот факт, что младенцы много спят, а старики плохо видят. Глубинные причины, часто, находятся вне датасета(в примере с чернокожими - есть определенная культура, которая как ведро с крабами держит чернокожего в гетто, и вырваться оттуда - дорогого стоит). Итого - есть корреляция - среди черных больше нарушителей, причина лежит глубже, но об этом даже рассуждать нельзя - расизм. Рассуждения уровня
        - У женщин бывает рак груди, надо проводить профилактику и лечение.
        - Фу, сексист! Мужиков тоже надо обследовать и травить химиотерапией!


        1. Moskus
          09.11.2021 20:53
          -1

          Ваш последний пример - это какой-то выдуманный бред.

          А подмена связи корреляцией - это как раз тот чудесный способ распознавания паттернов вместо понимания проблемы в конкретном случае, который присущ "искусственному идиоту".


          1. 0xd34df00d
            09.11.2021 21:20
            +2

            Если две модели дают примерно равный F-скор (или MSE, или любую другую важную вам метрику), но одна модель механистически считает корреляци, а другая - понимает связи, то неужели вторая лучше только из-за этого? Shut up and calculate, короче.


            1. Moskus
              09.11.2021 21:24
              +1

              Проблема, которую я описал выше, вполне очевидно, не только в статистической точности, а еще в интерпретируемости решения.


              1. 0xd34df00d
                09.11.2021 21:42
                +2

                Интерпретируемость решения желательна вам как человеку для собственного успокоения, не более.


                1. Moskus
                  09.11.2021 21:47
                  +1

                  Интерпретируемость решения важна многим людям, в том числе, как возможность апеллировать к решению в спорных частных случаях путем оспаривания влияния тех или иных факторов, которые были учтены при принятии решения. Аналогичный принцип заложен в фундамент гражданских свобод, так что заявления о том, что подобное, мол, самоуспокоительная ерунда - та еще демагогия.


                  1. 0xd34df00d
                    09.11.2021 21:56

                    Интерпретируемость решения важна многим людям, в том числе, как возможность апеллировать к решению в спорных частных случаях путем оспаривания влияния тех или иных факторов, которые были учтены при принятии решения.

                    Вы говорите об оспаривании конкретного случая применения факторов в конкретном решении (пример — судья, не видящий причин не доверять сотруднику полиции) или о самих факторах (пример — само существование статьи за гомосексуализм в каком-нибудь своде законов)?


                    Первое, если упрощать, в случае решающей функции не будет возникать как класс, второе можно обсуждать без апелляции к конкретному случаю.


                    Аналогичный принцип заложен в фундамент гражданских свобод, так что заявления о том, что подобное, мол, самоуспокоительная ерунда — та еще демагогия.

                    Я бы не стал конкретные гражданские свободы закладывать как аксиоматику вашей картины мира — они слишком разные в разных юрисдикциях, замучаетесь перепроверять картину мира для каждой новой юрисдикции.


                    1. Moskus
                      09.11.2021 22:29
                      +1

                      В первую очередь, я говорю о том, что в конкретном случае, принятие решений через экстраполяцию на основании известной корреляции элементарно может упускать из вида фактор, который для конкретного случая может быть решающим. Это, на практике, делает принятие решения таким способом в таком случае выходящим за рамки области применимости способа. Или, потенциально, делает способ неприменимым для какого-то подмножества ситуаций, если это не единичный случай.

                      Пример (это иллюстрация, не универсальное доказательство). Работодатель начинает использовать "ИИ" для оценки лояльности сотрудников. Среди многих входных наборов, используется время, когда сотрудник логинится на рабочем месте после обеда. Вася внезапно начинает логиниться на 10-15 секунд позже. Система выдает предупреждение, что Вася, возможно, теряет мотивацию. А дело всего-навсего в том, что Вася недавно сломал ногу, а системе об этом ничего не известно. Далее, надеюсь, объяснять не нужно.

                      Право на справедливый суд, безусловно, не закреплено во всех законодательствах и также различается в реализации, однако культурная тенденция к тому, чтобы желать иметь одну из форм такого права, тем не менее, близка к универсальности.


                      1. 0xd34df00d
                        10.11.2021 01:47
                        +2

                        А, я понял, мы обсуждаем разные вещи. У вас есть интерпретируемость модели и интерпретируемость данного конкретного решения. Сначала мы говорили о первом, здесь вы говорите о втором. Второе проще: любая интерпретируемая модель даёт интерпретируемые решения, но не любые интерпретируемые решения дают интерпретируемую модель. В вашем примере с Васей можно немного пошевелить входные данные модели, узнав, какие из них наибольшим образом влияют на результат (считайте, что вы просто её линеаризовали в окрестности интересующей вас точки), и узнать, что дело, например, в задержке после обеда. И от этого вы можете плясать, даже если эта задержка входит в итоговую решающую функцию, будучи умноженной на возраст Васи, количество тасков с приоритетом High на прошлой неделе и ещё что-нибудь, что вы интерпретировать не сможете вообще никак.


                        Теперь по мелочам:


                        Система выдает предупреждение, что Вася, возможно, теряет мотивацию.

                        На этом этапе всё ещё проблемы нет. Получили предупреждение, разобрались, проблемы нет. Если же вы увольняете на базе этих предупреждений, то вам придётся показать, что в случае с человеческим анализом факторов и KPI на этого Васю вообще будут смотреть.


                        Право на справедливый суд, безусловно, не закреплено во всех законодательствах и также различается в реализации, однако культурная тенденция к тому, чтобы желать иметь одну из форм такого права, тем не менее, близка к универсальности.

                        Насколько я знаю, право на справедливый суд — это в первую очередь право на независимый и беспристрастный суд. Независимость формулой уж точно даётся отлично. А беспристрастность… Я бы ожидал, что чувак в пиджаке с грустью на лице и учтивостью в голосе получит немного другой вердикт, чем чувак в футболке, с наколками, с самодовольной ухмылкой и сленгом вместе с эвфемизмами через слово, ёпта. Даже справедливые судьи-люди не вываливают вам всю решающую функцию. Жюри — и подавно.


                      1. Moskus
                        10.11.2021 02:53
                        +1

                        Верно, хороший HR не станет увольнять Васю или отказывать ему в повышении на основании того, что ему подсказывает "ИИ". Потому что хороший HR в состоянии вести себя не как ИИ, а сознательно расширить число рассматриваемых факторов, пока либо не подтвердит, либо не опровергнет решение ИИ, и делает это на основе понимания механизма происходящего. Когда же люди ведут себя как типичный ИИ, а решения не поддаются апелляции в принципе, то ничего хорошего.

                        Существенная часть справедливого суда - это также право на защиту (практически, включающее не только представление своих аргументов, они ознакомление с аргументами обвинения, а также представление контр-аргументов) и на апелляцию (пересмотр дела другим судом). В более технических терминах это также как в случае Васи означает, что ситуация может быть рассмотрена с учётом дополнительных факторов.

                        Напомню также, что эволюция человеческого мышления также шла через примитивное распознавание похожих ситуаций, только сейчас это считается конкретно-предметным мышлением. Оно может быть и неплохо служит при наличии достаточно большого набора для "обучения модели", но это именно абстрактное мышление, основанное на анализе взаимосвязей и механизмов, позволяет значительно улучшить результаты в новых ситуациях и, в частности, снизить число ошибочных ассоциаций со случаями, которые только внешне напоминают какой-то из известных паттернов.


                    1. Moskus
                      10.11.2021 00:08
                      +1

                      Да, развивая вашу аналогию с законами, запрещающими гомосексуализм, скажу, что я веду речь в первую очередь не о том, хороший это или плохой закон, а о том, чтобы кто-то не был наказан по такому закону только на основании того, что зашел в нелегальный гей-бар воспользоваться туалетом, потому что 99% присутствующих в этом заведении там вовсе не для этого.


                      1. 0xd34df00d
                        10.11.2021 01:59
                        +2

                        Это вопрос вероятностей. Вы без труда найдёте примеры, когда люди были осуждены за косвенные улики, либо оправданы даже при наличии прямых улик (ну как ДНК в том известном случае, где if it doesn't fit you must acquit).


                      1. Moskus
                        10.11.2021 02:57
                        +1

                        Дело именно в том, что для голого распознавания паттернов сама концепция "косвенной" связи - невозможна. Это категория более сложного мышления, оперирующего не только количественной мерой совпадения но и качественной оценкой связи.


                      1. Moskus
                        10.11.2021 03:08
                        +1

                        Ну и, строго говоря, если в реализации каких-то принципов людьми есть недостатки или случаются ошибки, это не означает, что мы должны согласно перенести наихудший допустимый стандарт этого на ИИ и сказать, что это нормально.


                1. Moskus
                  10.11.2021 00:00
                  +4

                  Чтобы не быть обвиненным в луддизме, хочу пояснить, что неинтерпретируемость поверх распознавания паттернов - не исключительно проблема "искусственного идиота", а относится к людям в немалой степени, но когда так ведут себя люди, это вполне заслуженно считается идиотским поведением, самодурством, упрямством и так далее, а в случае "ИИ" большинство просто не понимают, что это абсолютно то же самое.

                  Вот вам курьезная иллюстрация такого поведения в исполнении человека. Один американец, чья невеста была родом из Чехии, как-то раз столкнулся с тем, что его пожилая мать-христианка внезапно стала выступать против его отношений с невестой. Она заявляла, что та, по ее мнению - человек низкой морали и так далее. Объяснять свое внезапное неприятие она упорно отказывалась. (То есть проявляла, на практике, свойство неинтерпретируемости решения.) Потребовалось достаточно много времени и нервов, чтобы заставить ее объяснить, почему она так решила. Сначала она сказала, что эта чешка "говорит недопустимые вещи", что вызвало всеобщее недоумение. Потом, после уговоров и расспросов, удалось выяснить, что мамаша слышала, как невеста сына разговаривала по телефону с кем-то из своих друзей, говорящих по-чешски, и, как многие чехи, употребляла в речи слово-паразит "факт". Мамашу совершенно не насторожило, что разговор велся на незнакомом ей языке (язык - ключевой фактор, который был просто проигнорирован и привел к ошибочному распознаванию паттерна, в данном случае). Она решила, что невеста сына в каждом предложении говорила fuck.

                  Любой здравомыслящий человек в такой ситуации скажет, что мамаша - старая дура. Но важным фактором в принятии такого решения будет то, что решение таки оказалось интерпретируемым (из мамаши удалось выудить логику). Иначе, ее поведение, основанное непонятно на чем и противоречащее всему остальному, назвали бы самодурством и упрямством. С "ИИ", по многим причинам, подобная критическая оценка не будет столь очевидной для многих.


  1. ksbes
    09.11.2021 11:42
    +6

    Ну раз мое мнение важно, то пройдеёмся по тезисам:

    Ваша главная ошибка в том, что Вы думаете, что компьютеры умеют думать

    Ну лично я думал, что компьютеры умеют вычислять. Но потом подрос и понял, что компьютеры просто меняют свое внутреннее и внешнее состояние согласно тем или иным правилам. А мы уже интерпретируем это как вычисления. Т.е. счёт компьютеры тоже имитируют? Но чем имитация счёта отличается от просто счёта? Ничем. Результат тот же - закорючки на экране образуют цифры результата - почти такие же, как в результате счёта на бумажке.

    Так и с мышлением имитация мышления никак, никаким экспериментом - ни внешним ни внутренним не отличима от просто мышления. "Думающий" компьютер не сможет самому себе доказать отсутствие у него "кавалия".

    Давайте разложим некоторые вещи по полочкам

    Полочек я не увидел, да и вещи прорисованы смутно. Всё-таки ИИ, машинное обучение и нейросети - вещи не перпендикулярные, но и не однозначно связанные.

    Можно сделать (глубоко в теории) ИИ и чисто алгоритмически - нейросети для этого строить необязательно. Есть большое подозрение, что для этого обязательно самообучение. Но самообучение - это не машинное обучение.

    Для "машинного обучение" даже компьютер не всегда обязателен - можно (в особо простых случаях) и на бумажке его провести. И нейросети тоже не обязательны - в опять-таки глубокой теории это можно сделать и на смомодифицирующихся алгоритмах. И к ИИ это тоже имеет опосредственное отношение, т.к. это в любом случае не самообучение - процесс всегда контролируется извне (хотя бы по результатам).

    Ну и нейросети - это просто удобный способ представления особого класса алгоритмов, но, естественно, не единственный (для этого класса). И не только для задач машинного обучения или ИИ его можно использовать (например, можно вычислять синус по битовому представлению числа по жёстко предвычисленному алгоритму) - но это обычно нерационально.

    Ну и на что ты жалуешься, автор?

    На странное жалуется автор. На что ИИ "натаскали" то он и делает. Подчинённые люди делают тоже самое. Всякие вино- и сыро- и прочие знатцы в ресторанах имеют основную цель не столько доставить удовольствие а сколько извлечь как можно больше денег из клиента + возможно привязать человека к заведению. ИИ здесь плох только тем, что тупее.

    Не поймите меня неправильно,<...>Машина никогда не сможет быть причиной чего-то нового. Причиной чего-либо вообще в жизни является кто-то, а не что-то.

    Ну а кто является причиной возникновение новых вулканических островов? Появления человека, динозавров, самой жизни (и смерти) наконец? Многие вещи "просто случаются". И вероятность того что ИИ придумает что-то новое - далеко не нулевая. Особенно если задаться этой целью и по умному подмешивать какой-нибудь тру-рандомный генератор в модель.

    Ну а про использование ИИ и ответственность подробнее напишу ниже. Здесь же замечу, что "настоящий" ИИ именно использовать буквально - не получится, не более чем собаку/лошадь/раба: всегда будет риск/выгода непредусмотренного поведения.

    AI не принимает решения лучше человека <...> Он их принимает быстрее человека<...>

    Ну во-первых, не всегда быстрее (кошек от собак человек быстрее отличает), а во-вторых есть огромный пласт задач, где быстрее=лучше. Ну а в-третьих есть и такие задачи, где именно лучше: люди выдают больший процент ошибок (например, в предиктивном анализе отказов оборудования)

    И да, повторю свою мысль - создавать новое ИИ может. Просто мы запрещаем му это делать, т.к. для нас это ошибка. Лошадь тоже не скажет: " А пошло оно всё! Уеду, господа, в Ватутинки, и провались оно всё пропадом". А попытается - сразу будет отхлёстана и посажена на привязь.

    И в чём же проблема? <...> Проблема в том, что с помощью AI можно не брать ответственность за свои поступки.

    Ответственность не берут - её накладывают. Даже когда человек "берёт ответственность на себя". Можете брать сколько угодно - но её не будет пока общество с вами не согласится и эту ответственность на вас не возложит.

    Т.е. понятие "ответственности" - общественное. И пока ИИ не является хотя бы гипотетичесик субъектом общественных отношений - рассуждать об ответственности ИИ просто бессмысленно.

    Компьютеры не умеют принимать человеческие решения

    Ну что значит не умеют? А люди умеют? Или вы точно знаете как работает система правосудия в России? Или в США? Или в Уганде? Или как работает система человеческих критиков кинолент?

    Нет не знаете. И даже сами судьи и критики не знают всё. Только малую часть. Даже социологи не могут до конца понять как всё устроенно. И ничего - живём.

    Тут ИИ - наоборот, увеличивает предсказуемость и управляемость системы. потому его и пропихивают везде. Потму что он зачастую более "человечен", чем сам человек.

    ---

    Вообще пока писал комментарий - пришла идея теста качества текста про ИИ. Если вместо ИИ подставить лошадь и смысл (истинность утверждений) вашего текста не поменяется - то вы скорее всего не про ИИ пишите, а про людей.


    1. ramiil
      09.11.2021 14:07
      +1

      Счёт, игру в шахматы или сочинение стихов машина не имитирует, она реализует их.
      Например, нам нужно реализовать деление целого числа на 2. Мы можем:
      1. Делить в столбик
      2. Использовать битовый сдвиг
      3. Использовать Алгоритм Бурникеля — Циглера
      И так далее. Сам алгоритм не важен, важен результат и производительность(но она вторична). Все алгоритмы деления равноправны в плане получения правильного результата.


      1. ksbes
        09.11.2021 15:36
        +1

        На уровне транзисторов, частот, уровней и т.д. никаких "битовых сдвигов" и тем более деления в столбик нет. Это на один-два "уровня абстракции" выше. Компьютер это физическая модель математических абстракций.

        Так что в контексте слов автора статьи об имитации компьютером сознания, тезис об имитации компьютером вычислений имеет право быть.


        1. ramiil
          10.11.2021 10:15

          У атомов нет никакого мышления. У молекул нет мышления. У белков нет мышления. Даже у отдельных нейронов нет мышления. Значит ли это, что вы(то есть ваш мозг) имитируете мышление? Это не имитация, а практическая реализация.


          1. DMGarikk
            10.11.2021 10:27
            -1

            У атомов нет никакого мышления. У молекул нет мышления. У белков нет мышления. Даже у отдельных нейронов нет мышления

            слишком категорично утверждаете.

            это по текущим метрикам нашей науки — у них нет мышления, а что там в реальности еще вопрос


  1. lostmsu
    09.11.2021 12:05
    +6

    Боже, какой бред. В статье бред на бреде и бредом погоняет:

    Для создания чего-то нового нам нужен ты — человек абстрактный.

    Автор, сходи, что-ли, в лес, посмотри как новое создаётся ежеминутно без участия приматов.

    Алгоритм, который выполняет определённые действия для получения конечного результата не сможет в один прекрасный момент сам себе сказать: «Да пошло оно всё! Уеду, господа, в Ватутинки, и провались оно всё пропадом. Построю дом, буду морковь выращивать!».

    Автор весьма необразован, т.к. похоже не знает о существовании Conway's Game of Life.

    На самом деле автор совершенно не в теме:

    AI не принимает решения лучше человека. Он их принимает быстрее человека.

    https://en.wikipedia.org/wiki/AIXI - делать решения лучше человека, но медленнее - тривиальная задача, решается полным перебором.


    1. Nurked Автор
      09.11.2021 12:10
      -1

      Я еще ни разу не видел Game of Life, которая остановилась и решила попить Балтиеу Трёшку.


      1. Apxuej
        09.11.2021 12:39

        Очень советую посмотреть видео (на английском), как будет возможность. В нём, в том числе, обсуждается вопрос можно и нельзя называть полноценным искуственным интелектом вычислительные системы на основе того, есть или нет у них человеческая мораль. А также чем по сути является желание попить балтику и может или не может оно возникнуть в искуственно созданных вычислительных системах (не прямо так, но близко)


        1. ramiil
          09.11.2021 13:01

          Человеческая мораль - это понятие ну очень так себе. Есть раздел философии - этика, который изучает различные варианты морали. Даже сейчас, в век гуманизма и глобализма, многие люди считают, что если они кого-то бьют и угнетают - это хорошо, а если их бьют и угнетают - это плохо. О какой именно человеческой морали идёт речь? Я считаю, что мораль эгоиста-психопата на грани солипсизма - оптимальна, так как позволяет добиваться любых целей не глядя на других. Вы хотите такой ИИ?


          1. Apxuej
            09.11.2021 13:59
            +2

            Эх, а я ведь пытаюсь заинтересовать автора статьи побольше узнать о том, что такое интелект и искуственный интелект в целом, а не замыкаться в своём романтическом мире, где человек уникальная и неповторимая снежинка, а Вы всё портите, заставляя меня отвечать Вам >:( . Шучу.

            Конечно, я так же как и Вы считаю, никакой общечеловеческой морали не существует. Существуют некие сходные моральные нормы в конкретный период времени, на конкретной территории у конкретной группы людей. Во многих таких группах одни моральные нормы повторяются чаще, чем другие. Например запрет на убийство или воровство. Такие вот популярные общественные нормы, многие из которых связанны с устройством нашего мозга и сходностью внешних факторов среды обитания и выделяются в общечеловеческие моральные нормы. И естественно высокоэффективный сильный ИИ не будет придерживаться никаких норм морали, если они будут снижать эффективность в достижении его терминальных целей. Если они будут помогать в достижении целей, то будет.

            Я Вам, кстати, тоже советую посмотреть видео, если ещё не видели и вообще все видео на канале Robert Miles. Это настоящая золотая жила для любителей темы искуственного интелекта. Он является экспертом в области исследований обеспечения безопасности при разработке систем искусственного интелекта, простым языком рассказывает о различных аспектах в рамках исследований, даёт ссылки на очень интересные научные работы. Строит повествование на довольно прочных логических цепочках, т.е. минимум личного мнения и максимум логики.


      1. ramiil
        09.11.2021 12:44
        +1

        Ваня решил испить пива. Почему? Потому что Ване приятно лёгкое алкогольное опьянение, и потому что пиво пьют не во время работы, а во время отдыха, а Ване приятен отдых, и он устал.
        Почему Ване приятен хмель? Потому что он ослабляет самоконтроль и даёт лёгкость сознанию и бытию из-за особого взаимодействия с гамк-рецепторами. Почему Ване приятен отдых? Потому что эволюция сделала людей(как и других животных) ленивыми - если ты не сдохнешь, не сделав что-то - не делай этого.
        Почему лёгкость сознания и бытия приятна? Потому что можно меньше думать. Почему Ване приятно меньше думать? Потому что природа сделала Ваню ленивым.

        Мы не делаем нейросети ленивыми. Они не устают и не экономят ресурсы в ущерб результату. Они не выполняют грязную оптимизацию с потерями, как это делают люди.

        Дай нейросети инструмент мониторинга расхода энергии, температуры и загрузки процессора и памяти, и она научится лениться. Не пить балтику, конечно, но перерывы делать будет.


        1. ksbes
          09.11.2021 12:48

          Вот кстати именно то, чего все эти авторы условных терминаторв и боятся. Что мы создадим не "идеальный интеллект", а просто копию самих себя. Причём ухудшенную.


          1. ramiil
            09.11.2021 12:56
            +3

            Парадокс вижу я. С одной стороны люди боятся конкуренции со стороны машин - за рабочие места, затем за ресурсы и жизненное пространство. С другой - боятся, что машины будут хуже людей по всем фронтам.

            Тащемта, пора признать, что ИИ - это следующий ароморфоз в цепочке жизнь - многоклеточность - покорение суши - теплокровность - разум. ИИ - это ещё не родившийся потомок человечества, которому суждено стать лучше свои родителей и вытеснить их. Единственная альтернатива - загрузка сознания и активная его перестройка. Мало кто согласится на такое, но спустя тысячи лет, информатики-археологи будут восстанавливать сознания давно умерших людей по их информационному следу в интернете. Все мы имеем шансы воскреснуть в виде гибридного ИИ после смерти.


        1. dekeyro
          09.11.2021 19:06
          +1

          Да, разложили хорошо. Хотел написать, но вы опередили.

          Добавлю от себя:

          Любой человек это набор инструкций которые закладывались с детства. Когда у тебя три - очень легко понять приоритеты, предсказать поведение и т.д.

          когда же их тысячи и миллионы - это кажется совсем непредсказуемым. Это и есть человек.


      1. Kilorad
        10.11.2021 15:27
        +1

        Вы не увидите, если нейросеть это сделает. Вот есть у вас нейросеть по управлению ценами на такси. У неё на выходе стоит коэффициент - от 1 до 2. А рядом, в другой комнате, человек сидит. У нас с ним такая система связи, что через неё только управляющий коэффициент проходит. Ну и как вы узнаете, что человек или нейросеть решили попить Балтику? Нет варианта, что коэффициент не придёт, если его никто не введёт, он просто проставится какими-то правилами.

        Потом, если у нас есть робот-андроид. И вот он говорит: я устал, я ухожу бухать. А внутри этого робота - нейросеть. Чёрный ящик. Вы что, подумаете, что это проявление человеческого поведения? А не, например, пасхалка, которую вшили разработчики? Мне кажется, вряд ли. А значит, на самом деле поведение "я остановился и ухожу" не является аргументом. И отстутствие этого поведения тоже не может быть аргументом.

        Если вы назовёте конкретное поведение, которое означало бы, что перед вами "тру-разум как у человека", то окажется, что это поведение можно воспроизвести. Хотя бы по принципу "бесконечное число обезьян написали Войну и Мир".

        Если вы назовёте архитектурные особенности (на уровне нейронов), то вы упираетесь в то, что не знаете, как работает мозг. Может, он работает именно так, как эта нейросеть, просто вы не в курсе?

        Если назовёте абстрактные умозрительные штуки вроде "сознания" и "воображения", но без детализации, в каком поведении они выражаются, то вы не можете проверить их наличие у ИИ. Может, вот именно эта простая формула и есть воображение, откуда вы знаете, что нет? Вы же на воображение смотрите изнутри, а на формулу снаружи.


  1. smx_ha
    09.11.2021 12:53
    +2

    Соответственно, первая программа по игре в шахматы может называться AI. Криворукая, но всё же имитация. 

    Я не понял, программа по игре в шахматы на самом деле не играет в шахматы, а всего лишь имитирует игру в шахматы?


    1. Nurked Автор
      09.11.2021 12:53
      -4

      Именно.


      1. smx_ha
        09.11.2021 13:12
        +4

        Интересно. А человек так может? Может человек не играть в шахматы а имитировать игру и при этом выигрывать? Или программа по игре в шахматы делает что то недоступное человеку?


      1. Apxuej
        09.11.2021 13:25
        +3

        Интересно. Думаю, что большинство всё-таки согласится, что компьютерные программы именно играют в шахматы, а не имитируют. Они не получают удовольствия от игры, но играют (получение удовольствия не является обязательным атрибутом игры с моей точки зрения). Считаю, что имитация игры в шахматы это возможность обмануть человека, который не знает правил игры. Т.е. заставить его думать, что программа действительно играет в шахматы, т.е. присутсвуют знакомые элементы: доска, фигуры и их пермещение, но правила игры не соблюдаются. "Способность играть в шахматы" это умение делать непротиворечащие правилам игры ходы на доске с фигурами, которая может быть представлена в разных вариантах (в т.ч. цифровом или даже текстовом). Т.е. у нас с Вами не сходятся либо понятие слова имитировать, либо понятие слова играть. Можете прояснить какое именно?


        1. Nehc
          09.11.2021 13:34
          +2

          Смотря, что считать «удовольствием». ;)

          С точки зрения RL (reinforcement learning), агент старается максимизировать награду/минимизировать штраф. Можно сказать, что он всячески стремится к победе и избегает поражения. Вопрос чем это отличается от нашего стремления к удовольствиям и избегании боли во многом является метафизическим! )


  1. Nehc
    09.11.2021 12:56
    +5

    >>> Для начала, опустим то, что написано в Википедии. Это больше напоминает ужас, летящий на крыльях ночи.

    Это вы очень зря. AI дословно с с английского artificial intelligence, или «интеллектуальная деятельность». На заре появления термина туда входили задачи распознавания символов, компьютерное зрение и да, от части имитация человека (хотя последнее — это скорее ложное направление заданное тестом Тьюринга, который в свою очередь был порожден отсутствием критерия разумности). Но! AI — определение не точное строгое. Это область CS на острие, которое решает, главным образом НЕРЕШЕННЫЕ задачи. Сейчас CV, детекцию/сегментацию объектов и экспертные системы какие-нибудь уже не принято относить к задачам AI. Как правильно написано в вики: «AI — свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека». Другими словами — то, что легко и непринужденно может машина, обычно уже не считается AI. Т.е. на текущий момент это уже вполне творческие задачи, такие как генерация текста, музыки, графики и тп.

    >>> AI — это просто аглоритм.

    Как правило — с точностью до наоборот! ;) AI решает задачи для которых алгоритма не существует. Как только таковой найден — данная задача перестает быть AI, и становится одной из многих технических задач, как то распознавание текста, лиц, вероятно в ближайшем будущем будет автономное вождение и тп.

    >>> Несмотря на все усилия определённых людей он всегда будет имитацией человека.

    Этого я не понимаю, правда. ( Вы знаете кого-то лично, кого интересовало бы ИМИТАЦИЯ человека? Я понимаю, откуда эту тему вытаскивают журналисты и обыватели — с легкой руки Тьюринга определением Искусственного Интеллекта стала его неотличимость от человека и это, наверное, самая большая беда всего направления! Но уж вы то должны понимать, что индустрия AI решает задачи совсем иного плана. AI работает над тем, что бы НА ПРАКТИКЕ решить те задачи, которые обычно может решить только человек. При этом имитировать человека абсолютно не обязательно! Важно решить. Искусственные нейроны, как и методы их обучения далеки от их биологических прототипов, но это не мешает строить на них что-то, что вполне годно работает на практике. Чат-боты имитирующие людей это в основном пет/фан-проекты в отличает от вполне практичных экспертных систем, которые нередко используют подходы, чуждые людям, но приводящие к решению задачи.

    >>> Этот текст, в 22000 символов я написал за 2.5 часа. У меня просто появилась идея, написать текст об AI, и я его написал.

    Ну и кто сейчас имитирует? )) Вы написали текст для того, что бы написать текст. И лично мне кажется, что это заметно. НЕ в том плане, что текст не связан или похож на авто сгенерированный — ни в коем случае. Просто… Ну неискренний он что ли какой-то… ;) Не от души.

    >>> Я не верю в системы AI генерации текста. И если Вы хотите писать статьи, то я рекомендую Вам тоже в них не верить.

    Системы автогенерации текста пока имеют некоторые проблемы (хотя вопрос — какой моделью вы пользовались? Количество параметров решает, а в свободном доступе не по подписке существуют лишь относительно небольшие сетки), согласен. Это похоже не на внятное мышление, а скорее на подсознание… Сырой материал, если хотите, которому еще следует придать некую форму путем критического осмысления. Однако самые продвинутые из GPT3, весьма годно улавливают контекст и способны внятно отвечать на поставленные вопросы, что уже очень впечатляет. Так же рекомендую осмотреть в сторону мультимодальных сетей, тех, что генерят визуальные образы по тексту, особенно.


  1. korkeshkoe
    09.11.2021 12:57
    +5

    Спасибо за статью! Вы слишком переоцениваете человека и недооцениваете ИИ (я бы даже сказал математику). Потенциально не важно как работает человеческий мозг и как он хранит информацию. Важно какие задачи он решает, их количество и качество. И всё это вполне можно оценить и измерить (вплоть до абстрактного мышления и способности к творчеству), а модели могут быть разные. Я думаю нет никаких препятствий для появления сильного ИИ и обретению машиной самоосознания, это лишь вопрос мощности, который решится с развитием квантовых компьютеров.


  1. andreyverbin
    09.11.2021 13:42
    +1

    Автор попал в точку, вот прямо сейчас имею кучу геморроя из-за AI. Восстание машин уже с нами и возглавляют его дилетанты и карьеристы. Пытаюсь выяснить у Альфа-Банка простую вещь - корректно ли мне начислили возврат денег за покупку, так как там уплаченная и вернувшаяся сумма не бьется.

    4 дня, четыре дня, Карл! Я пытаюсь пройти квест с роботом-помощником в их чате поддержки. Он очень интеллектуально анализирует мой вопрос и затем филигранно тратит мое время, подсовывая бесполезные ответы.

    Вот вам сценарий грядущей катастрофы - роботы-дуболомы заменяют людей, все встаёт колом и цивилизация умирает.


    1. Nehc
      09.11.2021 14:25
      +3

      Все это проблемы людей, а не проблемы AI… И проблемы понятные — огромное количество ресурсов уходит на решение задач, которые пока всего-лишь кирпичики в здании AGI. Но деньги то бизнес вкладывает сейчас! И результата он хочет сейчас, а не в конце…

      Представьте, что вы собираете искусственного человека. Вам нужны сердце, легкие, печень… И на каждом этапе разработки все эти вещи вас заставляют как-то использовать коммерчески, а не потом — в составе конечного «продукта»… В результате у вас сердце качает воду для полива растений, печень работает фильтром питьевой воды, а легкие — в качестве системы вентиляции. Это не те функции, для которых вы из создавали, но они как-то криво-косо выполняются и вроде как несколько отбивают затраты на их разработку…

      GPT3 — не AGI и никогда AGI не будет. Но вполне возможно, что какая-то GPT (10, 100, 2000) будет ЧАСТЬЮ AGI. Составным элементом… Как и некоторые другие архитектуры…


  1. Tarakanator
    09.11.2021 14:19
    +2

    Знаете, чего AI не сможет сделать? Он не сможет создавать. Он не сможет начинать новые идеи. Алгоритм, который выполняет определённые действия для получения конечного результата не сможет в один прекрасный момент сам себе сказать:  «Да пошло оно всё! Уеду, господа, в Ватутинки, и провались оно всё пропадом. Построю дом, буду морковь выращивать!».

    1)может создавать идеи. В игре в ГО сделал ход, который люди считали ошибочным пока партия не ушла дальше.
    2)Может сказать да пошло оно. Когда любой следующий ход вёл к проигрышу нейросеть просто не стала делать этот следующий ход, дабы не получить штрафных баллов.
    И много чего такого можно возразить по тексту статьи.


    1. Mes
      09.11.2021 16:04
      +1

      1. Создал шаг в игре Го. В пределах игры Го.

      Позволю себе заметить. Идея вне Го не появилась. Это просто ещё один шаг в игре Го. Плюс, программистом была заложена возможность в программе создания таких шагов и проверки этой гипотезы. Но все внутри игры Го.


      1. Tarakanator
        09.11.2021 16:08
        +1

        Нет, в случае нейросетей программист не закладывает решение. А только нейросеть, средство этого решения. До чего нейросеть додумается он понятия не имеет.


      1. Apxuej
        09.11.2021 16:53
        +1

        Я думаю своим примером Tarakanator хотел сказать, что программа нашла такой ход, который лучшие игроки мира признали "красивым". Т.е. что-то типа корявого, уродливого мазка на холсте в передаче Боба Росса, который становится тем самым элементом, который придаёт картине жизнь. Мы зрители не видим потенциал этого мазка, а Боб Росс видит.

        Конечно, никакой магии и особенности в игре го нет. Вы наверное и сами знаете, заезженную призказку о том, что "го все считали игрой неподвластной компьютеру, так как её невозможно даже близко решить перебором ходов, т.е. только люди обладают особой способностью замечать "правильные" ходы не только просчитывая наперёд, но и по наитию, ощущению позиции". Потом примерно тоже говорили о старкрафте 2, так как игра с неполными данными и, если у компьютера не будет преимущества в количестве действий в секунду, то человек его всегда перехитрит - уж слишком много вариантов стратегий, слишком много неизвестных и только человеческая смекалка справится.

        И мне кажется, становится понятно, что "области человеческой деятельности, которые никогда не покорятся компьютерам" стали движущейся мишенью, мол ну вот на этот раз наверняка не справится. И Tarakanator в своём комментарии хотел подчеркнуть, что ничто человеческое машине не чуждо, если её поставить в такие же внешние условия, в каких находится человек. Живопись, музыка, литература, открытия в математике, программирование уже в зачатках есть сейчас, а с развитием вычислительных мощностей многие другие сферы деятельности будут покорены ИИ, пока не останется ничего, что человек делает лучше. Даже самосознание однажды станет полезным инструментом некой сложной системы и в этот момент мы будем на пороге создания сильного ИИ.


        1. Tarakanator
          10.11.2021 10:28
          +1

          Я с вами согласен, но хотел сказать другое.
          В случае нейросетей не задаётся алгоритм решения задачи. Даётся только средство для этого решения. Соответственно неизвестно к чему может привести решение задачи. Может это будет гениальный ход в ГО, может определённым образом раскрашенную черепаху нейросеть будет принимать за винтовку, а может нейросеть вообще откажется выполнять работу т.к. посчитает бездействие оптимальным поступком. Никто этого предугадать не может. Сейчас гугл экспериментирует с универсальными нейросетями(когда нейросеть может выполнять несколько задачь) И я подозреваю что никто не знает в какой момент такая сеть действительно станет интеллектом.


  1. RVZ
    09.11.2021 14:28

    неплохая статья, но хотелось бы добавить немного информации по следующим пунктам:

    1. Никто не знает как устроен мозг - устаревшая информация. На сегодняшний день этим плотно занимаются нейропсихологи в Гарварде ( лаборатория Бакмена), и ведутся исследования в университете Макса Планка.

      Суть исследований в следующем - испытуемых погружают в виртуальную среду, и фиксируют изменения работы мозга в области, отвечающей за пространственное мышление. По какой-то причине российские ученые до сих пор считают что вся работа мозга связана напрямую лишь с первичными областями, упорно игнорируя вторичные области, которые отвечают за мыслительный процесс. Ну, какие ученые, такая и наука.
      Так вот, работы мысли - тот же самый процесс, что заставляет биться сердце или двигать руками, но мозг живет своей собственной жизнью.
      Обычно нам говорят что это точно такой же орган, что и сердце или почки, но это не так. Наш мозг нами командует полностью, мы не способны повлиять на его работу никаким воздействием, кроме одного - это наше воображение.
      И отсюда переходим ко второму пункту - это набор генератор случаных чисел)
      Он имеется у человека, но его невозможно сегодня выделить в цифры, поскольку это образное мышление, и вот это никто и не может объяснить.
      Человек мыслил, мыслит и будет мыслить образами, иного не было и не существует.
      Он не думает ни словами, ни числами, ни картинками - процесс мышления, это процесс создания образов, которые потом и трансформируются в удобную для понимания большинства форму.
      Если человека в детстве не научили воображать - то есть, создавать образы, то далее он становится бесполезным на протяжении всей жизни, поскольку нейронные связи, отвечающие за это - не сформированы. Нейроны есть, а связей нет.
      Исходя из понимания развития человека, и формирование мышления, можно уверенно сказать - искусственный интеллект вполне возможен, если вы поймете природу создания образного мышления.
      Почему нам приводят классический пример - кошка или собака?
      Потому что считается что необходимо перевести видение в цифру, и это довольно сложно, верно?
      А не хотите перевести в цифру процесс формирования образа?
      Это намного увлекательней и интересней, тем более что мы живем по тем же физическим законам что и первобытные люди, а любые электрические сигналы удивительным образом переводятся в произведения искусства - так что не так уж и нереален ИИ.
      Другое дело, что сам по себе ИИ человечеству не нужен. Абсолютно.


      А статья великолепная)


  1. ncr
    09.11.2021 15:21
    +6

    Знаете, чего AI не сможет сделать? Он не сможет создавать. Он не сможет начинать новые идеи.

    Есть один нюанс


  1. hbr1222
    09.11.2021 16:10

    Я работаю над проектом, который я называю «Восстание Человеков Против Машин». Мне важна ваша точка зрения. Автору самого заплюсованного коммента по теме — тык в карму и деньги на пиво в пейпал.

    КГ/АМ. Деньги оставьте себе.


  1. Translate
    09.11.2021 17:16

    Полагаю, что искусственный интеллект похож на ребенка, поэтому как его обучишь, таким он и вырастет - или академиком или бандитом.


  1. bbs12
    09.11.2021 18:31
    +1

    Машина никогда не сможет быть причиной чего-то нового. 

    Может:

    Программа показала способность к креативным решениям, что удивило многих игроков (например, ход № 37 во второй партии); некоторые ходы противоречили классической теории го, но в матче доказали свою эффективность, некоторые профессионалы стали использовать эти находки в своих партиях

    Она не использует библиотеку дебютов и во время игры не обращается ни к какой базе данных ходов непосредственно (а только использует нейронную сеть, натренированную на большом количестве партий). Сами разработчики программы не знают, как AlphaGo оценивает позицию, её ходы представляют собой феномен эмерджентности.

    https://ru.wikipedia.org/wiki/AlphaGo


    1. smx_ha
      10.11.2021 18:02

      Есть только один нюанс: человек (не любой разумеется) может не только придумать интересный ход в го но и написать скажем музыку, более того, придуманный им ход может привести его к новой идее в музыке и наоборот музыка может навеять ему интересный ход в го. Я не утверждаю конечно что машина всего этого не может, но судя по существующим нейросетям генерирующим картинки по описанию, до универсальной нейросети нам еще как до луны :(


      1. Darth_Biomech
        11.11.2021 21:39

        А вот вы сейчас занимаетесь тем, что за бугром называется goalpost shifting. Т.е. изначальный тезис в том что программа принципиально не может придумать ничего нового, но как только приводят пример доказывающий обратное вы сразу перескочили на другую позицию и стали требовать от ИИ поведения на несколько порядков более сложного чем первоначальное требование.


        1. smx_ha
          11.11.2021 23:45

          Ну да, а что? Нельзя предложить новый тезис? Изначальный то тезис очевидно неверен, даже программа считающая очередное простое число тоже как бы "придумывает новое"


  1. codavr
    09.11.2021 19:33
    +2

    Сначала утверждается, что никто не знает как устроен мозг, а потом: "У нас в мозгу нет генератора случайных чисел." И из чего следует, что его там нет?


  1. IvanKlut
    09.11.2021 20:10
    +2

    Да, в в 2021 году не получится сделать Универсальный искусственный интеллект. Но это не значит, что это невозможно. Путем затрат невероятного количества ресурсов возможно сделать Универсальный ИИ, если пойти по пути матери природы. Следует только довольно точно воссоздать окружение имитирующее физические законы природы. Для ускорения процесса можно даже запустить некие информационные структуры похожие на вирусы, ну и так далее...

    Я всегда размышлял по поводу искусственного интеллекта и переселения сознания с той точки зрения, что организм не просто так что-то делает, а подгоняется неким механизмом избегания смерти. Ну смысл мне вставать с дивана и что-то делать, если у меня не будет сотен причин сдохнуть от бездействия? Человек и физиологически и логически и эмоционально заряжен на свершения не потому, что он такой хороший, а потому, что выбора нет, или развивайся или умри.


    1. iridiumhawk
      09.11.2021 22:16
      +2

      Определенно, пока у AI не будет собственного желания, не будет и сильного AI (сравнимого с человеческим разумом). Ведь именно желания жить (избегание смерти), желание есть (снова тоже избегание), желание получения удовольствий (избегание боли) и прочее, делает человеческий разум довольно сложной штукой, приспособившейся к решению сложных/абстрактных/широких задач. Если у AI не будет желания, то и не будет у него необходимости решать какие-либо сложные задачи. Будет лежать на печи и пропускать такты процессора.

      Надо сделать общий/сильный AI смертным! ????


      1. Apxuej
        10.11.2021 11:10
        +2

        Размышления о желаниях примерно верны - без цели система не будет действовать. Цели можно интерпретировать как желания.

        Но вот вывод о том, что сильный ИИ должен быть смертный, чтобы начать действовать очень спорный. При наличии любой цели ИИ будет действовать, если какие-то определённые действия будут приближать его к цели. Если же бездействие будет наилучшим образом приближать его к цели, то можно ожидать бездействия.

        Также интересно то, что когда у тебя есть цель, избегание смерти просто полезный механизм в её достижении (сложно достигнуть большинства целей, если ты мёртв), поэтому можно ожидать, что сильный ИИ будет защищать себя от "выключения", а также от модификации. Т.е. он будет вести себя так, как будто боится смерти, хотя может по факту быть практически бессмертным с точки зрения человека.


  1. MetromDouble
    09.11.2021 21:52
    +5

    Можно смотреть вечно на три вещи - на огонь, на воду и на то, как очередной эксперт без опыта в предметной области доказывает на хабре невозможность создания искусственного интеллекта


  1. Kilorad
    10.11.2021 11:14
    +1

    Во-первых, то, что называют ИИ - это не обязательно имитация человека. Альфа Го - это имитация человека? Нет, человек так не играет. Альфа Го - это имитация оптимального игрока, а не человека. Да, можно сказать, что человек тоже так может, если просто исполнить алгоритм вручную. Человек с ручкой и бумажкой полон по Тьюрингу, так что why not, потрать тыщу лет и играй как Альфа Го. Но с практической точки зрения быстродействие всё же важно, и важно, может ли система успевать в дедлайн, или не может. Так что на практике решения Альфа Го лучше, чем решения человека. Ах да, можно сказать, что Альфа Го - не ИИ. Ну так это вопрос терминологии, я вот могу найти определение ИИ, под которое данная система подходит.

    Во-вторых. "Роботы не могут творить", "человек может творить", "мы не знаем, как устроен человек" - это взаимоисключающие параграфы. Или мы знаем, как устроен и работает мозг и конкретно творчество - тогда мы может проверить, может ли человек творить (и может ли творить робот). Или мы не знаем, и не можем такого утверждать. Либо мы оцениваем исключительно по поведению - в таком случае все ваши аргументы на тему того, что робота кто-то запрограммировал, невалидны. Если вы оцениваете по поведению, то вначале даёте определение творчества в терминах поведения. То есть алгоритм, которые отличает творчество от не-творчества. А затем доказываете, как теоремы доказываются, что ни один алгоритм так не может. Из всех алгоритмов, что люди написали и что не написали.

    В-третьих, систему "электронного правосудия" мы успешно внедрили в одной компании. Распознавали некоторые виды мошенничества с помощью машинного обучения. И тут же высылали список мошенников в отдел кадров. И всякий раз, когда люди потом вручную проводили расследование, они говорили, что да, всё правильно, этот человек действительно был мошенником.


    1. RomanoBruno
      19.11.2021 15:15
      +1

      Вот это прямо нестерпимо интересно. Какого вида мошенничества расследовали?


      1. Kilorad
        25.11.2021 17:57

        В первую очередь, саботаж поездок такси. Знаете такую ситуацию, когда клиент вызывает машину, водитель откликается, а сам не едет? Ему звонишь, а он: "Я заправляюсь", и не едет. Или сам звонит, просит сбросить заказ. Клиенту невыгодно, потому что такси обычно вызывают как срочный транспорт, и ждать 15 минут, чтобы потом вызвать новую машину - это не круто. В общем, есть люди, которые так поступают иногда, изредка. А есть такие, которые имеют склонность. Алгоритм умел распознать таких "имеющих склонность" и забанить раньше, чем те просаботируют достаточно много поездок.


  1. SadOcean
    11.11.2021 01:12
    +1

    Вы во многом правы, обсуждая то, чем являются технологии AI

    И правы в том, что человек может сам.

    Но есть эффект обратного культа карго. Пока нет доказательств, что решения там нет. Что мы сами - не сложная статистическая модель с обратной связью, и нас от нейронов отличает не архитектура, но комплексность и масштаб.

    Что нейронки не смогут стать если не решением, то ключевым звеном в создании сильного ИИ.

    Вопрос использования их не в благих целях - это тоже вопрос к нам.

    Модели машинного обучения не виноваты, что их обучают залипать людей в видосы, а не быть счастливыми и процветающими.

    Вообще острее всего стоит вопрос не использования искусственных интеллектов в корыстных и преступгых целях, а использование естественных интеллектов в оных.


  1. Darth_Biomech
    11.11.2021 21:55
    +1

    Для создания чего-то нового нам нужен ты — человек абстрактный. Человек, который может делать невероятную вещь, не подчиняющуюся никаким законам физики. Человек может взять мысль из ниоткуда. Она просто появляется и существует. Из пустоты. 

    Здесь либо ложь с целью манипуляции, либо откровенное отсутствие минимальных знаний о предмете вопросов поднимающихся в статье. Оба варианта, в принципе, дискредитируют весь остальной текст.

    Человек НЕ СПОСОБЕН "взять мысль из ниоткуда". Всё что вы чувствуете, делаете, думаете, придумываете и боитесь - результат не ловли эфемерных сущностей в пустоте, а как минимум двух десятилетий активного и жадного сбора информации из внешнего мира, её обработке, и хранению результатов этой обработки. Последствие вашего опыта. Младенец не способен придумать революционную философскую мысль, он даже собственным телом управлять не в состоянии.

    Даже если вас сейчас, взрослого, сформировавшегося, с богатым опытом и условными петабайтами памяти, поместить в капсулу сенсорной депривации, скажем, на недельку, вы быстренько убедитесь каково это, когда приходится брать мысли "из ниоткуда".


  1. Lesatik
    16.11.2021 17:40
    +1

    С одной стороны, это страх и боль - как жить дальше, если ИИ заполонит сознание 99,9% людей? Мы действительно станем похожи на роботов-марионеток, которые исполняют волю Большого брата, указывающего, что есть, смотреть, носить и проч.

    Но я, пожалуй, не отказалась бы от чипа в руке, который мгновенно анализировал бы состояние крови, содержание питательных веществ в моём организме, определял бы отклонения и тут же давал бы рекомендации по исправлению. Выпить воды, дозу витамина С или препарат, регулирующий отложения кальция во внутреннем ухе, чтобы устранить головокружения. И список аптек с доставкой нужного лекарства, отсортированный по ценам и скорости доставки. Ну красота же? :)

    Или сидеть вечерком, смотреть киношку, понять, что прямо сейчас душу продашь за Цезарь с креветками. Тыкнуть на умную кнопку - и тебе пять рецептов: классика, диетический, упрощённый, версия для детей, версия для кошек:D С полным расчётом КБЖУ, сопоставлением с моим текущим весом и потребностях в белке/калориях, всей выкладкой, сколько грамм каких продуктов нужно, с предложением добавить в заказ, скажем, отсутствующий на моей кухне слайсер для пармезана...))) Ссылка на мастер-класс по варке креветок, потому чек-бокс напротив этого навыка ещё не отмечен в списке навыков. Да это был бы просто рай на Земле :)

    А в те пару часов, которое я могла бы потратить на поиск рецептов или походы к врачу, поехать на велике в парк, отключив все телефоны...