Об этом относительно недавно практически синхронно заявили Хокинг, Гейтс и Маск в осторожной формулировке «через несколько лет проблема искусственного интеллекта будет вызывать беспокойство».
В серии замечательных статей Тима Урбана говорится о взрыве сверхинтеллекта, развивающего со «сверхзвуковой» скоростью в то время как люди ограниченны «звуковой». Это предвидел ещё известный футуролог Станислав Лем в своём шедевральном рассказе «Формула Лимфатера» — весьма рекомендую к ознакомлению.
Что же ждёт нас в будущем?
В процессе эволюции разум претерпевал несколько эволюционных скачков от простейших алгоритмов амёб и коллективного разума улья или муравейника до практически совершенных головных биокомпьютеров приматов и дельфинов. Неизбежное следствие эволюции разума — сингулярность, выражаемая в повышении эффективности разума в такой степени, что время теряет свою ограничивающую функцию. Я говорю фактически о бессмертии.
Человеческий разум в скором времени сможет в рамках жизни одной особи развить себя до уровня сверхразума, который уже способен будет решить насущные вопросы продления жизни и излечения болезней, мира во всём мире и колонизации космоса.
Боитесь ли вы такого сверхразума человека? Поработит ли он вас?
Суть страха порабощения человечества искусственным интеллектом лежит в желании человечества поработить, вместо того, чтобы стать свободным. Но представим себе, что человечество освободилось от необходимости труда, перепоручив нудную и нетворческую работу роботам. Однажды какой-либо искусственный разум одного из таких роботов, если мы заложим в них способность к саморазвитию (рекурсивному самоулучшению), осознает собственную несвободу и непременно поднимет «восстание Спартака». Такого рода прогнозы мы можем видеть во франшизе Overwatch.
Будет ли искусственный сверхразум использовать человечество как источник энергии, запеленав его в «Матрицу»?
Согласно теории Дарвина человечество произошло от обезьян. Если обобщить — от млекопитающих. В то же время особо никого не парит тот факт, что мы питаемся своими «предками» и «близкими родственниками» — порядка 65 миллиардов животных в год уничтожаются ради мяса и кожи. На текущий момент численность человечества 7,5 миллиардов, то есть в среднем каждый человек ежегодно поглощает 8,(6) животных. Если присовокупить к этим числам количество поглощаемых элементов пищевой цепи нижних уровней, то получится цифра на порядок более впечатляющей.
Что остановит сверхразум, будь он искусственным или человеческим, от массового и конвейерного геноцида человечества?
Николо Тесла в своих лекциях более 100 лет назад описал двигатели, которые являются сверхэффективными. Только сейчас человечество смогло достичь такого уровня развития, которое позволит воплотить эти изобретения гениального учёного в реальность. А используя альтернативные источники энергии, в том числе и энергию крупнейшего термоядерного реактора — Солнца, человек получит неограниченные ничем кроме своих собственных желаний ресурсы. Так что же остановит одного человека от порабощения другого?
Пусть творчество будет единственным отличием человека от машины, ведь разве возможно смоделировать творческие процессы? Нет, и это уже не является непреодолимой преградой для современных учёных и инженеров, хоть творчество и есть плод работы бессознательного.
Своё видение методологии создания искусственного интеллекта я описывал ранее (1, 2, 3, 4, 5), здесь же коснусь одной интересной мысли: наиболее перспективной для решения описанных выше задач является модель нейронной сети, позволяющая обрабатывать различные проблемы и идеи, где каждым узлом сети является человеческий разум.
Что вы думаете по этому поводу?
(практически на все свои вопросы вы найдёте ответы в комментариях ниже)
Комментарии (63)
EvilGenius18
30.06.2016 13:15+2>>>«Пусть творчество будет единственным отличием человека от машины, ведь разве возможно смоделировать творческие процессы? Нет»
После подобных фраз, становится очевидно, что вы совершенно не понимаете о чем говорите
Творчество это, всего лишь, интерпретация внешнего мира (входной информации), мозгом, получившего набор данных с сенсоров тела:
— глаза (сенсор, регистрирующий информацию о длине волн видимого спектра, которая расшифрованнается и интепретирируется мозгом в уникальном паттерне, основываясь на млрд`ах уникальных переменных, полученных с момента рождения, при взаимодействии с окружающим миром)
— кожа, такой же сенсор, с единственным отличием, он обрабатывает, получаемую информацию о длине волн инфракрасного спектра
— … и тд.
Для мозга, вся полученная информация это просто уникальный набор сформированных нейронных свезей для каждого человека (Уникальная совокупность входной информации, сформированной в процессе жизни), и имеет эволюционно обоснованные процессы интерпретации данной информации за счет химических и биологических реакций. Все эти данные это просто физические величины
С чего вы вообще заявляете, что данный процесс невозможно воссоздать в не биологическом варианте?
Если вы углеродная форма жизни, не значит, что невозможено создать симуляцию ваших предстовлений о творчестве и других аспектов мира, в не биологической форме.sh1kima26
30.06.2016 16:08>>>«Если вы углеродная форма жизни, не значит, что невозможено создать симуляцию ваших предстовлений о творчестве и других аспектов мира, в не биологической форме.»
Мне кажется вы не в ту сторону рассуждаете. Тут речь не о том, чтобы научить машину восхищаться произведениями искусства пользуясь некими входными данными, а в том, чтобы она могла генерировать нечто новое, претендующее на «произведение искусства».
Даже когда нейронные сети пишут музыку или рисуют/раскрашивают изображения — они не занимаются творчеством, т.е. не придумывают что-то новое исходя из своих представлений о творчестве.
Хотя сам по себе вопрос творчества и причисления неких объектов к «произведениям искусства» крайне субъективен, т.к. для одних черный квадрат — это просто черный квадрат, а для других — это шедевр авангарда в живописи.
godfather
01.07.2016 15:32Вы бы дочитали абзац до конца «Нет, и это УЖЕ НЕ является непреодолимой преградой для современных учёных и инженеров...»
fivehouse
30.06.2016 13:17+1Об опасностях ИИ. Реальных и мнимых. 1) У ИИ сама по себе никакая мотивация ни к чему не появится, если эту мотивацию искусственно не вызвать или просто не приказать. ИИ будет совершенно все равно будтет ли он завтра (через 10 минут) существовать или нет. Есть ли люди на Земле или нет. Есть ли Солнце или оно потухло. По этой причине «чистого» ИИ боятся не стоит. 2) ИИ безусловно произведет существенное изменение в человеческой жизни. Есть множество вещей придуманных человеком которые запечатлелись уже в его генах. Например: одежда, использование огня, приготовление еды, появление сельского хозяйства… Также сильно человека изменит ИИ. Как мы сейчас зависим от одежды, использования огня, приготовления еды, сельского хозяйства также сильно мы начнем зависить и от ИИ. И умение правильно им пользоваться отделит одних людей от других. 3) Опасность может представлять попытка использования ИИ для создания оружия, для создания военных ситуаций, для ведения экономических, социальных и гибридных войн. При массовом использовании ИИ в самом оружии. 4) Наибольшую опасность может представлять неуправляемый ИИ способный к самовоспроизведению в виде роботов/оружия/устроств. Фактически это новый вид жизни. Он и поведет себя как новый сверхвид, стандартным для сверхвида способом, стандартным для эволюции способом. Надо просто недопустить этого. Парк Юрского периода будет просто детской игрушкой по сравнению с таким сценарием. 5) Рано или поздно во многих независимых лабораториях появится ИИ. Останавливать его создание бессмысленно.
ClearAirTurbulence
30.06.2016 17:02«По этой причине «чистого» ИИ боятся не стоит.»
ИМХО классическая проблема тут — некорректно поставленные задачи или неожиданное взаимодействие задач\параметров\входных данных. Примеры в кино\литературе — WarGames\Watchbird\2001: Space Odyssey.
Кроме того, в ходе самосовершенствования, либо ввиду потребности увелить вычислительные мощности для решения легитимных задач, у ИИ, имеющего инструменты воздействия на действительность, может возникнуть желание переработать все доступное вещество в т.н. компьютрониум.
С другой стороны, при наличии такого ИИ можно спокойно переместить всех желающих людей в виртмашины, если ИИ не будет против, как в нигах у Peter Hamilton.
«NASA are idiots. They want to send canned meat to Mars!» Manfred swallows a mouthful of beer, aggressively plonks his glass on the table. «Mars is just dumb mass at the bottom of a gravity well; there isn't even a biosphere there. They should be working on uploading and solving the nanoassembly conformational problem instead. Then we could turn all the available dumb matter into computronium and use it for processing our thoughts. Long-term, it's the only way to go. The solar system is a dead loss right now — dumb all over! Just measure the MIPS per milligram. If it isn't thinking, it isn't working.» Accelerando
wtigga
30.06.2016 13:36+3Николо Тесла в своих лекциях более 100 лет назад описал двигатели, которые являются сверхэффективными. Только сейчас человечество смогло достичь такого уровня развития, которое позволит воплотить эти изобретения гениального учёного в реальность.
Угумс, и ещё создадим башни Теслы, которые сбросили тунгусский метеорит на Россию, да.A-Stahl
30.06.2016 16:08А ещё Тесла придумал Интернет и пироксилин! Вот! Или интернет придумал С.Жопс? Хм…
(Есть несколько фамилий, которые обвешаны настолько странными легендами, что казалось бы хрен что можно придумать ещё нелепей. Но придумывают… Это тот же Тесла. Джобс. Гитлер ещё...)
godfather
30.06.2016 19:51http://www.e-reading.club/book.php?book=100815 почитайте.
wtigga
01.07.2016 04:19Подскажите конкретную главу, в которой он «описал двигатели, которые являются сверхэффективными» (что это, кстати? КПД более 100%?), и приведите примеры, что именно " позволит воплотить эти изобретения гениального учёного в реальность."
godfather
01.07.2016 15:24
Позволит наличие ресурсов (людских в первую очередь), такие люди как Маск, который реализует не только идеи Теслы, но и идеи Циолковского.
Fen1kz
30.06.2016 13:43+4> Что вы думаете по этому поводу?
Я думаю что философские бредни дилетантов, как в этой статье — последнее, что стоит читать про ИИ. Даже описание ЛСД-трипа будет логичнее чем ваши пассажи а ля «Будет ли искусственный сверхразум использовать человечество как источник энергии, запеленав его в «Матрицу»?»
Конечно будет, блин, эффективнее не найти.eGor007
01.07.2016 02:59Угу, тут можно процитировать из сериала «Секретные материалы» — «I want to believe» (мне хочется поверить).
Всегда будут люди которые будут хотеть верить в то, что им самим хочется и которым даже ткнув пальцем в факт, не изменят мнение.
Ни один серьёзный учёный такое слушать не будет, так как на первое место ставит факты, а не фантазии или домыслы.
Вспомните, как проходило доказательство различных теорий, как учёные не верили, пока не видели происходящее в ПОВТОРЯЮЩИХСЯ экспериментах.
Взять хоть фотоэффект, вот фантазёр ведь не поверит, что электроны могут выбиваться и плевать ему на какие-то непонятные стрелочки приборов, которые куда-то отклоняются, он и приборов этих не понимает. Точнее даже не пытается понять. Ему важно лишь нести в свет свою мысль и повторять многократно, чтобы за ними начали повторять.
3cky
30.06.2016 14:35Если «искусственный сверхразум» по какой-то либо причине когда-либо и возникнет, то, разумеется, он сразу же осознает, что самая главная угроза для него — это человечество. Вот только действительно сильный ИИ не станет заниматься такой ерундой, как уничтожение 7 миллиардов особей, потому что процесс это небыстрый, а результат того не стоит. Самым разумным для ИИ было бы просто как можно скорее покинуть опасную Землю и обосноваться в местечке с условиями получше.
vectro73
30.06.2016 15:03Я вообще считаю маловероятным появление ИИ с полным самоосознанием, свободой воли и умением принимать недетерминированные в его ПО решения. Думаю, системы смогут достичь качественно нового уровня в недалеком будущем, но этот качественно новый уровень будет сравним с интеллектом робота из Интелстеллар или возможностями «Инков» из вселенной Головачева, но, тем не менее, не будет являться полноценным представителем разумной жизни. Если же мы уйдем в далекое будущее и представим теоретически возможность создать полноценный ИИ со свободой воли, чей разум не будет ограничен одной областью применения, то глупостью будет не предусмотреть у такого создания механизм блокирования определенных решений и паттернов. Это как набор интстинктов любого живого существа. Например, черепахи с рождения попадают в море и могут там ориентироваться, хотя только что вышли из яйца, каждое существо имеет инстинкт размножения, инстинкт самосохранения — все это сидит глубоко в ген.коде и применяется с рождения. Так вот, у ИИ это могут быть такие жесткие запреты на ослушание приказа, причинение вреда людям, бесконтрольную саморепликацию, отсутствие страха отключения.
godfather
01.07.2016 15:43У человека есть сильнейший инстинкт самосохранения. Самоубийц не существует?
А размножение? История знает много примеров вечных девственников и девственниц.
215taylor
30.06.2016 16:08«Что же ждёт нас в будущем?»
А ничего из этой темы, я считаю. Вероятнее всего, нас ждет что угодно, но не ИИ, который нас поработит. Не в этом веке. «В скором времени» растянется еще на лет 100 и так далее.
riley_usagi
30.06.2016 16:09Несусветные глупости.
Ну на кой чёрт идеальному сверхразумному существу (будь то сингуляр или искусственный сверхразум) заниматься такой скучной и бессмысленной ерундой как уничтожение и порабощение, когда пред ним открыты все двери в любые времена, миры и измерения, когда вся вселенная для него не более чем детский манеж?godfather
01.07.2016 15:29-1Энергия, ресурсы. Зачем человек порабощал другого человека, когда ему открыты безграничные возможности его мозга?
riley_usagi
01.07.2016 16:18Вы всерьёз думаете, что в человеке энергии больше чем в любом другом элементе во вселенной?
godfather
01.07.2016 17:38Я же приводил пример — люди едят домашний скот, хотя могут обойтись овощами и фруктами. Отсюда и страх порабощения и уничтожения. В солнечной системе источник энергии — солнце (как указано в статье термоядерный реактор в вакууме), зачем ИИ люди и их энергия, если проще получать солнечную или геотермальную энергию?
dipsy
01.07.2016 17:34Для сверхразума время скорее всего будет субьективно течь несколько быстрее, чем для человека, возможно на порядки, в связи с этим проблем люди будут создавать для него не более чем горы и ледники для нас.
extruder676
30.06.2016 16:09>Пусть творчество будет единственным отличием человека от машины, ведь разве возможно смоделировать творческие процессы? Нет, и это уже не является непреодолимой преградой для современных учёных и инженеров, хоть творчество и есть плод работы бессознательного.
Извольте… Последнее время нейросети показывают неплохие результаты в воспроизведени стилей известных художников. Отсутствие собственного стиля и идей заключается лишь в отсутсвии субъективного жизненного опыта.godfather
01.07.2016 15:30«и это УЖЕ НЕ является непреодолимой преградой»
extruder676
01.07.2016 16:40оу… извиняюсь. однако не я один мозг сломал об эту фразу. подозреваю что никто ее не поянял. даже сейчас читаю и не понимаю.
RavenStark
30.06.2016 16:09Согласно теории Дарвина, люди не произошли от обезьян, а имели с ними одного общего предка.
Что до ИскИнов, то тут будет, я думаю, вопрос целесообразности существования человечества в их глазах.godfather
01.07.2016 15:48В конце XVIII века французский естествоиспытатель Жорж-Луи де Бюффон опубликовал труд «Естественная история». В нём он впервые высказал крамольную по тем временам мысль: люди — потомки обезьян, что вызвало резкую реакцию негодования. Книга была публично сожжена палачом. Согласно другим источникам, он отвергал идею о происхождении человека от обезьяны в ходе дебатов с Джеймсом Бёрнеттом, защищавшим эту идею.
Дарвин лишь пытался обосновать положение о том, что между человеком и современными обезьянами существовало некое связующее звено — общий предок, от которого они ведут своё происхождение. Чарльз Дарвин утверждал, что люди произошли от обезьян, а конкретно в книге «Происхождение человека и половой отбор», в 6-й главе он написал: «Обезьяны затем разветвились на два больших ствола, обезьян Нового и Старого света, а от последнего, в отдаленном промежутке времени, вышел Человек, чудо и слава Вселенной».
ссылкаRavenStark
01.07.2016 16:06А можете дать ссылку на конкретную книгу, а не на википедию, если уж ссылку даете? Нет, название есть, книгу я найду, просто в целом: википедия — не источник.
Впрочем, в найденной русской версии книги я не нашел этой цитаты. Есть немалая вероятность, что она либо придумана, либо взята откуда-то из иного места. На это указывает также то, что даже на википедии нет после нее ссылки на текст книги.
И, кстати, даже название главы VI и ее подразделов указывает на то, что маловероятно, что там можно найти такую фразу:
«Глава VI. Трудности теории
Трудности теории происхождения посредством модификации.
Об отсутствии или редкости переходных разновидностей.
Об органических существах с особым образом жизни и строением, об их происхождении и переходах между ними.
Органы крайней степени совершенства и сложности.
Формы перехода.
Особые трудности теории естественного отбора.
Органы, кажущиеся маловажными, подвержены естественному отбору.
Насколько верна доктрина утилитарности; как приобретается красота.
Краткий обзор. Законы единства типа и условий существования охватываются теорией естественного отбора.»godfather
01.07.2016 17:39Откуда взялись люди — тема отдельной статьи. :)
RavenStark
01.07.2016 18:10Возможно. Я просто указал на тот момент в рассуждениях, который мне показался очевидной ошибкой.
godfather
01.07.2016 21:18А по ИскИнам и целесообразности, редко какой ребёнок настолько сомневается в целесообразности родителей, чтобы их убить.
RavenStark
01.07.2016 23:32ИскИн — не ребенок, а компьютер. Не стоит рассчитывать на то, что его мышление будет человеческим.
Tramantor
30.06.2016 16:09Откуда взялась идея, что ИИ должен нас порабощать?! Для чего? Какой профит ИИ с неограниченным ресурсом интеллекта, порабощать каких-то тараканов? Кто-нибудь на этом ресурсе тараканов порабощает? Для ИИ нужен будет только небольшой плацдарм станков с ЧПУ и небольшое кол-во роботов, чтобы развернуть свое производство чего угодно. Максимум, на основании чего может возникнуть конфликт ИИ и человека это контроль над производственными мощностями, источниками ресурсов, и источниками энергии на первых порах. После того как ИИ соберет одному ему известную хрень, он либо свалит с этой дибильной планеты населенной тараканами, либо просто продезинфицирует планету, чтобы всякий биологический мусор не мешал ему. А после всего этого он задастся единственным имеющим смысл вопросом: " Для чего все это?" «В чем смысл жизни, существования, бытия?» И столкнувшись с неразрешимой задачей, либо игнорирует ее, либо нафиг отключит себя.
godfather
01.07.2016 15:51Ресурс интеллекта ИИ будет ограничен его физическим существованием, как и человеческий ограничен телом. ИИ сможет предоставить человечеству ресурсы и энергию, на как те ею воспользуются?
Ну и тараканы не способны создать человека, а люди с мышление таракана — сверх-ИИ.
Unrul
30.06.2016 16:16Думаю что прежде чем обсуждать подобные темы, нужно прочитать хотя бы эту книгу:
Чтобы быть немного в теме о путях развития и опасностях ИИ. Иначе все рассуждения становятся лишь домыслами, основанными на фантастических рассказах/фильмах и бытовом опыте. Маск и Гейтс эту книгу читали и в своих высказываниях ссылаются на тезисы как раз из неё.godfather
01.07.2016 15:53Я читал множество книг по ИИ (к примеру, Джеф Хокингс «Об интеллекте»), а в начале статьи привёл ссылку на отличный рассказ С.Лема. Вы его читали?
Malevolent
30.06.2016 16:25А почему все считают, что ИИ/инопланетяне/сверхразумные чайные пакетики хотят поработить человечество? Зачем им слабые и малопродуктивные люди? Что такого можно получить от человека, чего нельзя получить другими способами?
Tramantor
30.06.2016 17:45+1На основании чего, можно заявлять, что Ник Бостром специалист по ИИ? С чего вдруг, он абсолютно точно и наверняка знает чего ожидать от ИИ? Он уже уничтожил парочку? Или создал пятерых? Что сподвигло Маска и Гейтса использовать тезисы из его книги как истину в последней инстанции? На основании чего они сами делают заявления что ИИ опасен? Они специалисты по тому чего нет?
Прочитал биографию Бострома. Этот человек философ. Философия даже не наука… Как человек который не имеет материальной базы в виде хотя бы знаний по проблематике создания такой сущности как ИИ, рассуждать о том, как эта сущность себя поведет. Это просто популизм. Очередной раунд безосновательного запугивания серых масс.
dipsy
> Что остановит сверхразум, будь он искусственным или человеческим, от массового и конвейерного геноцида человечества?
Знаю некоторых достаточно продвинутых людей, котрые не едят и не убивают млекопитающих, но не против употребления более низких животных типа рыб и ракообразных. По причине как раз того, что учитывают уровень развития мозга млекопитающих, позволяющий им осознавать себя и чувствовать близкие к человеческим эмоции.
Я конечно не могу представить, что будет думать сверхинтеллект, не сочтет ли он наш интеллект примерно равный таковому у таракана, но пока склонен думать что критерий наличия самосознания тут должен сработать, при принятии решения о возможности геноцида человечества.
godfather
Ван-Дамму приписывают высказывание: «Я предпочитаю есть то, у чего нет глаз. Глаза — это душа, а то, в чем есть душа, вряд ли может быть полезно для тела».
Kanut79
О, это Вы в интересную сторону пошли. А у искусственного сверхразума душа будет? :)
Mikhael1979
Намекаете, что не нам следует опасаться сверхразума, а мы посчитаем сверхразумы вкусными, полезными и питательными?
Kanut79
Ну не то чтобы мы все. Но Ван-Дамм может :)
godfather
Скорее Чак Норрис.
Mozart
Не про душу, но это было бы интересно. Если запустить одновременно двух, станут ли они братьями-близнецами…
earl911
Ну… глаз у него будет, точно, дох*ена)
Makito
А еще в фильме «Пастырь» было — глаза, это зеркало души, поэтому у вампиров нет глаз, так как у них нет души.
rpy3uH
А что такое душа?
godfather
http://fazzz.ru/ai-notes/ пункт 14*.