Термин «искусственный интеллект» появился всего около 60 лет назад, и сейчас это уже не просто термин. На данный момент есть много экспертов по ИИ, которые пытаются понять, каким будет будущее этой технологии. Один из основных вопросов для обсуждения — технологическая сингулярность, момент, когда машины достигнут уровня разумности, превосходящего уровень разумности человека.
И хотя сингулярность до сих пор является темой многих научно-фантастических произведений, возможность ее наступления выглядит все более реальным. Корпорации и стартапы активно занимаются искусственным интеллектом, в их число входит Google, IBM и другие. Результаты этой работы есть. Например, создан робот, который выглядит как человек и может поддерживать разговор, считывать эмоции — или хотя бы пытаться это делать — а также выполнять разные типы задач.
Наверное, самым уверенным экспертом среди всех сторонников точки зрения неотвратимости наступления сингулярности является Рей Курцвейл, технический директор корпорации Google. Он считает, что роботы станут умнее людей где-то году в 2045.
Руководитель СЕО SoftBank Масаёси Сон, сам по себе известный футурист, убежден, что сингулярность наступит уже в этом столетии, примерно в 2047 году. Бизнесмен всеми силами старается ускорить наступление сингулярности, создавая собственные проекты и покупая чужие. Так, SoftBank относительно недавно выкупил стартап Boston Dynamics у Google. Также компания вкладывает миллиарды долларов в технологическое венчурное инвестирование.
Далеко не все разделяют оптимизм приверженцев ускорения процесса сингулярности, считая сильную форму ИИ опасной.
Среди тех, кто опасается разумных машин — Илон Маск, Стивен Хокинг и другие ученые и бизнесмены. Они утверждают, что появление сильной формы ИИ станет началом конца человеческой цивилизации. Вот мнения некоторых экспертов.
Луис Розенберг, СЕО Unanimous AI
«По моему мнению, которое я высказывал на TED этим летом, искусственный интеллект станет разумным и опередит человека в развитии, как раз это люди называют сингулярностью. Почему я так уверен, что это случится? Это просто. Мать-природа уже доказала, что разум может появиться в результате появления массивного числа однородных вычислительных элементов (т.е. нейронов) из которых формируются адаптивные сети (то есть, мозг).
В начале 90-х я размышлял над этим вопросом, и мне казалось, что ИИ превысит возможности человека в 2050 году. Сейчас я верю, что это случится быстрее, вероятно, уже в 2030.
Я считаю, что создание искусственного интеллекта на Земле ничуть не опаснее чужого ИИ, пришедшего с иной планеты. В любом случае, у этого ИИ будут собственные ценности, мораль, чувства и интересы.
Полагать, что интересы ИИ будут совпадать с нашими абсурдно наивны, а для того, чтобы понять, каков может быть эффект от конфликта интересов, стоит подумать, что человек сделал с природой и живыми существами на Земле.
Таким образом, нам необходимо подготовиться к неизбежном появлению рразумного ИИ. У этого такая же степень вероятностти, как и у прибытия корабля с иной солнечной системы. Все это — угроза существованию нашего собственного вида.
Что можно сделать? Я не считаю, что мы сможем задержать сознающий себя ИИ. Мы, люди, просто неспособны совладать с опасными технологиями. Это не потому, что у нас нет благих намерений. Просто мы редко понимаем потенциальную угрозу наших собственных изобретений. Когда начинаем созавать, уже обычно слишком поздно.
Означает ли это, что мы обречены? В течение продолжительного времени я думал, что это действительно так и написал два романа о неизбежном уничтожении человека. Но сейчас я считаю, что человечество выживет, если мы станем умнее, гораздо умнее, и сможем опережать машины.
Пьерр Барро, СЕО в Aiva Technologies
Я считаю, что существует сильное заблуждение в отношении того, насколько быстро появится „супер разум“, связанное с уверенностью что экспоненциальный рост производительности (технологий) нужно принять, как данность.
Во первых, на аппаратном уровне мы уже практически достигли предела, установленного законом Мура. В то же время, нет никакой уверенности в том, что современные технологии, вроде квантовых вычислений, могут использоваться для продолжения роста эффективности компьютерных систем, причем теми же темпами, что мы видели до сих пор.
Во-вторых, что касается программного уровня, нам еще нужно пройти длинный путь. Большинство ИИ-систем нуждается в многократных циклах обучения для того, чтобы получить возможность выполнять ту либо иную операцию. Мы, люди, гораздо более эффективны в плане обучения, нам нужно всего лишь несколько примеров и повторений.
Сфера применения ИИ очень узкая. Так, подобные системы фокусируются на решении специфических проблем, вроде распознавании фотографий котов и собак, машин, составления музыкальных композиций. Но пока еще нет систем, которые могут одновременно выполнять все это вместе.
И это если не говорить о том, что мы не должны быть слишком уж оптимистичны в отношении развития ИИ. Мне кажется, что в этой теме слишком много хайпа, но вскоре все наши иллюзии могут рассеяться, иллюзии в понимании того, что может и чего не может делать ИИ.
Если это случится, тогда может наступить новая „ИИ зима“, что приведет к нижению уровня финансирования разработок искусственного интеллекта. Это, вероятно, худшее, что может случиться в этой сфере, и нужно сделать все, чтобы предотвратить возможность реализации такого сценария.
Но когда наступит сингулярность? Я думаю, это зависит от того, что понимать под этим термином. Если мы говорим о прохождеении ИИ теста Тьюринга и повышении уровня разумности искусственной системы до уровня человека, то это случится где-то году в 2050. Это вовсе не означет, что ИИ обязательно будет умнее нас.
Если же мы говорим об ИИ, который превосходит человека абсолютно во всем, то здесь нужно сначала понять, как работает наш собственный разум. И только потом уже можно задуматься о создании чего-либо, что превохсодит нас. Мозг человека до сих пор остается сложнейшей проблемой, решить которую пока не могут лучшие из лучших. Мозг человека определенно сложнее, чем самые сложные нейросети или комплексы нейросетей.
Раджа Чатила, глава Института разумных систем и робототехники (ISIR) при университете Пьера и Марии Кюри.
Концепт технологической сингулярности не имеет под собой ни технологической, ни научной основы.
Основной аргумент — так называемый „закон ускорения развития“, который создан стараниями пророков технологической сигнулярности, включая, главным образом, Рея Курцвела. Этот закон вроде бы проистекает из закона Мура, который, как мы знаем, не является научным законом — это эмпирический вывод, который основан на результатах развития электронной индустрии.
Мы все знаем ограничения закона Мура — время, когда мы достигнем квантовых технологий например — и то, что эта архитектура может все изменить. Это важно для понимания того, что закон Мура не является на 100% законом.
Но сторонники сингулярности пытаются провести параллель с эволюцией видов и технологий без особого на то основания. Они считают, что постоянное повышение мощности компьютеров дадут в конце концов искусственный интеллект, который превзойдет человеческий разум. В частности, они предполагают, что это случится в промежутке между 2040 и 2050 годами.
Но обычные вычислительные устройства — это вовсе не разум. У нас около 100 миллиардов нейронов в мозге. Не только их количество, но прежде всего, их структура и принцип взаимодействия дает нам возможность думать и действовать.
Все, что мы можем делать — создавать определенного рода алгоритмы для достижения определенных целей и решения задач (называя это интеллектом). На самом деле, все эти системы очень ограничены в своих возможностях.
Мой вывод — сингулярность — это вера, но не наука.
Гидеон Шмуэль, СЕО eyeSight Technologies
Пытаясь понять, как сделать машины самообучающимися, в широком смысле, мы потратим много времени. Вызов в том, что как только подобные системы будут созданы, они смогут обучаться чрезвычайно быстро, экспоненциально. И за считанные часы или даже минуты они смогут превзойти человека.
Я бы хотел сказать, что технологии не плохие и не хорошие, это лишь инструмент. Еще я хотел бы сказать, что этот инструмент становится плохим или хорошим только в руках, которые его держать. Что касается сингулярности, то люди, пользователи, здесь ни при чем, все это касается лишь машин. Они могут вырваться из наших рук, и единственное, что можно сказать с уверенностью — то, что мы не сможем предсказать последствия.
Большое количество научно-фантастических книг и фильмов показывают нам супер-разумные машины, то, как они уничтожают человечество, или всех закрывают, или выполняют еще какие-то действия, которые ни вам ни мне не нравится.
То, что нужно в реальности сделать — подумать над способами развития ИИ-технологий. Например, если взять машинное зрение, то риск относительно мал. Если система сможет понимать значение вещей и распознавать объекты — ничего плохого не случится.
В наших собственных интересах получить машины, которые могут самообучаться для того, чтобы понимать, что происходит. Риск здесь в промежуточном слое, который воспринимает данные и переводит внешние факторы в какие-либо действия.
Эти действия могут быть очень быстрыми, иметь отношение к обычной реальности (автомобили с ИИ, например) или же виртуальной реальности (обработка информации, контроль ресурсов, идентификация и т.п.).
Должны ли мы этого бояться, в особенности, последнего? Лично я опасаюсь, да.
Патрик Уинстон, профессор информационных технологий, специалист по ИИ.
Меня уже несколько раз спрашивали о том, что я думаю по этому поводу. Люди считают, что ИИ человеческого уровня появится через 20 лет последние 50 лет (то есть каждое поколение ждет скорого появления ИИ). Мой ответ — ничего страшного, и в конце концов это может быть правдой.
На мой взгляд, создание ИИ не имеет ничего общего с, например, отправкой человека на Луну. У нас уже есть все технологии для Луны, но нет почти ничего для создания ИИ. Требуется больше технологических прорывов для этого, и сейчас сложно думать об этом с точки зрения каких-либо временных рамок.
Конечно, все зависит от того, насколько много ученых будет работать над проблемой создания ИИ. Сейчас огромное число специалистов вовлечено в машинное обучение и глубокое обучение. Возможно, некоторые из этих специалистов поймут, как работает разум человека.
Когда мы получим машинный эквивалент прорыва Уотсона-Крика? Я думаю, лет через 20, в конце концов я верю, что это случится.
Комментарии (22)
nehrung
05.02.2018 23:50Не понимаю, почему даже те, кто в теме, не видят очевидного… Момент наступления сингулярности задастся не концом закона Мура, и не каким-то определённым количеством «нейронов на кристалле», а просто ИИ своё дальнейшее собственное совершенствование возьмёт в свои (условно говоря) «руки».
С этого момента от людей перестанет что-либо зависеть.
И подходы к этому есть — здесь же, на Гиктаймсе, писали о случаях, когда удавалось запустить самосовершенствование ИИ. Вроде бы к ним относился среди прочего и компьютер — победитель в Го.
Ну, конечно, «ещё не вечер», время людям пожить царями природы ещё есть, но не такое большое — думаю, это будет скорее 2030 год, чем 2050.Turbojihad
06.02.2018 00:19Люди по идее тоже должны себя развивать с помощью биотехнологий.
А через некоторое время после наступления сингулярности человечеству станет скучно без развивающегося прогресса, и оно перенесется в виртуальную реальность, в которой будет с копьями бегать за мамонтами.
Krapiv
06.02.2018 05:54А вот тут волосы зашевелились.
До этого я полагал, что в ИИ нет опасности, если не давать ему власть и средства производства. Но ведь он сможет сфальсифицировать собственные выборы.nehrung
06.02.2018 12:06А ему невозможно будет «не давать власть». Гляньте в прошлое — хоть одно тотальное «запрещалово» было вечным? Или достаточно продолжительное — было тотальным? Вода дырочку найдёт…
А во-вторых, сами люди. Даже если практически всё человечество станет на сторону запрета развития IT (что само по себе маловероятно), всё равно найдутся те, кто передаст управление по ту сторону баррикад. Хотя бы в малой доле — а тут много и не надо, дальше покатится само.
tSmoker
06.02.2018 10:44Ну, компьютер, который в Го играл, просто сам с собой играл в качестве тренировки. Это не то.
… вот если бы он делал вид, что в Го сам собой играет, а сам в WoW втихаря гонял, тогда да.
Tyusha
06.02.2018 11:37Думаю, реализуется промежуточный вариант: не сверхразумные роботы, и отсталые, выпавшие из стремительно развивающейся цивилизации люди, а их симбиоз — киборги — люди со сверхвозможностями. Т.е. мы сами усовершенствуем себя. Это выглядит уже не так страшно. Правда, есть вероятность расслоения общества на апгрейднутых и нет.
Osel_Ia
06.02.2018 14:25Для ИИ человечество будет — субстратом, источником ресурсов для развития. Не уверен, что дрожжевые бактерии, олени, деревья и пшеница согласны с нашим стилем сотрудничества. Так что… п… ц вам, мясные мешки.
Zava
06.02.2018 16:20Когда мы говорим о сингулярности черной дыры мы подразумеваем горизонт событий, заглянуть за который не можем. Все, что там за ним — нам не понятно. Однако понятно, что если бы человек мог пересечь его, он бы не заметил пересечения горизонта и продолжал бы свое движение в глубь (к поверхности?) ЧД, понимая что оказался за горизонтом лишь по косвенным признакам и приборам.
Я думаю с технологической сингулярностью будет такая же картина. Перед тем как она свершится нас ждет технологический горизонт событий — некая точка за которой невозможно предсказание того, что же там дальше. Но стоит шагнуть за этот горизонт и окажется, что в общем ничего не изменилось в восприятии мира, ничто тут же не поменялось и не изменилось, но пути назад нет, как его нет в любой момент жизни. И, что оказывается вы все еще представляете, что можете двигаться дальше и видеть на несколько шагов вперед, а все знания о прошлом были не полны и сейчас вы стали видеть и понимать чуть больше чем раньше. При этом продолжая ходить на работу, в школу, в кафе и кино и жить своей обычной жизнью.
В масштабах миллионов лет развития жизни на земле технологический горизонт событий мы проходили многократно. Каждый раз когда вам кажется, что почти все уже открыто и почти все объяснено, знайте — вы стоите на краю горизонта событий. Шаг, порою дающийся очень тяжело, — и у вас в руках новое знание, которое не отменяет предыдущих, но переворачивает представление (но не восприятие) о мире и вселенной, знание дающее возможность продолжать познавать мир.
Когда появится ИИ, появятся и новые проблемы, которые мы сможем решать только с помощью ИИ, появится и естественные ограничения на его саморазвитие и точно так же мы раз в год будем обновлять какое-то устройство, которое сейчас не можем даже вообразить. И будем сидеть и думать, что же там за очередной сингулярностью.Ku6ep
06.02.2018 17:17Вроде как доказали теоретическую возможность путешествий во времени, так что не факт, что пути назад не будет ;) Надо спросить Сару Конор :)))
Ku6ep
06.02.2018 17:13Мне видится прорыв именно в области симбиоза человека и компьютера. Как быстро — не берусь судить, но может все произойти и в ближайшие 10-20 лет. Нейроинтерфейсы, продвижение в изучении мозга, наноботы и развитие бионических протезов как бы намекают. Пока что никто не пробовал прикрутить возможности нейросетей к возможностям нашего мозга, хотя думаю какие-то исследования в этом направлении ведуться.
SvSh123
08.02.2018 10:14Сами придумали, сами испугались…
Воткогдаесли появится ИИ, способный без перенастройки решать различные задачи — тогда и будем беспокоиться. А ни AlphaGo, ни IBM Watson я не боюсь. :)
agat000
И почему все всязывают сингулярность с ИИ? Она может быть в разных проявлениях, в разных сферах.
Прочитал недавно в одной книге (НФ) такую мысль, что информационная сингулярность для человека наступит тогда, когда объем важной для жизни информации превысит способности мозга к ее обработке. Это не считая котиков в соцсетях и мировых новостей.
anti4ek
Дело больше в сложности информации. Уже сейчас существуют математические теоремы, которые способны понять всего несколько человек в мире.
И не за горами, когда сложность информации в прикладных науках превысит биологические возможности человеческого мозга.
vassabi
с ИИ связывают потому, что он сможет усложнять себя сам. А в других сферах — все ждет, когда там усложняют люди…
Turbojihad
Эм… И что тогда случится? Мозг человека резко эволюционировать начнет?
И как определяется «важность» информации для жизни?
napa3um
Так уже давно для очень большого количества людей. Только это ведёт таких людей не к сингулярности, а к доместикации.
NeoCode
Это конечно же не сингулярность, а фигня полная (а автор НФ небось гуманитарий). Ибо давно уже так.
Классическое понятие сигнулярности вполне всех устраивает. Оно может быть связано не с ИИ, но с информационными системами — обязательно, а ИИ это частный случай, причем наиболее вероятный — потому что мы сами его целенаправленно разрабатываем. Другие варианты — такие как спонтанная самоорганизация Интернета в сверхразумное существо — чистая фантастика, а вариант слияния разумов людей на биологическом уровне слишком сложен в реализации и никакого движения в этом направлении практически нет. Поэтому — да, скорее всего ИИ.
roboter
с прогрессом важная для жизни информация наоборот упрощается.
Мы не понимаем как технология работает, нам это и не надо, интерфейсы упрощаются.
mad_god
Вариантов несколько. Иметь большой штат специалистов, которые будут вести исследования в разных направлениях или самосовершенствующийся мыслящий кластер, который будет покрывать белые пятна в науке с необычайной скоростью, которая будет увеличиваться по экспоненте. Заранее неизвестно то направление или открытие, которое даст толчок ещё более значимым открытиям, как, например, лазеры или сотовая связь в своё время.
Но именно ускорение быстродействия, эффективности вычислительных машин, возможно, позволит обогнать других людей в развитии науки и техники.