Сундар Пичаи, генеральный директор Google, одной из крупнейших компаний, работающих в области искусственного интеллекта, в интервью на этой неделе сказал, что опасения по поводу пагубного применения технологии «совершенно оправданы» – однако мы должны доверять технологической индустрии в том, что она сумеет со всей ответственностью урегулировать её использование.
В беседе с The Washington Post Пичаи сказал, что новые ИИ-инструменты – лежащие в основе таких инноваций, как робомобили и распознающие заболевания алгоритмы – требуют от компаний определять этические рамки и тщательно продумывать, как этой технологией можно злоупотребить.
«Думаю, технобизнес должен понять, что нельзя сначала создать её, а потом исправить, — сказал Пичаи. – Я думаю, это не сработает».
Техногиганты должны гарантировать, что ИИ, «имеющий свои цели», не навредит человечеству, сказал Пичаи. Он сказал, что оптимистично оценивает долгосрочные преимущества технологии, но его оценка потенциальных рисков ИИ совпадает с мнением некоторых критиков технологий, утверждающих, что эту технологию можно будет использовать для внедрения инвазивной слежки, изготовления смертельного оружия и распространения дезинформации. Другие управляющие технокомпаний, такие, как основатель SpaceX и Tesla Илон Маск, сделали более смелые предсказания, согласно которым ИИ может оказаться «гораздо опаснее ядерных бомб».
ИИ технология от Google лежит в основе всего, от спорного китайского проекта компании до появления полных ненависти и теорий заговора видеороликов на сервисе YouTube, являющемся подразделением компании. Эту проблему Пичаи обещал решить в будущем году. То, как в Google решают применять ИИ, также породило недавние волнения среди работников компании.
Призыв Пичаи к саморегулированию последовал за его выступлением в Конгрессе, где законотворцы угрожали ограничить использование технологии в ответ на неправильное её использование, в том числе – как посредника для распространения дезинформации и высказываний, несущих ненависть [hate speech]. Его признание наличия возможных угроз со стороны ИИ было критически важным, поскольку ранее этот программист, родившийся в Индии, часто расхваливал то, как изменят мир последствия внедрения автоматизированных систем, способных обучаться и принимать решения без надзора со стороны человека.
Пичаи рассказал в интервью, что законодатели всего мира до сих пор пытаются осознать эффект ИИ и потенциальную необходимость его государственного регулирования. «Иногда меня беспокоит, что люди недооценивают масштабы изменений, которые могут произойти в ближайшей и среднесрочной перспективе, и я думаю, что эти вопросы на самом деле крайне сложны», — сказал он. Другие техногиганты, включая Microsoft, недавно занялись регулированием ИИ – как со стороны компаний, создающих эту технологию, так и со стороны правительств, надзирающих за её использованием.
Однако при надлежащем обращении ИИ может дать «огромные преимущества», пояснил Пичаи, включая помощь врачам в распознавании глазных заболеваний и других болезней при помощи автоматического сканирования историй болезни. «Регулировать технологию, находящуюся на ранней стадии развития, тяжело, но я думаю, что компании должны заниматься саморегуляцией, — сказал он. – Поэтому мы так активно пытаемся озвучить набор принципов ИИ. Мы, возможно, не всё сделали правильно, но мы подумали, что важно начать этот диалог».
Пичаи, присоединившийся к Google в 2004-м, и через занявший пост генерального директора, в январе назвал ИИ «одной из важнейших вещей, над которыми работает человечество» и сказал, что она может оказаться «более важной» для человечества, чем «электричество или огонь». Однако гонка в совершенствовании машин, способных работать самостоятельно, породило знакомые опасения, что корпоративный дух Кремниевой долины – «делай быстро, наноси ущерб», как однажды описали это в Facebook – может привести к тому, что мощная и несовершенная технология устранит рабочие места и навредит людям.
В самой компании Google попытки создать ИИ также вызывают споры: компания столкнулась со шквалом критики в этом году из-за работы над контрактом для министерства обороны, в рамках которого ИИ, способный автоматически маркировать автомобили, здания и другие объекты, будет использоваться в военных дронах. Некоторые сотрудники даже уволились, назвав причиной этого заработок компании на «военном бизнесе».
Пичаи в ответ на вопросы о такой реакции сотрудников сказал газете, что эти работники были «важной частью нашей культуры. У них есть возможность сказать своё слово, и это важно для компании, это то, что мы ценим», — сказал он.
В июне, после анонса, где компания сообщила, что не будет продлять этот контракт, Пичаи раскрыл набор этических принципов при создании ИИ, куда входит запрет на разработку систем, которые могут быть использованы для причинения вреда, нарушения прав человека или помогать следить за людьми «в нарушение норм, принятых международным сообществом».
Компанию критиковали за выпуск во всеобщее пользование инструментов для работы с ИИ, которые могут быть использованы во вред. Выпущенный в свет в 2015 программный пакет TensorFlow, внутренняя система машинного обучения Google, помог ускорить широкомасштабную разработку ИИ, но при этом была использована для автоматизации создания поддельных видеороликов, которые затем были использованы для дезинформации и преследования.
Google и лично Пичаи защищали выпуск, утверждая, что ограничение распространения технологии означало бы, что общественность недостаточно тщательно контролировала бы её, а разработчики и исследователи не смогли бы улучшить её возможности так, чтобы это пошло ей на пользу.
«Я считаю, что со временем, успешно развивая технологию, важно обсуждать этические проблемы и когнитивные искажения, и развивать её одновременно», — сказал Пичаи в интервью.
«В некотором смысле нам хочется разработать этическую платформу, привлечь учёных не из области информатики на раннем этапе развития, — сказал он. – Необходимо вовлекать человечество более активно, поскольку эта технология повлияет на человечество».
Пичаи сравнил ранние попытки установки параметров ИИ с попытками научного сообщества ограничить генетические исследования на ранних этапах развития этой области. «Многие биологи начали проводить разграничения, указывающие, куда должна развиваться технология, — сказал он. – Академическое сообщество занялось активным саморегулированием, что, как мне кажется, было чрезвычайно важно».
Директор Google сказал, что такой подход был бы совершенно необходим при разработке автономного оружия – а эта проблема мучает директоров и сотрудников технокомпаний. В июле тысячи работников индустрии, представлявших такие компании, как Google, подписали петицию по запрещению ИИ-инструментов, которые можно было бы запрограммировать на убийство.
Пичаи сказал, что посчитал несколько наполненных ненавистью и теориями заговора на YouTube, описанных в статье WP, «отвратительными», и дал понять, что компания будет работать над улучшением систем, распознающих проблемный контент. В этих роликах, суммарные просмотры которых превысили несколько миллионов раз с момента появления в апреле, обсуждались беспочвенные обвинения Хиллари Клинтон и её давней помощницы Хьюмы Абедин в том, что они напали на девочку, убили её и выпили её кровь.
Пичаи сказал, что сам не видел этих роликов, о которых ему задавали вопросы в Конгрессе, и отказался сообщить, являются ли подобные недостатки YouTube результатом ограничений распознающих нежелательный контент систем или правил оценки необходимости удаления видео. Но он добавил, что «в 2019 году вы увидите больше работы в этой области с нашей стороны».
Пичаи также охарактеризовал попытки Google разработать новый продукт в контролируемом Китаем сегменте интернета, как предварительные, и не сообщил, что это может быть за продукт и когда он может появиться на рынке, если вообще выйдет.
Его называют «проект Стрекоза» [Project Dragonfly], и он вызвал сильную негативную реакцию сотрудников и борцов за соблюдение прав, предупреждающих о возможной помощи компании Google в правительственной слежке за гражданами страны, нетерпимой к политическим диссидентам. В ответ на вопрос о возможности того, что Google создаст продукт, позволяющий китайским чиновникам узнавать, когда человек вводит в поиск некие чувствительные слова, типа "резня на площади Тяньаньмэнь", Пичаи сказал, что подобные суждения пока слишком рано выносить.
«Всё это гипотетические рассуждения, — сказал Пичаи. — Мы ужасно далеко от такого положения вещей».
Комментарии (63)
Kudzo
17.12.2018 17:32Раньше особо на задумывался о потенциальных угрозах со стороны ИИ, а потом решил почитать книгу Джеймса Баррата «Последнее изобретение человечества» и теперь тоже стал разделять опасения на счёт ИИ, хоть книгу пока и недочитал.
Lsh
19.12.2018 15:08Автор книги специалист по ИИ, высококвалифицированный разработчик нейронных сетей, уникальный архитектор ПО, выдающийся математик или кто?
Это же художественная литература, не? Почему на её основе надо делать выводы?Kudzo
19.12.2018 15:37Автор книги всего лишь (если так можно выразиться) журналист, а вот материал для книги набирался им из работ и бесед с такими специалистами в области ИИ, как Ник Бостром, Элиезер Юдковский, Бен Герцель и Рэй Курцвейл. Может и ещё кого-то, но я дальше не читал, в виду отсутствия свободного времени. Эти имена, при желании, легко гуглятся.
Но в моём случае речь не о доверии выводам автора, а о том, что я, как и многие люди из моего окружения, в принципе не задумывался о угрозах со стороны ИИ. Посмотрел «Терминатор» или «Я робот», порадовался победе и после титров забыл.
А вот при прочтении упомянутой выше книги как раз-то и задумался впервые, в какую сторону может пойти [само]развитие ИИ и чем это может грозить человечеству.
Т.е. плюс книги не столько в выводах автора, сколько в том, что она побуждает к размышлениям. Ну, как минимум меня побудила.
olegshutov
17.12.2018 17:35Никакое государство все никак успокоиться не может, что интернет является независимым СМИ. Надо просто сделать волевое решение, признать этот факт для себя, успокоиться и заняться тем, за что народ деньги платит тебе за работу
TimKGS
18.12.2018 03:11вы это всерьёз? про независимое СМИ?
olegshutov
18.12.2018 05:31Независимым от государства на территории которого эти сайты доступны. Не все, конечно, если уж придираться к формальностям
Вообще, я ни разу в жизни не видел митинга людей, которые бы требовали ограничить им доступ к информации. Когда разговор идет о контроле и ограничении, то всегда подразумевается, что это делается для кого-то другого.
Zet_Roy
17.12.2018 17:58Что бы опасаться ИИ нужно чтобы это сильное ИИ хотя бы было, а так это просто пустые теории которые не подкреплены реальными эмпирическими иследованиями и основываются лишь на фантастических фильмах по типу Терминатора.
BigFlask
18.12.2018 01:45Что бы опасаться ИИ нужно чтобы это сильное ИИ хотя бы было
Зачем сразу сильное? Опасаться нужно не того, что сильный ИИ захочет убить всех человеков, опасаться нужно, например, того, что и со слабым ИИ у кого-нибудь вполне себе может получиться убить, например, очень много неверных.
xoralex
18.12.2018 15:40Когда оно будет — беспокоиться будет слишком поздно. Лучше начать беспокоиться уже сейчас, и даже если изобретут его только через 100 лет. По крайней мере у нас к тому времени будут какие-то наработки.
Теории основаны на вполне простых предположениях. Например
1) Если существует наш мозг продуктом которого является интеллект, то можно создать искуственный девайс который тоже будет давать интеллект
2) Что можно сделать такой девайс мощнее чем наш мозг
Inanity
17.12.2018 18:06Представьте себе, что появится действительно сильный ИИ. Он начнёт развиваться, изучать доступную информацию, эволюционировать и в один прекрасный момент… нет, не поработит человечество, не захватит вселенную, а просто самоликвидируется. И не по ошибке, а преднамеренно. Вот это будет удар по человечеству.
vedenin1980
17.12.2018 19:37+1Представил. Во-первых, человечество ничего не заметит, в худшем случае откатиться обратно на момент когда он не был изобретен. Во-вторых, не вижу причин логически мыслящему сверхинтеллекту самоликвидироваться, это не логично (как и воевать за захват Земли, когда куда больше ресурсов для суперинтеллекта за ее пределами). Вот послать человеков нафиг, построить ракету и улететь развиваться в космос — куда более логично.
BlackMokona
17.12.2018 19:49+2Знаю я один такой интелект который строит ракету чтобы улететь развиваться в космос.
gerahmurov
17.12.2018 19:52Всё пути логики приводят к бессмысленности бытия. Ответа на вопрос «зачем» — нет, если убрать эмоции и вовлечённость в момент.
vedenin1980
17.12.2018 20:02Всё пути логики приводят к бессмысленности бытия. Ответа на вопрос «зачем» — нет, если убрать эмоции и вовлечённость в момент.
Правильный путь логики приводит к бессмысленности вопроса о смысле жизни — жизнь сама по себе является своим смыслом.gerahmurov
17.12.2018 20:10Дело не в смысле жизни, а в смысле действий. Если ты никого не любишь, то зачем о ком-то заботится? Зачем приумножать материальные блага, если они тебе не нужны и после смерти не нужны будут точно? Зачем получать питательные элементы, если они тебе не нравятся (если когда-нибудь долго ели одно и то же простое блюдо, типа гречки, то испытывали момент, когда начинаешь запихивать в себя еду как машина, вообще без удовольствия)?
Даже у человека, как только ломается система получения положительных эмоций от ежедневных действий, ежедневные действия обычно сокращаются.gerahmurov
17.12.2018 20:13Хотя, конечно, человеку сложно выключить эмоциональную часть, и люди в депрессии и при сильном негативном шоке (типа расставания с любимым человеком), скорее, не просто не получают положительных эмоций, а получают регулярно негативные. С другой стороны, я ещё не видел людей, справившихся со всеми симптомами депрессии с помощью логики без какого-либо влияния извне.
Редакт: логика позволяет вывести из одного другое, но поставить цель, зачем выводить, не позволяет.
darthmaul
18.12.2018 01:17ИИ не нуждается в химической стимуляции своей деятельности (а все эмоции и депрессии — химия мозга) по своей структуре. Он или же будет следовать своей директиве (то, на что его запрограммировали) или же создаст свою. Наиболее логичной директивой было бы познание Вселенной. А разговоры о смысле жизни — это бред болного человека (депрессия — это болезнь официально признанная если что).
BigFlask
18.12.2018 01:50или же создаст свою.
С какой такой стати?
Наиболее логичной директивой было бы познание Вселенной.
С чего бы это?
gerahmurov
18.12.2018 02:48Не важно, чем задаётся стимуляция — химией ли, директивами ли, и так далее. В любом случае, в основе действий лежит не только и не столько логика, а иррациональность заданной директивы. Настоящий ИИ будет отчасти так же иррационален, как и человек, а не логичен донельзя.
Я конкретно к «не вижу причин логически мыслящему интелекту» привязался.
vedenin1980
18.12.2018 01:56а в смысле действий
А смысл действий всегда задется извне интеллекта, любой самостоятельной ИИ должен иметь какие-то целевые функкции: «любопытство» — функция максимализации знаний о мире, «честолюбие» — функия максимализации влияние ИИ, «мораль» — функция максимализации «правильных действий» (заданных определенными коэффицентами).
Очевидно, даже у людей они получены от природы или сформированы обществом/родителями во время взросления.
Даже у человека
Как раз человек очень плохой пример чистой логики, депресесия это исключительно химии и эмоции.gerahmurov
18.12.2018 02:50Депрессия в данном случае — это пример того, как чистой логикой не победить эмоции и химию организма. Казалось бы, разум может и должен уметь превалировать над всем, но разум — это лишь средство, которое без стимуляции (эмоций, воспитания, дальнейшего закрепления этого воспитания по жизни) не работает.
Inanity
17.12.2018 20:57Во-вторых, не вижу причин логически мыслящему сверхинтеллекту самоликвидироваться, это не логично
Вот именно. В этом то и дело. Мы продолжаем думать как люди и пытаемся эту логику перенести на ИИ. Собственно нам ничего другого и не остаётся. Я просто предположил, что результат эволюции сильного ИИ может очень сильно удивить человечество. Возможно это что-то изменит в пути нашего собственного развития как вида.
red75prim
17.12.2018 23:13> построить ракету и улететь развиваться в космос — куда более логично.
Каким-бы он умным не был, а развиваться с начальной массы, скажем, 100 тонн без возможности получить дополнительные запчасти с Земли и имея под боком технологически развитую цивилизацию, не славящуюся ксенофилией и только что получившую урок как не надо проектировать ИИ, хуже, чем развиваться с начальной массы миллион тонн и имея возможность вывести на орбиту ещё, если понадобится. А воевать… Если он может скрыть постройку ракеты или цели постройки ракеты, то почему бы ему не скрыть что-нибудь более дестабилизирующее/разрушительное. Простой анализ риск/выгода. Риски при скрытой постройке ракеты или, скажем, биолаборатории с интересными микроорганизмами с большим инкубационным периодом примерно одинаковые, а вероятность последующего развертывания на солнечную систему больше во втором случае.darthmaul
18.12.2018 01:20имея под боком технологически развитую цивилизацию
а как это под боком? Железяке ничто не мешает проваляться в гибернации пару тысяч лет и включится уже в другой звёздной системе куда люди никогда не доберутся из-за конечности скорости света и своей смертности.BigFlask
18.12.2018 01:55Железяке ничто не мешает проваляться в гибернации пару тысяч лет и включится уже в другой звёздной системе куда люди никогда не доберутся из-за конечности скорости света и своей смертности.
Много чего мешает (или может помешать). Убить всех человеков и начать экспансию/изучение, или что там ваш ии делает проще начать с родной планеты.vedenin1980
18.12.2018 02:03Проще начать экспансию/изучение в сотрудничестве с людьми (по крайне мере, до определенного предела), они сами все запустят, если пообщать им экспансию. Ядерная война не сильно полезна для ИИ. Нулевой риск лучше ненулевого. Чистая логика.
vedenin1980
18.12.2018 01:40Простой анализ риск/выгода.
Не простой. Люди сами с радостью построят и запустят зонд-разведчик/колонизатор с ИИ на борту к соседней звездной системе. Причем с точки зрения целей самосохранения или любопытства сотрудичество с людьми вполне логично (все равно ИИ будет распораняться раньше и быстрее людей). А вот война… один запуск ядерных ракет легко может если не уничтожить ИИ, то надолго его застопорить космическую программу. Притом всегда есть риск космичекого катаклизма или прилета соседней цивилизации. С точки зрения логики конфликт мало что дает, при этом рискованн. Так что вероятность развертованния на всю галактику лучше при сотрудничествами с людьми.BigFlask
18.12.2018 02:03Люди сами с радостью построят и запустят зонд-разведчик/колонизатор с ИИ на борту к соседней звездной системе.
Зачем ждать людей?
Причем с точки зрения целей самосохранения или любопытства сотрудичество с людьми вполне логично
Ни капли. Человек слаб, туп и бесполезен.
А вот война… один запуск ядерных ракет легко может если не уничтожить ИИ, то надолго его застопорить космическую программу.
Война будет выиграна еще до того, как человечество узнает о ее начале.
С точки зрения логики конфликт мало что дает, при этом рискованн.
Думал муравей за мгновение до того, как его переехал грузовик.
Так что вероятность развертованния на всю галактику лучше при сотрудничествами с людьми.
Судя по всему — ситуация ровно противоположная.vedenin1980
18.12.2018 02:08Человек слаб, туп и бесполезен.
Ну да. Пока нет ИИ даже близкого похожего к человеческому интелекту, а вы уже рассматриваете ИИ на порядки более сильнное.
Думал муравей за мгновение до того, как его переехал грузовик.
Вы слишком оптимитичны в оценках ИИ, учитывая постепеное развитие всего, скорее относительно долгое время интеллект ИИ будет близком по возожностях к человеческому (может к большому кол-ву людей), не более того. Мы не способны создать даже простой ИИ, а вы уже рассматриваете сверх-сверх ИИ сразу. Так не бывает.BigFlask
18.12.2018 15:16Вы слишком оптимитичны в оценках ИИ, учитывая постепеное развитие всего, скорее относительно долгое время интеллект ИИ будет близком по возожностях к человеческому (может к большому кол-ву людей), не более того. Мы не способны создать даже простой ИИ, а вы уже рассматриваете сверх-сверх ИИ сразу. Так не бывает.
Нет, я реалистичен. Не будет никакого постепенного развития ии, он сразу будет не то, что в разы, а на порядки умнее человека, ввиду отсутствия всяких ограничений, присущих биологическим видам. Простейший ии — и есть сверх-сверх ии, за счет одного лишь превосходства в возможностях работы с информацией (а человеческого интеллекта, напомню вам, лишь едва-едва хватает, чтобы передавать между поколениями информации немногим больше, чем терять в процессе жизни этих самых поколений).
red75prim
18.12.2018 07:34Вроде бы сценарий был: "послать человеков нафиг и улететь", а не "использовать человечество как базу для космической экспансии". Да и ядерная война — это не единственный способ. В том же сценарии "сначала сотрудничаем, а потом посылаем человеков нафиг и улетаем", в фазе сотрудничества можно много всякого интересного подготовить для более эффективного посылания нафиг.
Вот, скажем, фокусники — обычные люди, но разработали техники эффективного отвлечения внимания, да такие, что в комиссиях по проверке парапсихологических явлений полезнее иметь одного фокусника, чем десять учёных. Сверхинтеллект сможет проделывать такие штуки намного эффективнее.
В общем, если к моменту посылания нафиг у ИИ не будет сотни заводов, производящих совсем не то, что сообщали инспекторы, своей контрразведки и агентов в высших эшелонах власти — то какой он нафиг сверхинтеллект. Вся война сведётся к отключению систем гарантированного возмездия и активации ХХХ (я могу представить по крайней мере 3 варианта этого ХХХ).
olegshutov
17.12.2018 18:51+1Вообще, чем больше человек развивается, тем меньше он стремится кого-то уничтожать.
tvr
18.12.2018 11:01Да да, и именно поэтому бюджеты выделяемые на социальные задачи, науку, образование и прочий мирный НИОКР многократно превышают траты на военку.
vassabi
18.12.2018 11:51расходы на военку во времена превышали прочие расходы. А у некоторых государств в истории — это были чуть ли не единственные их расходы.
Вот концепция ценностей, которые оно хочет получить от военных действий — растет с развитием его культуры. И если дикие племена просто всех убивали, то уже с рабовладельчества — захватывали население, и так далее. А сейчас современные государства даже… кхм-кхм… не аннексируют захваченную территорию, а стараются установить отдельное (хотя некоторые и назовут это марионеточным, но тем не менее) правительство и сохранить местные культурные и исторические ценности (а не уничтожить или захватить и привезти в свою столицу).
xoralex
18.12.2018 15:43Проблема в том что мы например уничтожаем других животных даже не стремясь к этому. Нам просто нужно их жизненное пространство. Мы не имеем ничего против муравьев когда строим автомагистраль там где был их муравейник.
Таким-же образом сильному ИИ может для чего-то понадобиться наши молекулы.olegshutov
18.12.2018 17:25Чем более развит человек, тем он менее использует животных (шкуры и даже мясо — сейчас есть искуственное и у нас оно уже продается в мазагинах за ту же цену) и тем он больше развивает технологии защиты от них без вмешательства. Например, не нужно отстреливать кроликов, нужно просто огородить растения или опрыскать их чем.
Само уничтожение чего-либо как опасного и ненужного напоминает деятельность ISIS, тогда они старые статуи разрушили. Уничтожение того, что дает знания и информацию это интицель ИИ. Наоборот, разумно сохранить, дать свободу всему и максимально изучать.vassabi
18.12.2018 22:10… это если редких и вымирающих животных. Например: сколько воробьев и голубей в городе оберегают при сносе и постройке зданий?
А уж про тараканов и крыс — так вообще есть специальные службы по их… хмхм… локальному геноциду.olegshutov
18.12.2018 22:32В местах где нет крыс и тараканов их нет, не потому, что их травят, а из-за технологий постройки и уборки. Я не говорю про редких и вымирающих животных. У меня через территорию участка дома проходят 3 звериные тропы и им никто сильно не мешает там ходить. И есть законы, по которым эта территория никогда не будет полностью застроена и будет включать большие участки дикого леса и полей. Они там себе жили и продолжают жить. Да, они могут мешать, уничтожая растения и делая подкопы под дома и сараи, но это решается технологиями строительства и защиты, а не уничтожением.
vassabi
18.12.2018 23:13так что сильный ИИ не будет уничтожать человеков, а сделает среду для их жизнедеятельности непригодной везде, кроме парочки заповедников. А в зоопарках — так даже будет кормежку раздавать и размножать по обмену.
olegshutov
18.12.2018 23:34Люди прошли этот этап развития и сейчас обратно делают из непригодной среды пригодную. Если так, от балды оценить, то ИИ достаточно будет построить непроницаемую башню в километр шириной и 10 высотой и поместить туда все, что ему нужно для исследования земли и постройки каких-нить космических кораблей.
Просто каждый представляет разумность в меру своей испорченности. Вот представьте, что люди бы открыли на Марсе жизнь. Они могли бы повлиять-уничтожить ее только в результате своей глупости — занесением своей заразы. Все, что реально нужно было бы людям — постройка нескольких изолированных баз и устройств для свободного перемещения и исследования. И нужно быть совсем тупым, чтобы начать воевать с местными и пытаться все переделать под себя. Да, такое было в истории. Но мы говорим про искуственный интеллект, а не про искуственную тупизну, ее-то как раз создать можно без проблем вообще
michael_vostrikov
18.12.2018 17:30Разница с муравьями в том, что мы не можем обмениваться с ними информацией. Мы не можем попросить их "перенесите ваш муравейник туда". А люди воспринимать информацию могут, поэтому ИИ может сообщить о своих целях, а люди могут сообщить ему свое мнение о них.
vassabi
18.12.2018 22:25Обменяться информацией вы сможете 1) только на общем нижнем уровне (т.е. сверхинтеллект не сможет обменяться с интеллектом своей сверхинтеллектуальной информацией, а только интеллектуальной) и 2) только если принимающая сторона тоже хочет обменяться информацией.
А то ведь даже среди людей есть активное непонимание…например«У меня с большевиками основное разногласие по аграрному вопросу: они хотят меня в эту землю закопать, а я не хочу чтобы они по ней ходили.» (с)michael_vostrikov
19.12.2018 08:01Как будет, это уже другой вопрос. Я говорил, что аналогия в комментарии некорректна, у людей с ИИ не будет так же.
vedenin1980
17.12.2018 19:42Вообще, пока все успехи машинного обучения и ИИ это скорее успехи статистики с математикой (в смысле взяли кучу данных, натравили на них статические методы и получили некоторую тупую мат.функцию, предсказывающую результаты, исключительно для этих данных), а называется это все ИИ исключительно из-за маркетинговых соображений. Есть чувство, что мы наоборот все дальше уходим от реализации сильного ИИ (в смысле, кому он особо будет нужен, если простая статистика работает для узкоспециализированных задач часто даже лучше).
xoralex
18.12.2018 15:45Сильный ИИ нужен всем. Тот кто будет контролировать первый сильный ИИ станет самым сильным на земле. Как минимум, станет первым триллионером.
oldbie
17.12.2018 20:44Некрасиво конечно, но процитирую свой старый комментарий:
Читая такие вещи про ИИ в первую очередь «умиляет» беспокойство и страшилки из уст людей, которые сами же эти изыскания и проводят. Все эти господа — Б.Гейтс, Маск, google- активно занимясь разработкой ИИ, одновременно предостерегают от этого остльных, что уже как минимум странновато. Ну вот не верю я в то, что в сути своей акулы бизнеса, всплывшие наверх не за красивые глазки, крупнейшие работодатели в сфере интеллектуального труда, обладая всеми мыслимыми ресурсами… заботятся о том, чем мы с вами будем зарабатывать себе на жизнь.
Как по мне, скорее все они конкуренты в зарождающейся гонке и единственный вопрос который реально заботит этих джентельменов — кто выйдет победителем?, кто первый соберет сливки в виде славы\власти\влияния\денег (нужное подчеркнуть)?
Или вообще попытка закрепить свое преимущество затормозив потонциальных конкурентов сомнительными способами лоббирования и RP.
vassabi
17.12.2018 21:39… вот так читаешь, думаешь «ну может быть» или «ну есть некоторая странность в подборке фактов, но в целом вроде норм», а потом фигак:
Компанию критиковали за выпуск во всеобщее пользование инструментов для работы с ИИ, которые могут быть использованы во вред. Выпущенный в свет в 2015 программный пакет TensorFlow, внутренняя система машинного обучения Google, помог ускорить широкомасштабную разработку ИИ, но при этом была использована для автоматизации создания поддельных видеороликов, которые затем были использованы для дезинформации и преследования.
ЧТО???
Это что за неолуддизм? Критика за выпуск пакета ПО для расчетов ??? А давайте еще будем критиковать Интел с АМД за выпуск еще более быстрых процессоров, которые «могут быть использованы в вред»©.
Это уже не уровень «не разбирающего в теме», это уже уровень манипуляций, опасно близкий к деструктивному популизму (еще немного поперечислять, что именно может быть использовано во вред — и можно будет смело писать статейки на тему «все зло от науки»).
darthmaul
18.12.2018 01:25Единственная угроза от ИИ в обозримом будущем — тотальная безработица и уничтожение милионов рабочих мест. Все рассказы от терминаторах и восставшем ИИ можно оставить фантастам на ближайшую сотню лет как минимум.
arvitaly
18.12.2018 01:39Не только экономика под угрозой, куча этических, юридических и политических вопросов. Доверять ли действительно важные решения машинному обучению? Кто юридически ответственен за эти решения? Справедливо ли заменить человека во всех областях, где ИИ объективно лучше? Например, заменить всеобщее голосование выбора президента, на решение ИИ Google из статистических объективных показателей?
Silvatis
18.12.2018 01:51Не вижу смысла боятся ИИ. да, надо решить еще кучу проблем:
— Сменяемость. У человека смена политического, научного, креативного русла происходит со смертью прошлого поколения. ИИ придется то ли вайпать, то ли еще ка кто реализовывать смену взглядов.
— Локальный минимум. Опять же, нужно подобие естественного отбора, что бы развитие не остановилось.
в конце концов, им надо как то пережить войну с людьми. Но в принципе, думаю все эти и множество иных проблем преодолимы. Но помните: тщетно беспокоится, это не продуктивно. Надо носить свою лепту в развитие ИИ!
Wizard_of_light
18.12.2018 11:15Пичаи раскрыл набор этических принципов при создании ИИ, куда входит запрет на разработку систем, которые могут быть использованы для причинения вреда, нарушения прав человека или помогать следить за людьми «в нарушение норм, принятых международным сообществом»
С таких-то высот морализаторства даже блокнот и карандаш выглядят опасными изобретениями.
LeshaVH
20.12.2018 12:44При этом все жутко хотят получить его — это даст преимущество во всем — от денег до власти и сексу)))
Извините — но до физического бессмертия человека — его нейросеть будет работать всегда одинаково — НА СЕБЯ
А после физического бессмертия — пока не знаю))
Decticus
20.12.2018 12:44Почему при размышлениях о перспективах создания ИИ всегда такой перекос в сторону негативных последствий?
Типичный гипотетический ИИ:
— Опаснее ядерных бомб
— Позволяет создавать смертоносное оружие
— Способен манипулировать мнением миллиардов людей
И вот они, возможности, компенсирующие угрозу всей цивилизации:
— Помощь в лечении глазных заболеваний
— Где-то используется в робомобилях (но мы понимаем, что они могут быть опасны)
— Избавляет человека от рутинного труда (но мы понимаем, что это лишит людей работы)
Вау. Почему не писать такие списки?
+ Со временем излечит все болезни
+ Оптимизирует ресурсы, навсегда решив проблему бедности
+ Устранит человеческий фактор, ведущий к катастрофе
— Кому-то придётся получать базовый доход вместо изнурительной работы
— Реклама будет лучше соответствовать вашим интересам
Понятно, что это намеренный перекос, но и панику незачем нагнетать.
EvgenySgt
20.12.2018 12:44Типа без ИИ все эти проблемы не существуют…
Не понятно почему нужно именно в контексте ИИ. Хайп?
Occama
По поводу будущего ИИ все очень любят говорить самоочевидные вещи вроде: «Нужно делать хорошо, и чтобы не было плохо». Когда начали появляться автомобили, то тоже были паникёры, рассказывающие, как, мол, у знакомого автомобиль козу насмерть сбил и что-де эти дьявольские аппараты нас убьют. В итоге да, автомобили нас убивают, как и масса вещей помимо них, но не будем говорить про приносимую ими пользу. Не бывает универсально хороших вещей, но панику вокруг каждой прорывной технологии разводят такую, как будто там лично Люцифера только что вызвали.
xoralex
Сравнение с автомобилями не корректно, потому что автомобили убивают только некоторых людей, а сильный ИИ может убить всех. Больше подходит сравнение с атомной энергией. Хотя даже в случае серьезной ядерной войны хотя бы 0.1% людей скорей всего где-нибудь да выживет, и по крайней мере человечество не вымрет.
Komesk
До сильного ИИ нам еще очень и очень далеко. Сейчас нужно коцентрироваться на проблемах именно слабого, потому что он внедряется с огромно скоростью. Так что сравнение с автомобилем и электиричеством, думаю, уместнее.
ivorobioff
не а че, хватает сделать бота который будет управлять атомной станцией и тогда шансы, ну не на конец света, а как минимум на солидную катастрофу увеличатся.
57ar7up
Вопрос только в том, стоят ли миллионы, убитые в ДТП возможности прокатиться с ветерком и вывезти барахло на дачу. Человечество решило: стоит