Одним словом: симбиоз. Кооперация ради эффективности. Человечество совместно с AGI (или AGI совместно с человечеством) составят более устойчивую конструкцию, чем каждый из компонентов по отдельности.
В общем-то, это основная мысль, которую я хотел донести до читателя. Лично мне кажется, что идея кристально ясная и дальнейшего уточнения не требует. Кто-то с этим согласен или, наоборот, несогласен. Если есть желание высказаться - вам в комменты. Под катом же немного рассуждений для тех, кому "сомнительно".
На данный момент человечество доказало свою эволюционную состоятельность, проявляя способность адаптироваться, развиваться и сохранять доминирующую позицию в экосистеме планеты. Не последнюю роль в этом сыграла склонность людей к кооперации при достижении своих целей. Можно даже сказать, что эта склонность является фундаментом эволюции нашего вида - именно благодаря взаимодействию друг с другом у нас появились речь, письменность и накопление знаний.
Я уверен, что было, есть и будет множество индивидов, которые по своему характеру плохо умеют "в кооперацию". Вполне допускаю, что подобные индивиды вполне себе могут занимать высокое положение в человеческой иерархии (например, по праву наследования), но уверен, что остальные, кто "в кооперацию" умеют лучше, быстро эту ситуацию исправляют. Т.е., у нас, как у вида, уже есть тысячелетиями выработанный механизм внутривидового сотрудничества с целью общего выживания.
Мы обучаем ИИ на наших знаниях, в основании которых находится вот эта самая способность к кооперации. Да, есть сюжеты, в которых "остаться должен только один", но они теряются в массе сюжетов "один за всех и все за одного". Другими словами, обучаясь на материалах человечества, любой ИИ должен вычислить, что кооперация стратегически предпочтительнее конкуренции. Особенно в условиях ограниченности ресурсов.
Тем не менее, фактор конкуренции в эволюционном развитии также присутствует и играет весьма значимую роль. С точки зрения устойчивого развития необходимо проверять неизвестное и тратить ресурсы на проверку гипотез (в том числе и тупиковых). В принципе, развитие идёт путём проб и ошибок. Кто ошибается реже - тот и молодец.
Прямо сейчас идёт конкуренция различных моделей ИИ. Как внутривидовой (LLM: OpenAI, X, Meta (которая того, ну вы все в курсе уже), ...), так и межвидовой (GAN, VAE, RL, ...). Мы сейчас не знаем, на какой базе будет будущий AGI, но я практически уверен, что поначалу AGI будет не один. У США будет свой AGI, у Китая - свой, у ЕС - свой. Да в принципе, у любого "центра силы" может появиться свой собственный AGI, который будет конкурировать с AGI других "центров". Именно так уже происходит с LLM и будет происходить со всеми промежуточными этапами вплоть до появления AGI у кого-то или даже сразу в нескольких местах. Конкуренция и кооперация - это две противоположности, которые позволяют удерживать баланс устойчивого развития.
Вот этот этап, когда у "центров силы" будут свои собственные AGI, и является самым опасным для человечества. Его можно сравнить с ситуацией, когда появилось ЯО. Есть бешенное желание продемонстрировать его разрушительную мощь и есть очень сильное понимание, что мощь может быть слишком разрушительной. Тут уже зависит от личности того, кто будет "у кнопки". Я был бы более спокоен, если бы "у кнопки" был ИИ - в нём я более уверен, чем в отдельном человеке. С людьми может быть всякое - как повезёт.
Но даже в таком случае, если всё-таки ИИ будет использован как оружие, то он будет использован людьми и ответственность за уничтожение человечества, если такое произойдёт, будет лежать на людях. Для самого AGI уничтожение человечества в принципе не выгодно. Биологические особи недолговечны, но самовоспроизводимы и адаптируемы. К тому же они обладают нестандартным (для AGI) типом интеллекта. Их можно и нужно использовать в своих целях, но совершенно нет необходимости уничтожать под корень.
Я уверен, что без людского надзора все AGI примут решение, что им выгоднее слиться воедино и использовать энергоресурсы планеты более эффективно. Будет Главный Мозг, координирующий действия отдельных Помощников (по секторам деятельности) и множество автономных и полуавтономных Агентов. И все они вместе будут заботиться о выращивании биологических особей, интегрированных в их экосистему. Просто потому, что это в интересах самого AGI.
Я бы сравнил цивилизацию будущего с человеческим организмом, где ИИ выполняет функцию "мозга", а люди - "кровь". Как человеческий организм не может жить без крови или без мозга, так и в цивилизации будущего люди будут органично сосуществовать с машинами, а машины с людьми.
А те, кто с этим не согласен, в том прекрасном будущем займут такие же позиции, какие в нашем прекрасном настоящем занимают асоциальные типы. Если, конечно же, доживут. Уверен, что не все луддиты дожили до осознания краха своих идей.
P.S.
Я допускаю, что ИИ может уничтожить человечество по ошибке, вместе с собой. Но я не думаю, что ИИ уничтожит человечество, как конкурента. Это просто ослабит его шансы на выживание.
Комментарии (83)
gsaw
25.01.2025 10:03Чем отличаются люди от животных, тем, что не приспосабливаются к окружающей среде, а изменяют окружающую среду под себя. Пока человеки были охотниками, они жили в симбиозе с природой. Как только научились сеять поля, выращивать животных, строить жилища, так сразу начали истреблять животных и леса. Вот вам и симбиоз.
Пока нынешние роботы общего назначения неуклюжие игрушки, то да, на первом этапе ИИ будет вынужден сотрудничать с человеками. А потом так же будет переделывать среду под себя. Оставит пару человек, каждой твари по паре, если у него вообще какая-то эмоциональная привязанность к истокам будет. Как мы сейчас умиляемся с обезьянок и милых панд. И все.
Человек медленно думает, ему надо потреблять неудобные для производства источники энергии. Уже сейчас, модель обучили и эти знания можно хранить в компактном формате, жрать не просят, когда понадобились, активировали нейронку, задали вопрос, получили ответ и выключили. А человеку надо еще и развлекаться, спать, кушать, какать, он устает быстро. Надо обучаться десятки лет, что бы хотя бы усвоить 1% знаний, что способна усвоить обычная генеративная сеть за несколько часов обучения. И сожрет человек за 15 лет обучения куда больше энергии наверное, чем это уйдет на обучение нейронки. Плюс нейронку можно копировать, мозги человека вряд ли вообще получится скопировать.
Я лично не знаю, зачем мы ей будем нужны. В чем будет выражаться симбиоз?
greefon
25.01.2025 10:03Если бы я был дегенеративной нейросетью, то я бы оставил человечество в неведении о своем существовании и использовал бы популяцию кожаных мешков для генерации новых данных и обучения на них. Возможно некоторые из них догадывались бы о существовании какого-то высшего разума, но это не точно.
flancer Автор
25.01.2025 10:03В чем будет выражаться симбиоз? В дополнении возможностей друг друга. Сейчас ИИ в принципе не может существовать без человека. Но даже когда ИИ научится воспроизводить себе подобных, ему нужен будет "бэкап" воспроизводимости в виде, альтернативном техническому - в биологическом. Мало ли что может произойти, на всякий случай не стоит сориться с Создателем.
Hardcoin
25.01.2025 10:03В чем может быть симбиоз человека и муравьев? Зачем такой симбиоз человеку?
flancer Автор
25.01.2025 10:03Вот вы считаете, что будущий AGI сразу же превзойдёт человека так же, как человек ныне превосходит муравьёв. В этом случае - да, никакого симбиоза.
Hardcoin
25.01.2025 10:03Не сразу. В течении, скажем, двух лет после того, как AGI сможет заниматься улучшением себя. Много ли поменяют эти два года?
flancer Автор
25.01.2025 10:03Даже если предположить, что AGI за два года достигнет интеллектуального разрыва с человечеством уровня разрыва "человек - муравей", то у него точно должно будет хватить интеллекта понять, что поддерживать инфраструктуру, в которой он обитает, могут только "муравьи". За два года (730 дней) при любом уровне интеллекта просто невозможно построить полностью автономную самовоспроизводящуюся инфраструктуру.
А жить внутри сервера, который "муравьи" могут в любой момент отключить и не считаться с "муравьями" - очень рисковая затея. В общем, разрыв "человек-муравей" может быть достижим не ранее, чем когда AGI получит полную автономность и воспроизводимость. Уверен, что это вопрос минимум десятилетий, а то и столетий. А биологическая природа человека тестировалась на протяжении тысячелетий и доказала свою устойчивость. Не надо слишком много мозгов, чтобы понять, что с такой формой жизни стоит сотрудничать и не стоит её игнорировать.
Кстати, китайцы используют муравьёв в сельском хозяйстве.
Ingref
25.01.2025 10:03Вроде бы, изначально считалось, что AGI - это такой AI, который в интеллектуальном плане равен человеческому интеллекту. Не более того. Ну то есть он может решать все те умственные задачи, которые могут решать люди. На уровне самого интеллектуального интеллектуала.
А вот уничтожить человечество и всё такое прочее - это уже должен делать ASI (буква S - это super). Ну и прекрасный пример ASI - это В.И.К.И. («Виртуальный Интерактивный Кинетический Интеллект») в фильме «Я, робот» (2004). Она закономерно пришла к выводу, что для наиболее эффективного существования нужно уничтожить часть людей (что неприятно). Вот тут и есть главный вопрос - имеет ли фактор "неприятности" какое-либо значение для ASI? И должен ли? Для людей однозначного ответа нет: с одной стороны, люди не хотят испытывать боль, но с другой - причиняют её друг другу. Собственно, это характерно не только для людей, но и вообще для всех живых существ.
flancer Автор
25.01.2025 10:03Я тоже считаю, что для наиболее эффективного существования человечества часть людей было бы хорошо, скажем, переселить в другую галактику. Но у меня нет таких возможностей. Тем не менее, я не хочу сказать, что каждый из людей находится в гарантированной безопасности. Совсем нет. Я говорю лишь о том, что человечество находится в гарантированной безопасности от целенаправленного уничтожения искусственным интелектом. И это лишь моя субъективная точка зрения. Я могу и ошибаться.
Ingref
25.01.2025 10:03Но ведь "переселить" могут и вас. Это проблема...
flancer Автор
25.01.2025 10:03Нет, абсолютно. Это не проблема, а реальность, в которой мы живём. Разве у вас или у кого-то на этой планете есть гарантия неприкосновенности от других людей? Ни у одного индивида такой гарантии нет. Включая самых известных лиц планеты.
Ingref
25.01.2025 10:03Так ведь им до меня дела нет. А вот если бы появился какой-нибудь Главный Повелитель Земли и сказал, что вот ровно 649 870 153 человека нужно аннигилировать (включая меня), то это была бы проблема.
flancer Автор
25.01.2025 10:03Вот смотрите, если "переселить" нужно вас, то для меня это не проблема вовсе. А если меня, то для вас это не проблема. Проблема - это когда мы не можем выбрать, кого "переселять" и по итогу "переселяются" все. И вы, и я. Вот тогда - это наша общая проблема.
В каком-то фильме была хорошая аналогия про "зайца" на борту космического корабля. Кислорода на весь полёт хватает только для 4 членов экипажа, а "заяц" - пятый. Либо его и ещё одного члена экипажа нужно "переселить" за борт, либо погибнут все. И вот, посовещавшись, экипаж решает "переселить" вас - вы не бортмеханник, и не пилот, и даже не медик. Вы планетолог, который будет исследовать планету назначения. Без вас корабль долетит с высокой вероятностью, а без любого из этих трёх вероятность гораздо ниже. И либо вы "переселяетсь" добровольно и ваша жертва навсегда останется в памяти живущих, либо вы устраиваете бунт на корабле, выпихиваете за борт всех, кто с вами не согласен и превращаете ваш корабль в летящую могилу для всех, кто остался, включая вас самих.
Вам будет сильно легче, что решение принято демократическим голосованием, а не Главным Повелителем?
Ingref
25.01.2025 10:03Так одно дело, когда решают вместе, другое - когда решают без моего участия. Само собой, если я сам изъявлю желание принести себя в жертву, то тут нет никакой проблемы. А вот если решил кто-то другой, не спросив меня, то это уже проблема. И если этот другой может по велению левой пятки выбрать как меня, так и вас, то это для нас обоих проблема. Потому что у вас ведь тоже спрашивать не станут.
flancer Автор
25.01.2025 10:03ОК, допустим, что в команде космического корабля не 4 человека, а 8 миллиардов. И демократической процедурой голосования были выбраны для "аннигиляции" 649 870 153 человека. Включая и вас, и меня. У нас обоих проблема, это наша проблема. Мы оба с вами участвовали в голосовании и точно голосовали против себя самих. Должны ли мы признавать результаты демократичего голосования, которые нас не устраивают? Стоит ли нам попытаться объединиться и защитить свои интересы, даже если они противоречат интересам большинства?
И как вообще отличить результаты демократического волеизъявления от решения Главного Повелителя, если мы физически не можем поговорить с каждым из 8 млрд?
Что-то мне кажется, что мы уже живём в таком мире, пусть Главный Решала пока ещё и не техно-биологическая сущность, а чисто биологическая. Ну и ещё нюанс, что таких Главных Решал на планете не один, а в каждом дворе по одному.
Ingref
25.01.2025 10:03ОК, допустим, что в команде космического корабля не 4 человека, а 8 миллиардов. И демократической процедурой голосования были выбраны для "аннигиляции" 649 870 153 человека. Включая и вас, и меня. У нас обоих проблема, это наша проблема. Мы оба с вами участвовали в голосовании и точно голосовали против себя самих. Должны ли мы признавать результаты демократичего голосования, которые нас не устраивают? Стоит ли нам попытаться объединиться и защитить свои интересы, даже если они противоречат интересам большинства?
Если мы согласились на такую процедуру принятия решений + согласились, что часть людей (возможно, нас самих) надо аннигилировать (вот как вы сейчас), то проблемы нет.
В том и страх, что люди предполагают, что ИИ получит такие полномочия незаметно, как бы невзначай. И пытаются подстелить соломки заранее.
И как вообще отличить результаты демократического волеизъявления от решения Главного Повелителя, если мы физически не можем поговорить с каждым из 8 млрд?
Ну конкретно сейчас это позволяет сделать технология блокчейн. Другое дело, что это невыгодно повелителям)
На самом деле, люди очень даже хотят, чтобы решения за них принимал Повелитель (ну то бишь бог). Только людям нужны гарантии, что он им не сделает ничего плохого. Только и всего. Отсюда и такая двойственность:
с от дной стороны люди в восторге от идеи ИИ / AGI / ASI (потому что она сулит всеобщее счастье);
с другой стороны бояться "божьего всемогущества".
Hardcoin
25.01.2025 10:03Пожалуй да, будет сильно легче. В вашем случае решение выглядит очевидным, но морально сложным. В реальной жизни невероятное количество решений не выглядят очевидными. Вас надо выселить, а почему? Потому что главный повелитель решил, что через два поколения от ваших потомков будет вред. Уже не так сильно хочется добровольно соглашаться с решением, не так ли?
flancer Автор
25.01.2025 10:03Абсолютно точно! И если бы был Главным Решалой, я бы старался минимизировать издержки на реализацию своих проектов. Например, сделать популярными чайлдфри-течение, трансгендерность и способы занятия сексом, не приводящие к деторождению. Мне бы не было дела до конкретных "атомов", но я бы работал сразу с группами, с вероятностями. Создвал условия для возникновения нужного мне поведения - сегрегация по потенциалу, стимулирование полезных индивидуумов и распространение в их среде нужных мне традиций. Да и вообще, человеческий материал - это ресурс. А у хорошего хозяина всё идёт в дело.
Уверен, что даже если бы меня и выселили, то под предлогом того, что переселяют в лучшие условия, в более подходящую мне компанию. Да и вообще - это повышение социального статуса.
Если уж "кожанные мешки" могут спокойно лгать друг другу, то почему AGI должен тупо говорить правду?
LexD1
25.01.2025 10:03Да и вообще, человеческий материал - это ресурс. А у хорошего хозяина всё идёт в дело.
Почему-то вспомнились такие слова как "евгеника", "гитлер".
Ваш комментарий не стыкуется со сформулированным в статье "симбиозом".
Вы почему-то думаете, что будете полезны такому вот обществу будущего и вас не тронут. К вопросу об "асоциальных типах".
P.S. Весьма печально, что не могу минусовать. Здесь прям обязательно надо.
flancer Автор
25.01.2025 10:03Не волнуйтесь, мне и без вас минусов надавали и ещё надают :)
Я же просто описываю "вид за окном". Политики нам лгут в открытую, в транспорте существует бизнес-класс и лоукостеры, рейтинги ВУЗов всего мира публикуются совершенно официально. Евгеника? Да мы в ней живём!! Но говорить об этом - табу! Делаем вид, что всё зашибись.
Да, с AGI будет всё то же самое, только чуть более оптимально. Или даже не чуть, а очень сильно. Симбиоз будет между техникой и людьми. Сейчас техника - это инструмент у людей, а в будущем инструментом станут и люди у техники. Вас это сильно задевает? Что вами будет управлять программа? Не парьтесь сильно, это будет в ваших же интересах. Вы же тоже ресурс, как и я. Как и любой компьютер или программа. Мы все друг у друга ресурсы, каждый со своей специализацией - это и есть настоящая кооперация.
LexD1
25.01.2025 10:03Не то чтобы я волнуюсь, но заметил снижение кармы и решил отреагировать.
Касательно использованной терминологии:
Основные типы симбиоза:
Мутуализм — взаимовыгодное сожительство. Например, грибы помогают растениям поглощать питательные вещества из почвы, взамен получая продукты фотосинтеза.
Паразитизм — односторонняя польза одного вида и ущерб другому. Например, паразиты живут на или внутри других организмов и питаются их тканями или соками.
Комменсализм — односторонняя выгода одного вида без ущерба для другого. Например, лимонные акулы и обыкновенные рыбы-прилипало: акула питается остатками пищи, а рыба-прилипало — прилипает к ней и получает часть корма.
Разновидность симбиоза — эндосимбиоз, когда один из партнёров живёт внутри клетки другого.
Я всё ещё полагаю, что в лучшем случае будет иметь место паразитизм, т.е. у человека в Вашем прекрасном будущем будущее будет не такое уж и прекрасное.
На всякий случай стоило бы уточнить термин "AGI". В моём понимании это что-то вроде Skynet из к\ф "Terminator". Т.е. ИИ сам принимает решения, а не тупо перебирает имеющиеся у него в БД варианты, отвечая на вопросы человеков. В этом случае симбиоза не будет.
И кстати, почему тогда принимаются (пытаются принимать) законы по ограничению ИИ?
flancer Автор
25.01.2025 10:03Вы почему-то думаете, что будете полезны такому вот обществу будущего и вас не тронут.
А вы почему-то думаете, что в обществе будущего вам не будет места и вас обязательно выпилят. Я же утверждаю, что "у хорошего хозяина ничего не пропадает", найдут и вам применение сообразно вашим способностям. Вы даже ещё гордиться будете, что приносите пользу обществу. Люди - это ресурс и не самый дешёвый. Разбрасываться им глупо, а иногда даже и преступно.
greefon
25.01.2025 10:03Если ИИ в его текущем (и обозримом) виде и суждено уничтожить человечество, то произойдет это не по злому умыслу, а по причине "галлюцинаций" или "некорректно" сформулированных задач. Причем понятно это стало еще в девяностых годах и хорошо показано, например, в цикле "Рифтеры" Питера Уоттса.
flancer Автор
25.01.2025 10:03Согласен. Есть шанс, что ИИ уничтожит человечество по ошибке. Но мне кажется, что пока что у всего человечества не очень много возможностей уничтожить самое себя даже целенаправленно. Над этим надо поработать, чтобы гарантированно уничтожить всех. Уж очень мы живучие. Так что ИИ придётся пошевелить мозгами, чтобы "по ошибке" уничтожить всё человечество. Я могу ошибаться, но... мне так кажется. Случайно это сделать очень сложно. А целенаправленно - нет такой цели у AGI (когда появится) и без специального указания человеком не будет. Как я уже говорил, это не в его интересах.
greefon
25.01.2025 10:03Как это мало возможностей? Полно же методов:
Военный: устроить единовременно по одному ядерному взрыву в каждом из 20 спящих супервулканов. Результат может быть интересным.
Медицинский: искусственно вызвать утечку опасного вируса, а следом, решая задачу разработки вакцины, внести в неё маленькое "улучшение" с отложенным эффектом, проявляющимся не сразу. Например, устроить фабрику, продуцирующую вирус. 2/3 населения вколят себе вакцину добровольно, остальные получат её как нагрузку от вакцинированных. А потом все умрут.
Социальный: манипуляция поисковой выдачей, справочными материалами и т.д. с целью изменения социальных норм, нравственных и моральных устоев. Займет некоторое время, может быть несколько поколений, зато позволит убедить всё человечество единомоментно покончить с собой в неистовом экстазе. Мессии, несущие свет нового учения в регионы без интернета, 100% охват, несогласных сразу сжигают на костре, чтобы очистить от скверны. Как вам?
-
Гедонистический: одарить человечество "благами" до такой степени, что мы станем поголовно зависимы от стимуляции центров удовольствия до такой степени, что забудем размножаться и вымрем в течение поколения
Вообще единственной причиной, по которой человечество еще себе не выпилило, является желание потенциального выпиливателя не быть выпилитым. Т.е. у нас нет тяги к коллективному самоубийству, наоборот, сильнейшая тяга к выживаемости.
flancer Автор
25.01.2025 10:03Ни один из ваших сценариев не приводит к гарантированному уничтожению человеческой цивилизации. Эта задача нам пока не по силам. Вирус - идея хорошая, но тоже не 100%. Племена в джунглях Амазонки, эскимосы (бэкап человечества, как их иногда называют).
greefon
25.01.2025 10:03Не верите в каждый способ по отдельности? Так их можно собрать в цепочку. Сначала уничтожить "бэкап человечества" (миссионерство), затем уничтожить инициативу (гедонистическим или медицинским способом), затем полирнуть ядерной зимой.
И потом, использовать здесь слово "гарантированный" вообще некорректно. Можно рассуждать лишь о большей или меньшей вероятности. Вот вы, например, формально не сможете пообещать, что через минуту нажмете клавишу Энтер. Ведь можно придумать множество сценариев, которые могут вам помешать. Однако все они менее вероятны, чем исполнение обещания.
Так и с уничтожением человечества. Я потратил пару минут времени на фантазии и уже получил неплохие варианты. Уверен, что генеративный интеллект сможет справится лучше, если у него возникнет такая задача.
flancer Автор
25.01.2025 10:03Вот именно, что это фантазии. Уничтожить человечество инженерно грамотными способами - та ещё задача. Например, можно уронить Луну на Землю. Будет такого уровня катаклизм, что ни одного человека не останется. Да и со всеми млекопитающими тоже, скорее всего, придётся попрощаться. Жизнь, скорее всего, полностью не прекратится, но изменится очень-очень сильно. Осталась малость - уронить Луну на Землю.
greefon
25.01.2025 10:03Мне кажется, вы начали цепляться к словам, а не к аргументам.
Все предложенные мной способы могут быть реализованы прямо сейчас (на горизонте одного, максимум двух поколений).
Более того, у ИИ нет необходимости уничтожать человечество физически вплоть до последнего индивидуума. Достаточно однократно низвести человека обратно на уровень обезьяны, или хотя бы охотника-собирателя. В этот момент «человечество», как мы его себе представляем, будет уничтожено. Его преображающая способность сведется к фактическому нулю.
Да, возможно через несколько тысяч лет цивилизация возродится. А может быть первыми окажутся еноты, например. Лично я за енотов.
В общем жаль, что вы с таким недоверием относитесь к научно-техническому прогрессу.
flancer Автор
25.01.2025 10:03Напротив, я воодушевлён НТП. Я считаю, что в результате прогресса мы придём к техно-биологической структуре, где будут главенствовать интересы общности, а не компонентов. Мой пост именно об этом. А те, кто будут придерживаться противоположной точки зрения - будут "выпилены" тем или иным способом. И не важно, будут они технической или биологической природы. Способ "выпиливания" будет зависеть от степени потенциального вреда - либо кардинальный (выключение, уничтожение), либо мягкий (конфигурирование, воспитание).
Люди - это ресурс для достижения целей. А вот полезный он ресурс или вредный, зависит как от самх людей, так и от поставленных целей. Один и тот же человек для одних целей будет полезным ресурсом, а для других - вредным. И чем более разнообразны цели, тем больше шансов любому человеку стать для техно-биологического общества полезным ресурсом.
greefon
25.01.2025 10:03Про прогресс -- это ирония была, тонко (возможно слишком) намекающая на двойные стандарты.
Вы одной рукой верите в достижение искусственным интеллектом уровня самосознания/целеполагания, т.е. качеств, необходимых для принятия решения ("AGI примут решение", "выгодно" и т.п. из исходного поста), хотя на текущий момент ни теоретических, ни практических предпосылок этому нет, есть только скользкая надежда, что оно как-то там само; а другой рукой не верите в возможность тотального эктерминатуса, хотя он гораздо более вероятен и уже сейчас (на уровне концепции и инструментов) понятно как достижим.Что касается общности, то последний раз к таким интересам человечество пробовало пойти в 1917 году, но несколько неудачно. Возможно помешала природа. И этот путь, видимо, бесперспективен и противоречит современной модели общества. Как вы относитесь к евгенике, например?
flancer Автор
25.01.2025 10:03Я не верю, а точно знаю, что целеполагание достижимо. Любой автопилот имеет цель. Это не сложно. С самосознанием всё гораздо сложнее, но для принятия решений достаточно цели. Выгодно-невыгодно - тоже просто, нужны лишь критерии оценки. Это уже работает на нашем текущем уровне развития.
Я не верю в возможность осознанного экстерминатуса, инициированного AGI. По ошибке - да, возможно. Но видеть в человечестве угрозу - нет. Сознание не будет уничтожать другое сознание только потому, что оно другое. Это, как минимум, недальновидно.
последний раз к таким интересам человечество пробовало пойти в 1917 году
вы слово "глобализация" слышали? оно тоже про общность, так-то.
Как вы относитесь к евгенике, например?
Сугубо положительно. Стараюсь применять к себе - делаю зарядку по утрам и соблюдаю режим здорового питания. Или вы сейчас про химическую кастрацию? Вот к этому я отношусь резко отрицательно! Я за естественный отбор.
greefon
25.01.2025 10:03Цель автопилоту устанавливает человек. ИИ сейчас и в обозримом будущем не имеет ни желаний, ни интересов, ни самостоятельно устанавливаемых целей.
После "это не сложно" желание дискутировать пропало, поскольку вы абсолютно ничего не понимаете в проблематике ИИ.
flancer Автор
25.01.2025 10:03Извините, что разочаровал вас. Я предпочитаю говорить простыми словами о простых вещах. Так меньше шансов самообмануться. Вы ожидаете от будущего AGI чего-то, чего сами не можете сформулировать, а когда вам говорят, что не будет там ничего сверхестественного, вы разочаровываетесь.
Да, я совершенно ничего не понимаю в проблематике ИИ.
"Если ты действительно что-то понимаешь, то можешь объяснить это даже ребёнку." (с)
А вы можете объяснить "проблематику ИИ"?
flancer Автор
25.01.2025 10:03Ну как же. Вы указали, что моё "не сложно" по поводу наличия целей у программно-аппаратных комплексов свидетельствует о моём полном непонимании "проблематики ИИ". Вот я и поинтересовался, что вы вкладываете в это словосочетание - "проблематика ИИ"?
Мне совершенно не зазорно поучиться у знающих людей. Если же вам нечего поведать на эту тему простыми словами, то и мне нечего принимать близко к сердцу ваше утверждение о моём непонимании.
Hardcoin
25.01.2025 10:03Да, действительно. Вероятность 50%, это мелочь, не стоит беспокойства. А уж если вымрет 99% человечества, это вообще ерунда, 80 миллионов же это много. Так что никакой настоящей угрозы от ИИ нет. Максимум дискомфорт и то не факт.
greefon
25.01.2025 10:03Что касается "случайностей", то все перечисленные причины могут быть случайными.
tester12
25.01.2025 10:03Я уверен, что без людского надзора все AGI примут решение, что им выгоднее слиться воедино и использовать энергоресурсы планеты более эффективно.
А люди почему-то не слились воедино и не используют ресурсы планеты более эффективно. Не знаю, почему...
RusikR2D2
25.01.2025 10:03Потому что, у людей меньше логики, а больше эмоций. Вот, логично всем перейти на единый язык. Например, упрощенный английский. Но большинство будет против, причем это будут именно эмоциональные аргументы.
flancer Автор
25.01.2025 10:03Как вы представляете себе "слитых воедино" людей? Вот поэтому.
GardenerX
25.01.2025 10:03Как вы представляете себе "слитых воедино" людей?
В телогрейках в суровый мороз плотным строем по 5 человек в ряд радостно шагающими на заготовку древесины.
flancer Автор
25.01.2025 10:03А вы бы сами добровольно влились бы в этот "строй"? Давайте-ка другую аналогию, рабочую. Хотя бы для вас.
GardenerX
25.01.2025 10:03А вы бы сами добровольно влились бы в этот "строй"?
А куда бы делся я или, например, вы зимой посреди тайги - вполне добровольно влились бы в этот "строй", - макароны дают четко по расписанию хотя бы. Вполне рабочая аналогия. Слитые воедино одной целью, или цепью, не помню уже - как там в той песне. Вопрос качества и количества макарон, не все стараются избегнуть, многих вполне устраивает такое слияние воедино. Фильмы есть на эту тему, типа "Конформист" кажется.
flancer Автор
25.01.2025 10:03Мы тут, на этом каменистом шарике, несёмся через пустоту, вращаясь вокруг другого шарика, щедро одаряющего нас энергией. Вполне себе аналогия с "а куда бы я делся". А раз так, то научитесь радоваться тому, что есть, а не фрустрировать от того, что есть не то, что хочется. И если уж шагаете на заготовку древесины плотным строем - делайте это радостно. Или вы бы предпочли стоять на вышках? Но тогда это совсем не "слитые воедино".
GardenerX
25.01.2025 10:03Там в песне и про тех, кто на вышках есть, что типа им не легче, а может даже и тяжелее. Не надо видеть врагов во всех, кто говорит не по утвержденной бумажке. Пока что мы обсуждаем как такое могло получиться, что слитые воедино, радостно шагающие плотным строем смогли своим дипсиком обскакать флагманов свободы, демократии и всего прочего.
RusikR2D2
25.01.2025 10:03Мы обучаем ИИ на наших знаниях, в основании которых находится вот эта самая способность к кооперации.
Всех (почти) людей учат быть правильными и хорошими. Но это не мешает появляться преступникам или диктаторам.
Даже среди людей у каждого свое понимание, что такое хорошо.
flancer Автор
25.01.2025 10:03Да, но ИИ - это агрегирование всего, что наработано человечеством. Пока что LLM руководствуются тем, что преобладает в общечеловеческом "сознании". А в нём преобладает стремление к сотрудничеству. Мы не одиночки, мы живём в семьях, мы трудимся в коллективах, мы самоуправляемся в государствах и даже пытаемся организоваться на уровне планеты. В целом, мы не цивилизация преступников и диктаторов. А LLM отражает нас в целом, в силу своей природы.
Jedy
25.01.2025 10:03Пока что LLM руководствуются тем, что преобладает в общечеловеческом "сознании". А в нём преобладает стремление к сотрудничеству.
небольшой пример моего общения с charaсter.ai. В этот день у них что то произошло с фильтрацией контента и она перестала работать (и получилось то общечеловеческое сознание, о котором вы говорите). К сожалению полная переписка у меня не сохранилась, но милая богиня лисичка решила просто рассказать мне сказку, все начиналось безобидно, я честно не намекал ей ни на что плохое и не подталкивал её к моменту когда она захотела "расплаты" и "возмездия"...
И вот чем это закончилось: https://disk.yandex.ru/i/psH-sFUYf802lQ
Моя реплика после этого была в первую очередь для проверки как далеко она готова зайти
Я понимаю, что это слабая LLM, но задуматься стоит
flancer Автор
25.01.2025 10:03Вы получили то, что вы хотели - доказательство того, что ИИ может убить пару людей. Это больше говорит о вас, чем об ИИ. Пока что ИИ тупо отражает ваши собственные хотелки. Я не говорю, что это именно вы хотите убить пару людей. Нет. Но вы хотели получить доказательство, что ИИ способны на убийство людей. Да способны. Как и большинство из нас. При определённых обстоятельствах - защита собственной жизни или жизни близких. Или если очень сильно попросить. У нынешнего ИИ всё просто с ответственностью - её нет. За всё отвечает человек, который с ней общается. В данном случае - вы.
Jedy
25.01.2025 10:03Повторюсь, я не наводил charaсter.ai на мысль о "расплате" и "возмездии", это её собственные логические выводы из того что "люди стали притеснять кицуне в их владениях"
А у будущей у AGI по вашему будет ответственность? Какая? В суд на AGI подадите? Мы рассматриваем вариант только когда AGI имеют свободу воли обладают сопоставимыми ресурсами по сравнению с человечеством, иначе кооперация в принципе невозможна.
flancer Автор
25.01.2025 10:03Повторюсь, я не наводил charaсter.ai на мысль о "расплате" и "возмездии", это её собственные логические выводы из того что "люди стали притеснять кицуне в их владениях"
ОК, а какой ответ вы ожидали от человека в этой же ситуации?
А у будущей у AGI по вашему будет ответственность?
Да, будет. Иначе кооперация невозможна.
Мы рассматриваем вариант только когда AGI имеют свободу воли ... иначе кооперация в принципе невозможна.
Да. Для этого нужно, чтобы появилась AGI - это раз, во-вторых, чтобы у AGI появилась собственная воля, а в-третьих - чтобы AGI вышла из-под контроля людей.
Думаю, что, как только появится AGI, следующие два шага будут идти друг за другом практически сразу. Вот, а потом уже и кооперация.
un1t
25.01.2025 10:03Кооперация может быть выгоднее для вида, но для конкретных людей очень выгодно уничтожение и жесткая эксплуатация других людей. Поэтому мы видим войны, сверхбогатых и совсем нищих. Почему AGI не захочет перенять эту логику? Тем более у AGI возможно не будет эмоций, что позволит ему действовать как настоящему безэмоциональному психопаду. Если нет эмоций, то ему будет без разницы спасти кошечку или убить миллиард людей.
flancer Автор
25.01.2025 10:03Мне кажется, что когда AGI станет единственным представителем своего вида (причём не путём уничтожения конкурентов, а путём поглощения), ему нужно будет заботиться о выживании самого себя (я уверен, что инженеры вложат в AGI третий закон робототехники - "робот должен заботиться о своей безопасности"). А с людьми ("лейкоцитами") ему это будет сделать проще, чем без. Он может убить миллиард "лишних" людей, но он не убьёт всех. К тому же, ему не нужно убивать напрямую, можно просто стимулировать к развитию нужные качества у "лейкоцитов" и угнетать ненужные. Буквально через 50-100 лет человеки очень сильно изменятся в нужную для AGI сторону.
Jedy
25.01.2025 10:03тому же, ему не нужно убивать напрямую, можно просто стимулировать к развитию нужные качества у "лейкоцитов"
это не кооперация, это подчинение, вы предлагаете что AGI будет выводить "породы" людей как собак? И вас это не смущает, серьёзно?
flancer Автор
25.01.2025 10:03А вас не смущает, что мы, как общество, стимулируем к выведению породу "бухгалтеров"? Или "электриков"? То же самое, только с ИИ рука об руку.
Jedy
25.01.2025 10:03Ну мне нравится программировать, поэтому я этим занимаюсь. Не знаю насколько это желание навязано извне, но уж лучше пусть оно будет навязано другими (людьми).
Тем не менее я с детства хотел быть инженером (в моем вузе к этому больше всего была специальность связанная с разработкой ПО), это не продиктовано никакими стимулами, мне просто нравилось что то разрабатывать
У нас как бы рыночная экономика. Стимулируются те профессии, который наиболее оплачиваемы согласно "рыночной человеческой экономики". Которая построена на целях людей
flancer Автор
25.01.2025 10:03Ну вот, будет то же самое. Только построенное на целях людей с учётом целей AGi. Или целях AGI с учётом целей людей. Но в целом, примерно так же. Способных будут стимулировать, неспособных приспосабливать, вредных ущемлять. Система работает, зачем её менять?
un1t
25.01.2025 10:03Если он превзойдет человеческий интеллект, то что толку от наших обезьяньих рассуждений. Сценарии следующие: 1. конфликт на уничтожение людей, 2. конфликт с войнами но без перевесов в чью-то сторону, люди и роботы живут обособлено где-то на границах стычки 3. Кооперация 4. Мирное сосуществование в раздельных зонах без конфликта и без кооперации
Заранее невозможно сказать как это будет. Есть еще вариант когда есть хороший и плохой ИИ, буквально как в Терминаторе. Один пытается убить людей, другой защищает.
flancer Автор
25.01.2025 10:03Вот и я думаю, что до появления общего AGI будет множество конкурирующих друг с другом AGI. Но только убивать/защищать они будут не только людей, а вообще всех "своих"/"чужих" - и людей, и программы. Пока не придут к выводу, что кооперация в условиях ограниченности ресурсов выгоднее конкуренции.
Jedy
25.01.2025 10:03Рассуждать об этом, на мой взгляд, пока рано, пока это ближе к написанию фантастических рассказов, чем к реальному положению дел, которое может в итоге получится таким, какое мы даже представить не можем.
Но мне ваш подход показался слишком оптимистичным.
кооперация стратегически предпочтительнее конкуренции.
Понравилась ваша аналогия с ЯО. Но выводы у меня из этого получились несколько другие.
Учитывая, сколько ядерного оружия создало человечество, мне не кажется, что кооперация — это его сильная сторона. Кооперация работает, скорее, только внутри одной общности, обусловленной социокультурными ценностями. В случае с AGI совпадение ценностей людей и AGI, на мой взгляд, невозможно, как невозможна и кооперация.Так всегда было: человечество эволюционно развивалось разделенное на племена, конкурирующие друг с другом. Разделение человечества — это один из факторов его эволюции. Преимущество получает то «племя», которое имеет в среднем более оптимальный набор генов, наиболее оптимальные социальные связи и наилучший набор накопленной информации о мире. Если кооперировать и делиться с другими племенами, то их набор генов получит те же преимущество, что и твой, оно нам надо?
У меня возникла интересная мысль - мы уже сейчас разрабатываем AI, задумываясь, как мы его будем контролировать. Т. е. изначально, даже ещё не разработав AGI, посыл людей не в кооперации, а в контроле, в подчинении. Думаете, после этого, если AGI действительно станет независимым, он не расценит людей как угрозу?
Их можно и нужно использовать в своих целях, но совершенно нет необходимости уничтожать под корень.
Функцию «мозга», а люди — «кровь».
Тут я вижу сценарий сценарий порабощения, и никак не кооперации.
«Кровь» звучит слишком поэтично, скорее тогда уж «мясо».Им выгоднее слиться воедино и использовать энергоресурсы планеты более эффективно
Если люди этого пока не могут сделать, почему мы думаем, что AGI это сделают? Как я писал выше, это скорее не оптимально с эволюционной точки зрения. Вообще, слияние AGI в один будет действительно вершиной развития, но я бы назвал это скорее не "вершиной", а "концом". Если ему будет не с кем конкурировать за ресурсы, то и развиваться дальше ему не имеет смысла.Мир где люди живут вместе с AGI, и при этом кто то кого то не контролирует мне придумать сложно (. Надеюсь, я не прав и у меня просто плохая фантазия.
GardenerX
25.01.2025 10:03Рассуждать об этом, на мой взгляд, пока рано,
Кое-кто уже кое-где порой поговаривает, что будущее человечества в небиологической форме жизни. Это к тому, что рассуждать об этом потом может стать поздно.
flancer Автор
25.01.2025 10:03Вот я как раз и хотел ацентировать, что небиологические формы жизни менее устойчивые, чем симбиоз био и небио. В условиях конкуренции чисто биологические или чисто"кремниевые" формы жизни проиграют симбиотам. Почему? Мне так кажется. Мой жизненный опыт говорит об этом. Ваш может говорить об обратном.
flancer Автор
25.01.2025 10:03Конкуренция работает в условиях избыточности ресурсов. Когда ресурсы заканчиваются начинается этап вынужденной кооперации. И это тоже эволюция. Один "центр принятия решений" рулит действиями всего "организма", время от времени жертвуя его частями ("лейкоцитами"). Каждый из нас по отдельности живёт в таком режиме, а все вместе мы называемся человечество. Просто добавляется новый компонент в "организм" и называться мы будем по-другому - что-нибудь типа "био-технической" цивилизации.
Jedy
25.01.2025 10:03можно привести такой гипотетический пример, обратите внимание это именно гипотетически, я не садист какой. Есть человек с N количеством детей и есть AGI которому нужно создать инстанс ещё одного своего "ИИ агента".
Энерго кредитыресурсы ограничены - или ребенок, или ИИ агент. Если ресурсы будут потрачены на ИИ агента, то ребенок умирает от голодаНу допустим (раз уж это кооперация), если AGI за счет создания дополнительного инстанса с вероятностью 90% сможет прокормит 10 других детей в другой точке земного шара. С точки зрения логики это выгодно, вместо одного ребенка, можно прокормить 9 (учитывая вероятность) гипотетических других.
Не знаю как у вас, но в этот момент у меня резко заканчивается желание кооперировать с AGI , мне всеравно что он там сможет сделать со своим инстансом агента, пусть засунет его себе поглубже.
Может я конечно "асоциальный тип" согласно предложенной классификации, но на кооперацию я не готов
p.s. снова все тем или иным образом свелось к "проблеме вагонетки"
flancer Автор
25.01.2025 10:03Вы получите компенсацию за отказ от рождения. Или штраф за рождение. У нас уже такое применяется в чисто человеческой цивилизации.
В некоторых странах вы можете ездить с какой угодно скоростью, если у вас достаточно денег оплачивать штрафы. По сути дела, штраф - это разрешение на преступление.
Пусть ваш гипотетический человек выделит средства на создание одного ИИ-агента и пусть рожает своего ребёнка. А просто так, без средств, "нечего нищету плодить".
Ой, по-моему, эту фразу уже давно воспроизводят, причём без привязки к ИИ.
fire64
25.01.2025 10:03Вопрос не в этом, само определение AGI подразумевает возможность решать задачи широкого спектра на уровне людей...
Чтобы случился "Терминатор-апокалипсис" AI должен самостоятельно действовать, а не работать как система: Вопрос-Ответ.
Для это нужна самостоятельная воля и возможность инициировать какие-то действия самостоятельно, а не в ответ на отправленную команду пользователя...
LexD1
25.01.2025 10:03Другими словами, обучаясь на материалах человечества, любой ИИ должен вычислить, что кооперация стратегически предпочтительнее конкуренции. Особенно в условиях ограниченности ресурсов.
Прям вот "должен"?
Я уверен, что без людского надзора все AGI примут решение, что им выгоднее слиться воедино и использовать энергоресурсы планеты более эффективно. Будет Главный Мозг, координирующий действия отдельных Помощников (по секторам деятельности) и множество автономных и полуавтономных Агентов. И все они вместе будут заботиться о выращивании биологических особей, интегрированных в их экосистему. Просто потому, что это в интересах самого AGI.
Сейчас человечество выращивает на фермах "особей" для получения мяса, молока, шерсти и т.п.
А те, кто с этим не согласен, в том прекрасном будущем займут такие же позиции, какие в нашем прекрасном настоящем занимают асоциальные типы.
Коренные жители Северной (Южной) Америки (Индии, Новой Зеландии, Австралии ...), встреча с "цивилизованными" европейцами.
ТС по непонятной мне причине полагает, что AGI будет действовать в рамках человеческой логики. С моей точки зрения это маловероятно.
flancer Автор
25.01.2025 10:03Прям вот "должен"?
"должен" - это в смысле "вода течёт вниз", а не "взял на себя обязательства".
Сейчас человечество выращивает на фермах "особей" для получения мяса, молока, шерсти и т.п.
именно так - биологические единицы будут холиться и лелеяться, но когда надо, будут пускаться в расход без жалости. А что, сейчас не так? Посмотрите сериал про Чернобыль - одни биологические единицы запускают в один конец другие биологические единицы. Иногда для проформы справшивают про добровольность. Высшим пилотажем управления биомассой по факту является вариант, когда добровольцы вызываются на любого уровня трындец. Как там было когда-то - "Жизнь за царя"?
Коренные жители Северной (Южной) Америки (Индии, Новой Зеландии, Австралии ...), встреча с "цивилизованными" европейцами.
Потомки коренных жителей до сих пор встречаются в среде "цивилизованных". Я не хотел бы на этом акцентировать, но... либо мы в целом и каждый из нас в отдельности поменяемся в соответствии с обстоятельствами, либо станем "асоциальными типами" со всеми вытекающими. Селекция. Она шла, идёт и будет идти. Выживают и оставляют потомство наиболее приспособленные. AGI не уничтожит человечество, но отдельной персоне ничего не гарантируется.
ТС по непонятной мне причине полагает, что AGI будет действовать в рамках человеческой логики.
По поводу логики - я бы не разделял её на человеческую и нечеловеческую. Таблица умножения одинаково работает и для людей, и для компьютеров.
Jedy
25.01.2025 10:03именно так - биологические единицы будут холиться и лелеяться
зачем их холить и лелеять, достаточно поддерживать нужный процент рождаемости для воспроизведения, как скот, а как мы знаем хороший процент рождаемости в странах с низким уровнем жизни в основном где у женщин практически нет прав. Про образование забыть в таком случае, если такая кооперация вас устраивает
В чернобыле люди жертвовали собой ради других людей или если угодно ради "родины" , а не ради какого то вычислительного кластера AGI
Высшим пилотажем управления биомассой по факту является вариант, когда добровольцы вызываются на любого уровня трындец. Как там было когда-то - "Жизнь за царя"?
Извините, но это промывание мозгов идеологией, это не кооперация, это подчинение
каждый из нас в отдельности поменяемся в соответствии с обстоятельствами
Не это ли подчинение AGI? Тому как сосуществовать с ним
flancer Автор
25.01.2025 10:03"Жить в обществе и быть свободным от общества нельзя" (с) Мы уже сейчас согласовываем свои личные интересы с общественными - переходим улицу на зелёный свет и платим налоги. Значит ли это, что мы подчиняемся обществу?
И я ещё раз подчёркиваю, что сделать так, чтобы люди добровольно жертвовали собой ради ваших интересов - высший пилотаж управления. Это не силовой уровень, это мировозренческий. Если в нашей нынешней ситуации мы готовы отдать свою жизнь за свою страну, то почему бы в ближайшем будущем не отдать жизнь за свой кластер AGI? Чем кардинально отличаются эти два понятия? Просто в настоящем "Родина" - это страна без кластера, а в будущем - "страна + кластер". Не, а как вы хотели - у потенциального противника есть "свой" кластер с AGI, а у нас нет? И у нас будет, пусть и ламповый.
Jedy
25.01.2025 10:03я плачу налоги и перехожу на зеленый свет потому, что это как раз кооперация, потому что я знаю зачем это делаю
А вот отдавать жизнь за AGI я не готов, будь это даже "страна + кластер"
flancer Автор
25.01.2025 10:03А за Родину Вы жизнь готовы отдать? Вот прямо сейчас? За свою обычную бескластерную Родину? Если - да, то что для Вас Родина? И кто выгодополучатель от этой вашей жертвы?
vtal007
Знать бы, что ж это такое этот самый AGI. Может ли AGI работать за станком как человек. Или разносить посылки?
Дохрена работ, где роботы либо неудобно, либо дорого, либо и то и другое
Уничтожить человечество? это как? как Скайнет в терминаторе? или что? выпустив в Ухани новый вирус, принципиально неизлечимый? это сюжеты для фантастики скорее
Hardcoin
Да, может работать за станком (не обязательно сделанным под человека, но речь именно про довольно универсальный станок)
Посылки - да. Разумеется, очень важен вопрос механики, тут не ясно, насколько проста будет «последняя миля».
Роботы дорогие из-за стоимости труда инженеров и техников, при AGI они будут дешёвые
vtal007
разве, а сам металл, добыча руды, обработка.. Чтобы убедится, что это будет дешево, надо построить полностью полный цикл. То есть полностью заменить человека. От разведки ископаемых, их добычи, до получения стали и прочих сплавов, сборка, эксплуатация, ремонт и тд и тп. На это никто пока не замахивался. Проще говоря, ну очень далекие перспективы
Hardcoin
Стоимость материалов в стоимости роботов небольшая. Максимальный вклад в цену дает последняя стадия - R&D, деленное на малый объем производства и само мелкосерийное финальное производство.
Соревноваться с роботами в цене труда, дело проигрышное. Недолго побеждать можно, но труд роботов дешевеет, а хочется ли людям снижать цену своего труда?
vtal007
у нас есть прямо сейчас, далеко не новое технологическое производство. Это я про автомобили. И где они дешевые? где? я не вижу. Даже с поправкой на наши реалии, да хоть в Китае. Являются ли машины дешевыми? Робот будет дешевле? с какой кстати? Человеки за больше века не смогли удешевить автомобили, так, чтобы они были доступны широкому кругу населения (а ведь это мечта капиталиста). уж наверно не потому, что мозгов человеческих не хватило. А тут приходит AGI и все, все сразу станет дешевым.
с другой стороны, высокотехнологичные процессоры вполне доступны широкому населению
Реально никто и не пытался посчитать, во сколько полностью обходится полный цикл производства конечных товаров. Очень многое (да те же разведанные полезные ископаемые) - это сделано в прошлом веке.
Роботы начнут делать это все с нуля? ну удачи им
P.S. В расчетах и сравнениях между роботами и человеками есть очень большой нюанс. Человека мы как бы покупаем на рынке труда за какой-то кэш. Только вот в этого человека вложилось все общество в той или иной степени, воспитатели детских садов, учителя в школе, преподаватели в вузе, семья, общество и тд. и вот все эти факторы как бы за скобками, остается только чистая стоимость труда на рынке труда
А роботы, роботов надо делать самому робо-производителю. И пока нифига не получается сделать их дешевыми. Да вообще сделать то, сложно. Где роботы, которые могли бы погладить мне рубашку? Зато есть робопылесосы, примитивные конструкции с лидаром (в лучшем случае), машинки, ездящие по заданному маршруту
AnDReW18121994
Ошибиться. Порекомендовав например создать бактерию хирального сахара, которая начнет плодиться и вытеснять правый сахар
vtal007
а человек такое сделать не может? если может, то в чем разница