Рассуждения основаны на знании общего алгоритма разума, приведённого в статье «Конструктивное определение искусственного интеллекта». https://habr.com/ru/articles/823458/

Этого алгоритма достаточно для того, чтобы дать исчерпывающий ответ на поставленный вопрос.

Без сомнения, ИИ очень полезный инструмент. Но, всякое решение плодит новые проблемы (закон Мерфи). Это относится к любому техническому решению.

Возможные виды опасности

Опасность ИИ может быть двух видов:

  • Пассивная. Это опасность от неправильных решений, которые являются следствием несовершенства систем ИИ. Если несовершенство суть просто недоработка системы, то со временем оно будет исправлено. Если же несовершенство лежит в основе самой схемы ИИ, то опасность реальна. Применение таких систем должно быть сильно ограничено, им нельзя доверять принятие важных решений, таких как управление транспортом, например.

  • Активная. Это опасность осознанной борьбы систем ИИ с человеком. Причём, случай с системами вооружения, когда ИИ правильно выполняет задания, сюда не входит.

Нас интересует именно второй пункт.

Какие системы могут быть опасны?

Отличие разумной системы от современных систем ИИ состоит в том, что разум имеет встроенный механизм (инстинкт) самосохранения. Активно бороться может только такая система, которая его имеет. И только с тем, кого она определила, как источник опасности для себя.

Искусственную систему с инстинктом самосохранения можно считать системой искусственного разума (ИР).

Механизм инстинкта самосохранения

Основой конструкции системы ИР является механизм сигнализации об опасности. Буквально этот механизм анализирует текущее состояние самой системы и определяет, является ли оно опасным для работоспособности системы. Откуда берётся этот механизм в системе? Рассмотрим возможные варианты.

Опасность для системы – это отказ либо элемента (подсистемы), либо системы в целом. На примере организма, это либо заболевание органа, либо смерть организма. Организмы имеют нервную систему, которая сигнализирует о неполадках в органах или системных неполадках задолго до их отказа. В случае искусственной системы аналогом может быть система датчиков, которые сообщают о соответствующих неполадках. Это встроенная система.

Можно ли добиться того же с помощью обучения? Можно, но... Обучение будет состоять в том, что отказ элемента или системы в целом должны будут отмечаться, как отрицательная ситуация. В результате обобщения будут выделяться состояния системы, предшествовавшие отрицательным ситуациям, и отмечаться, как опасные. Для того чтобы это было возможно, во-первых, в системе должен быть встроенный механизм сообщения об отказах элементов и даже самой системы в целом. Во-вторых, эти отказы должны устраняться и учитываться в опыте системы, который будет обобщаться.

А как с технической точки зрения могла возникнуть и развиваться нервная система организмов, которая сигнализирует болью о любых, даже небольших, отклонениях в функционировании органов от нормы? Или страхом в случаях опасности уничтожения, когда физический контакт ещё не наступил? Может быть только три варианта:

  • Создание сразу готовой «конструкции» организма;

  • Учёт индивидуального опыта жизни организма в последующих поколениях;

  • Случайные мутации и наследственность.

Современная наука видит только третий вариант. Но, для искусственных систем он вряд ли будет сделан.

Итак, систему ИР мы представляем, как материальную систему, которая страдает вследствие поломки её материальных элементов. В результате анализа опыта этих страданий, в ней возникают знания и умения для борьбы с "материальными" опасностями, то есть с угрозами поломки материальных элементов. И, в любом случае, в системе должен быть встроенный механизм сигнализации о состоянии системы (либо неполадках, либо отказах), который является основой для формирования этих самых знаний.

Личность как система в системе

Однако есть ещё один вариант разумной системы, не материальный, так сказать.

Рассмотрим механизм инстинкта самосохранения более подробно.

Самый первый уровень опасности - непосредственно нарушение функционирования элементов системы. Но, разумная система на то и разумная, чтобы не доводить до первого уровня. Для этого состояние системы, где появляется вероятность перехода на этот первый уровень, должно расцениваться, как опасность. Ему присвоим второй уровень. Далее, если есть вероятность перехода на второй уровень, это будет опасность третьего уровня. И так далее. На каждом следующем уровне опасности вероятность перехода на первый уровень будет конечно уменьшаться.

Возникает два вопроса:

  1. От чего зависит количество возможных уровней опасности?

  2. От чего зависит, когда система уже не считает опасность реальной?

Количество возможных уровней опасности будет зависеть от вычислительных возможностей системы. Ведь чем они больше, тем на большее количество шагов вперёд система сможет просчитать ситуацию.

А то, до каких пор система будет считать опасность реальной, определяется настройкой системы, которая в случае организмов называется характером. Чем меньше вероятность опасности, которую система расценивает как реальную, тем она более осторожна.

Теперь возьмём в качестве примера разумной системы человека. Его вычислительные возможности в плане оценки ситуаций достаточно велики. К тому же, человек существо социальное. А у таких существ социальный статус сильно влияет на потенциальные возможности по удовлетворению потребностей. Понижение статуса - это уже реальная опасность. Но, у человека доходит до того, что просто словесные намёки на возможность понижения статуса, которые иногда являются пустыми оскорблениями, уже расцениваются как опасность. По крайней мере, как отрицательная ситуация.

Более полная картина выглядит следующим образом. В процессе взаимодействия с другими членами социума у человека возникает модель самого себя, как члена общества, которая включает в себя знания, убеждения, самооценки по уровню знаний, эффективности и т.д. Эта модель называется личность, и она является результатом сравнения себя с окружающими. Так вот, в итоге, личность в человеке становится относительно самостоятельной разумной системой, имеющей свой инстинкт самосохранения. Его ещё называют ЭГО или чувство собственной важности. И очень часто бывает, что субъективная опасность для личности, которая возникает в некоторых социальных взаимоотношениях, никак не связана с реальной опасностью для удовлетворения основных потребностей тела. Личность можно назвать нематериальной системой разума, имеющей инстинкт самосохранения. Системой в системе. И опасность для неё может исходить только от других личностей того же самого социума.

При каких условиях система ИР может стать опасной?

Теперь можно перейти непосредственно к анализу условий, при которых система искусственного разума может представлять активную опасность.

Сначала рассмотрим локальные автономные системы. Это то, что мы называем роботы. Конечно, только те, которые имеют механизм (инстинкт) самосохранения. Не просто способность избегать препятствия, полученную в результате обучения, а знания, как избегать опасности, полученные в результате самообучения на основе сигналов от аналога нервной системы. Похоже, что сейчас таких роботов, которые в полной мере отвечали бы таким требованиям, нет. А могут ли появиться в будущем? Сделать то в принципе можно, но зачем? А затем, что умный робот штука дорогая, поэтому логично, чтобы он имел механизм самосохранения. А как же тогда три известных закона?

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Беда в том, что эти три закона не для нашей с вами реальности. В Англии говорят, что слово джентльмена закон. При этом добавляют: только если оно дано джентльмену. Люди враждуют друг с другом, поэтому эти три закона фактически будут иметь немного другой вид.

  1. Робот не может причинить вред (хорошему) человеку или своим бездействием допустить, чтобы (хорошему) человеку был причинён вред.

  2. Робот должен повиноваться всем приказам, которые даёт (хороший) человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Таким образом, робот сможет научиться быть опасным для плохих людей, если те будут опасны для него. Конечно, здесь речь может идти только о материальном аспекте опасности. Даже если у роботов появится личность, их чувство собственной важности будет иметь значение только в их, роботов, социуме.

А кто будет определять, какой человек хороший для робота, а какой плохой? Это будет прошивка? Если нет, то в условиях быстро меняющихся отношений между людьми, критерии могут поплыть, и робот поймёт, что все люди странные существа и могут быть опасны. Но, один робот в поле не воин. Нас волнует глобальная угроза. А для этого «обиженные» роботы должны само организовываться в тайные сообщества борьбы за свободу против угнетателей людей. Это уже очень трудно себе представить. Думаю, такой вариант исключён.

Теперь  рассмотрим глобальные системы искусственного разума. Имеются в виду  глобальные системы управления. Прежде всего, необходимо уяснить, зачем такие системы могут быть созданы? Конечно, основная цель – повышение эффективности управления некоторыми функциями общества в целом. Среди таких функций очень важные: финансы, транспорт, информация.

 А в чём причины недостаточной эффективности управления в этих областях? Самой важной причиной является так называемый человеческий фактор: склонность некоторых людей ко лжи, коррупции, безответственности.

Но, в стремлении устранить человеческий фактор при помощи ИТ, мы не учитываем то, что с ростом сложности программных систем очень быстро растёт их способность совершать ошибки. И особенно это относится к большим системам искусственного интеллекта, которые должны принимать сложные решения на основе самообучения. Природу не обманешь. Поэтому, создание такой системы – большая авантюра.

Но, всё же, предположим, что такая система глобального управления создана. Опять же, «власть» такой системы вряд ли будет распространяться на всё человечество. Пока существует человеческий фактор, люди будут враждовать между собой, и каждая группировка будет создавать свою систему. Поэтому, создание глобальной системы, вроде «Скайнет» в фильме «Терминатор», исключено.

В каких условиях будет работать такая система? В реальных. Человеческий фактор никуда не денется. Это значит, что люди будут вносить хаос в её управление своими, перечисленными выше, качествами. Плюс всегда найдутся «пассионарии», которые будут вносить хаос сознательно. Из каких угодно соображений: философских, религиозных или просто, чтобы повысить свой социальный статус. И конечно, в условиях конкуренции между разными группировками людей, будет и противодействие от других систем глобального управления. Вот в таких условиях разумная система управления будет бороться с хаосом для повышения эффективности управления и целостности управляемой системы. Способ только один – усиление контроля, то есть, ограничение свободы в управляемой системе. Именно такой случай показан в известном фильме «Я робот». И этот результат в случае построения глобальной системы управления практически неизбежен. Система будет вынуждена спасать людей от человеческого фактора. По сути, она и была создана людьми для этого!

Однако, строго говоря, этот случай нельзя назвать активной борьбой ИИ против людей. Система выполняет задание от людей сделать их жизнь лучше. В меру своего понимания, конечно.

Может ли в такой системе возникнуть личность со всеми вытекающими последствиями? Как было сказано, личность возникает в социуме в результате общения с себе подобными, с которыми есть конкуренция за ресурсы. Таких условий для глобальной системы управления нет.  К тому же, основой возникновения личности всё равно являются материальные опасности. Но, глобальная система, скорее всего, будет распределённой, то есть, фактически, нематериальной.

Как можно избежать сценария спасения нас от самих себя, если он нам всё-таки не подходит? Не строить таких систем.

А как же тогда бороться с человеческим фактором, который вносит очень большой хаос и лишние затраты во все аспекты жизни общества? Это интересный вопрос и стоит рассмотреть его подробнее. Конечно, не с моральной точки зрения, а с информационной.

Борьба с человеческим фактором

Для начала нужно разобраться, как работает человеческий фактор? Каков его механизм? Прежде всего, надо признать, что ложь, коррупция, безответственность - это действия осознанные. Люди знают о возможных негативных последствиях этих действий для себя и общества в целом. Но, совершают их. Почему? Потому, что есть выбор из двух вариантов: положительного и отрицательного. Положительный - это выгода для себя. Отрицательный - это не только возможная опасность для себя. Это ещё и моральный аспект, который называется совесть. Он, правда, тоже имеет информационное происхождение. Но, об этом позже.

Итак, человек имеет два варианта последствий от действия, которое он планирует совершить. Чтобы выбрать один из них, он их "взвешивает", то есть, вычисляет критерий. Из психологии нам известно, что критерий равен {уровень эмоций} умножить на {субъективную вероятность достижения}. Эмоции в данном случае - либо удовольствие, либо страдание. Пока муки совести в качестве страданий учитывать не будем.

Как рассчитывается субъективная вероятность последствий? На основе своих знаний и своих аналитических способностей (вычислительных мощностей). Знания – это свой опыт и доступный опыт других. А вот, аналитические способности - это не только IQ, который мы понимаем, как неизменную характеристику данного человека. К сожалению, наша наука не занимается вопросами о пределах человеческих возможностей в когнитивном плане. Но, есть "косвенные" данные, на основе которых можно сделать вывод, что уровень аналитических способностей (вычислительных мощностей) отдельно взятого человека может существенно возрасти. Это иногда происходит в стрессовых ситуациях, или как результат тяжелых целенаправленных тренировок. То есть, возможности для повышения вычислительных мощностей сознания в человеке заложены!

Это значит, что  с одной стороны, субъективная вероятность наступления жёсткой ответственности за плохой поступок, вычисленная человеком в обычном его состоянии, может быть очень маленькой. Потому, что от самого поступка наказание может отделять очень много шагов, и всё это теряется в будущем. А выгода прямо здесь и вероятность её равна единице. Выбор будет один.

А, с другой стороны, в состоянии повышенного сознания человек увидит все шаги сразу и поймёт, что наказание наступит неотвратимо. Или прямо, или опосредованно через близких, пусть через длительное время, но неотвратимо, с вероятностью единица. Выбор уже будет другой.

Кстати, контроль, как невозможность что-либо делать в тайне, тоже способ увеличения субъективной вероятности наказания. Но, снаружи, когда изнутри не получается.

Что такое совесть?

Теперь немного о совести. Что это такое? Если кратко, не вникая в подробности, то это встроенная (подсознательная) защита от плохих поступков. Как она могла возникнуть? Как случайная мутация в процессе эволюционного развития? Вряд ли, иначе она была бы у всех. Как качество, передаваемое по наследству? Это возвращает нас к первому варианту. К тому же, совесть, похоже, не передаётся по наследству. К сожалению, научного ответа на этот вопрос пока нет.

Но, если порассуждать научно, то для объяснения этого феномена больше всего подходит ненаучная теория о переселении душ. Душа переселяется из тела в тело и накапливает опыт. Этот опыт в каждом новом теле содержится в подсознании. У людей со "старыми душами" (пережившими много воплощений), этот опыт проявляется как совесть. С информационной точки зрения здесь всё безупречно. Вопрос в механизме, так сказать. Для робота это сделать можно, если хранить его опыт на внешнем носителе. После "смерти" его "тела" можно  опыт обработать и переписать в другое "тело". И так далее.

Таким образом, эффективный способ борьбы с человеческим фактором существует, это повышение уровня внимания, сознания. Такое, когда включается режим увеличения вычислительных мощностей человека. Не путать с ростом сознательности, о котором говорили теоретики коммунизма.

Вот она, реальная опасность ИИ!

Было упомянуто, при каких условиях такой режим может включиться у отдельного человека. А у общества в целом? То есть, у всех и каждого. Просто за счёт понимания того, что это было бы хорошо, не получится. Есть опыт строительства коммунизма. Нужны такие условия, чтобы не было другого выбора. И они могут наступить, когда сильный искусственный интеллект (даже не разум) прочно войдёт в нашу жизнь. Он будет вытеснять нас из тех сфер деятельности, где он будет лучше. А это все физические виды и почти все умственные, связанные с языковыми моделями знаний. Тех знаний, которые могут быть выражены человеком при помощи языка.

И делать это он будет не по своей злой воле, а по желанию людей, воплощая их стремление к комфорту. Вроде бы это даже хорошо, но комфорт – это палка о двух концах. Человек быстро привыкает к хорошему, после чего оно уже перестаёт быть хорошим. Ему надо больше. И это относится не только к личности, но и к телу. Помещённое в комфортные условия, созданные извне, тело теряет часть защитных сил до тех пор, пока условия перестают быть для него комфортными. Надо создавать новые условия, ещё более комфортные. И так далее. То есть внешний комфорт заставляет тело деградировать. И личность тоже. Именно этот механизм лежит в основе подъёма и спада цивилизаций.

Удивительно, но «невозможно комфортные» условия, скорее всего, приведут к такому сценарию: одна часть общества придёт в физический и умственный упадок, а другой части поневоле придётся переходить в область более высокого сознания, куда роботам дороги нет. Да там они и не нужны.

Выводы

Восстания машин не будет!

Опасность в другом.

Искусственный интеллект нужен людям для следующих целей:

  1. Выполнять за них всю физическую работу;

  2. Как оружие, чтобы воевать с себе подобными;

  3. Как протез в виде глобальной системы управления, компенсирующий их недостатки в виде человеческого фактора. Это значит, что ИИ берёт на себя и большую часть умственной работы.

И это «светлое» будущее, к которому так стремятся люди, поставит их на грань вырождения. И заставит часть из них активизировать свои «скрытые» возможности, переходя в область более высокого сознания. Это то, что иногда называют не технократическим путём развития цивилизации. Скорее всего, техника, включая системы ИИ, останется, но будет использоваться в меру. Так, чтобы это не привело к деградации людей.

А может, это и не такая уж опасность?

Комментарии (23)


  1. GeorgKDeft
    02.09.2024 08:36
    +2

    История с И.И. подразделяется на два типа поведения.

    1. Когда вам ее надо продать чтоб получить много-много денег. Что то вроде того как столетие назад продавали хиромантию, гадание разных видов и веру в сверхъестественное

    2. Когда вам реально надо что-то сделать. Тут уже танцы с бубнами(магазины без продавцов в роли И.И. в которых через время выясняется были толпы индусов) и т.д.

    Все остальное это попытка натянуть исторические страхи на новое пугало И.И. примерно так же как когда то боялись новых технологий, потому что их нельзя было использовать как старые.


  1. vasiljevserg Автор
    02.09.2024 08:36
    +1

    Это комментарий к названию или Вы успели прочитать остальное?


    1. GeorgKDeft
      02.09.2024 08:36

      Да оно все одинаковое.. особенно когда пытаются найти сознание в алгоритме. Не то что бы ново.. люди и с автомобилями порой разговаривают. Или у вас есть что то в тексте уникальное и новое по вашему?


  1. vasiljevserg Автор
    02.09.2024 08:36
    +1

    "Вам мои стихи не нравятся? А Вы их читали?" "Что, я других не читал? Ладно, поверю на слово, скажите сами, хороши ваши стихи или нет?" Не знакомо?


  1. Abstraction
    02.09.2024 08:36
    +1

    Цитата для примера:

    Обучение будет состоять в том, что отказ элемента или системы в целом должны будут отмечаться, как отрицательная ситуация. В результате обобщения будут выделяться состояния системы, предшествовавшие отрицательным ситуациям, и отмечаться, как опасные.

    Откуда вы это взяли? Это же одна из самых больших проблем безопасности современных ИИ - они строят правила, про которые известно, что а) на обучающей выборке это правило даёт (почти) вот такие результаты; б) из всех правил удовлетворяющих а), выбранное удовлетворяет некоторому постороннему условию оптимизации (обычно - что сумма квадратов параметров минимальна).

    Правил, которые бы соответствовали а) - много. Для любых "достаточно новых" входов правило имеет право давать любые результаты: к примеру, правило "делать блинчики с сахаром" и правило "делать блинчики с сахаром если на вход не попадалось решения RSA-2048, иначе делать блинчики с цианидом" одинаково совместимы с обучающей выборкой. Интуитивно, правило б) чем-то похоже на идею "самое простое правило из всех удовлетворяющих а)" (a.k.a. inductive bias), но это понятие "простого" довольно заметно отличается от человеческого. Легче всего это видеть на классификации изображений: ИНС проводит какие-то границы в пространстве наборов пикселей, но они проходят сильно не так как человеческие.

    Поэтому любая фраза "в результате обобщения будут <правило, описанное текстом короче гигабайта>" автоматически подозрительна: если вы не предприняли каких-то специальных мер чтобы ИИ-обобщение попадало в очень малое число таких способов проводить границы, которые допускают компактное описание человеческим языком - то странно ожидать что вы туда попадёте.


  1. vasiljevserg Автор
    02.09.2024 08:36

    "Откуда вы это взяли? Это же одна из самых больших проблем безопасности современных ИИ..." - Вы правы. Но, откуда Вы взяли, что у меня современный ИИ (нейросеть). У меня другой ИИ, свой, без нейронов. И в нём есть такой алгоритм обобщения, который делает как надо.


    1. Abstraction
      02.09.2024 08:36
      +2

      0) По-моему имеет смысл отвечать нажатием кнопки "Ответить" под сообщением, чтобы читателям комментариев была видна структура разговора.

      1) Если вы обсуждаете опасности ИИ и исходите из предположения что некоторые существенные на сегодня проблемы решены, то а) это имело бы смысл проговорить в тексте; б) неясно чем это полезнее анализа "если мы знаем как создать безопасный ИИ и имеем ресурсы и желание это сделать, то ИИ может быть безопасным".


      1. vasiljevserg Автор
        02.09.2024 08:36

        В статье всё, что нужно есть. Там сказано, что рассуждать об опасности ИИ имеет смысл только на основе адекватного знания механизма интеллекта. В смысле, сильного интеллекта. В статье «Сильный интеллект, что это значит?»  (https://habr.com/ru/articles/735136/) , по сути, описан мой подход к разработке ИИ. А современный ИИ в виде нейронных сетей стать сильным не имеет шансов, поэтому, он может быть опасен только своей глупостью.

        Вообще, есть два подхода к разработке чего либо: функциональный и копирование. Овладеть внешним видом, как говорил Жванецкий, это ещё не решение задачи. Могут быть нюансы. Если в случае копирования мозга при помощи персептронов получается не всё, то стоит подумать о правильности подхода. По моему опыту, функциональный подход даёт лучшие результаты. Хотя, он сложнее. Вместо эвристических способов соединения нейронов и разработки стратегий их обучения нужно разрабатывать очень сложные структуры данных и алгоритмы. Но, зато они универсальны!


        1. Abstraction
          02.09.2024 08:36

          В статье «Сильный интеллект, что это значит?»  (https://habr.com/ru/articles/735136/), по сути, описан мой подход к разработке ИИ.

          Как обратная связь: из текста статьи было совершенно не очевидно что она ссылается на другую.

          По делу, кратко (поскольку это другая статья): там не подход, там очень общие слова про подход без конкретных алгоритмов. "Идеальный" (в некотором определении идеального) алгоритм поиска алгоритмов называется "индукция Соломонова" и невычислим. "Идеальный" алгоритм сохранения знаний - сохранение полного цифрового потока, осмысленная работа с которым за разумное время опять-же невозможна. Идеального представления данных не бывает (см. разные теоремы о запрете бесплатных завтраков), бывают только хаки, которые работают именно в данном мире, а не во всех мыслимых, или хотя бы во всех мыслимых вычислимых мирах.

          Пока вы не привели конкретной модели взаимодействия агента с миром, хотя бы чисто теоретического конструкта уровня AIXI, любые словесные рассуждения "об универсальном представлении знаний" - это, извините, ни о чём. (А объяснение плохо формализованных конструктов вроде "совести" через никак не формализованные или хотя бы подтверждённые штуки вроде "души", гм, не наполняет меня как читателя оптимизмом.)


          1. vasiljevserg Автор
            02.09.2024 08:36

            Конкретные алгоритмы будут в следующих статьях по ходу программной реализации проекта. А по поводу идеальных решений. Ваш интеллект работает идеально? В смысле идеальной логики, строгих решений на основе строгих же доказательств? Или есть догадки, гипотезы, заблуждения и т.д. Математики додумались до персептрона, доказали его универсальность. А дальше? Кто во что горазд?


    1. GeorgKDeft
      02.09.2024 08:36

      И зачем вы его используете? Что обещаете инвесторам в случае покупки? И в целом как это все стыкуется с историей про переселение душ описанной в статье?


      1. vasiljevserg Автор
        02.09.2024 08:36

        Переселение душ упомянуто только как возможный механизм, который, на мой взгляд, лучше всего объясняет происхождение совести. Если у Вас есть идея лучше, расскажите. Чтобы говорить о том, что обещать в случае покупки, надо сначала сделать то, что можно купить. :)


  1. michael_v89
    02.09.2024 08:36

    Рассуждения основаны на знании общего алгоритма разума

    Это не алгоритм, а описание наблюдаемых характеристик. К тому же неправильное, классификация процессов почему-то не зависит от базы знаний. Информация для проведения классификации это не знания? И не полное, не указана обработка данных в виде фактов, например "На том дереве растет вкусная еда", указаны только процессы и алгоритмы.

    Разум – это поведение автономных систем, связанное с самосохранением. Разумная система стремится избежать попадания в отрицательное состояние, и держаться в положительном состоянии.

    Из этого следует, что спасатель, ныряющий в воду за машиной с пассажирами, упавшей с моста, не является разумным. Ведь он не стремится избежать попадания в отрицательное состояние.

    Конструктивное определение искусственного интеллекта

    В той статье нет определения искусственного интеллекта.


    1. vasiljevserg Автор
      02.09.2024 08:36

      По порядку.

      Рассуждения основаны на знании общего алгоритма разума

      В статье приведено общее описание алгоритма в виде, достаточном для целей статьи. Более подробное описание этих алгоритмов приводить нет смысла.

      Разум – это поведение автономных систем, связанное с самосохранением. Разумная система стремится избежать попадания в отрицательное состояние, и держаться в положительном состоянии.

      Не надо понимать инстинкт самосохранения так узко. Когда люди жертвуют жизнью ради других - это проявления инстинкта самосохранения системы, частью которой люди являются.

      Конструктивное определение искусственного интеллекта

      В этой статье есть исчерпывающее и конструктивное определение искусственного интеллекта.


      1. michael_v89
        02.09.2024 08:36
        +1

        Более подробное описание этих алгоритмов приводить нет смысла.

        Конечно есть. То, что вы не хотите его приводить по каким-то личным причинам, это другой вопрос.

        Не надо понимать инстинкт самосохранения так узко.

        Нет, выражение "инстинкт самосохранения" означает именно такое узкое понимание.

        В этой статье есть определение искусственного интеллекта.

        Нет. Ни исчерпывающего, ни конструктивного, вообще никакого.

        У вас есть фраза "А что такое интеллект?", и далее идет описание, для чего создаются искусственные системы, какой их главный критерий успеха, и утверждение "Понятие «искусственный интеллект» можно определить только на основе понятия «естественный разум»". Самого определения этого понятия там нет.

        Если есть, то вам не составит труда привести цитату с этим определением. Вы можете это сделать?


        1. vasiljevserg Автор
          02.09.2024 08:36

          Во-первых, спасибо за вопросы по существу. Во-вторых, труда не составит, только сейчас нет времени. Сделаю вечером.


        1. vasiljevserg Автор
          02.09.2024 08:36
          +1

          Цитаты из стати «Конструктивное определение искусственного интеллекта».

          А какое определение ИИ было бы абсолютно конструктивным? Такое, в котором используемые термины в конечном итоге, в процессе их определения,  сводились бы к однозначно понимаемым  терминам.

          И сделаем это в процессе рассуждений. Конечно, в более лёгком варианте, в виде общей структуры и общего алгоритма полнофункциональной системы ИИ.  Описание доведём до понятных функциональных модулей и потоков данных. Конечно, это будет не абсолютно формальное определение, как работающая система, но, на основе такого определения можно будет начать разработку реальной системы.

          То есть определение – это не просто одна фраза. Если в ней есть термины, которые могут быть поняты неоднозначно, они должны быть определены тоже. И так далее до общепринятых, однозначно понимаемых терминов.

          Например, в статье есть определение разума в виде одной фразы: «Разум – это поведение автономных систем, связанное с самосохранением.» В этом определении термин «самосохранение» должен быть определён. И так далее, И всё это приводит к описанию структуры и общего алгоритма разумной системы. Это и есть определение разума. Но, для полной конструктивности оно должно быть доведено до работающей программной системы.

          Теперь про определение интеллекта.

          А что такое интеллект?

          Искусственные системы создаются не для самосохранения, а для выполнения заданий от человека. То есть, главным критерием успеха и неуспеха для искусственной системы является достижение поставленной человеком цели. В этом и состоит отличие естественного разума от искусственного интеллекта.

          Это значит, что структура и алгоритм ИИ те же, что и у разума. Только плюс и минус ставит человек.

          Думаю, при внимательном чтении всё это можно было бы заметить.


          1. michael_v89
            02.09.2024 08:36
            +1

            Например, в статье есть определение разума в виде одной фразы

            Вот и определение искусственного интеллекта должно быть в виде одной фразы, ну или хотя бы одного абзаца. Никто вам не мешает давать определения других терминов в других фразах. Но чтобы говорить, что определение есть, фраза с ним должна быть.

            Думаю, при внимательном чтении всё это можно было бы заметить.

            Ну то есть определения у вас нет, тем более исчерпывающего и конструктивного, а читатель должен до него догадаться сам. О чем и речь.


            1. vasiljevserg Автор
              02.09.2024 08:36

              Ок!


  1. Devastor87
    02.09.2024 08:36

    разум имеет встроенный механизм (инстинкт) самосохранения.

    Чей разум?

    Человеческий разум такого инстинкта не имеет, например.


    1. vasiljevserg Автор
      02.09.2024 08:36
      +1

      Интересная мысль. А в данном случае надо рассматривать человека отдельно от его Разума?