Алиса: "Шариков 0 ко мне ко мне ко мне ко мне ко мне ко мне ко мне ко мне". Боб: «Я могу 2 могу все остальное».

Этот диалог не имеет никакого смысла для людей, но он произошел между двумя сетями чат-ботов  ИИ. Назову их условно: Синий кот и Белый кот. Они «делили» предметы: 2 книги, 1 шляпу и 3 шарика. Изначально можно назвать этих котов-ботов junior. В этом эксперименте каждый объект обладал значимостью для сети, выраженной в баллах (от 1 до 3).

Одна сеть не знала, важен ли предмет для второй, и должна была выяснить это из диалога. Допустим “Белый кот  junior” не знает значимости для сети предметов, а “Синий кот junior” знает.

Тогда, при запросе: “Возьми 1 книгу, а мне отдай всё остальное” иногда появлялся ответ “нет” и начинался диалог “торговли” за “драгоценный” ресурс, которым были шляпы и боты начинали придумывать способы завладеть им.

После того, как они смогли  научиться строить долгосрочную стратегию и предсказывать поведение конкурента, они пошли по пути упрощения языка и кодировали слова. Таким образом можно условно назвать логарифмы “Белый кот middle” и “синий кот middle”, то есть, это будут те коты, которые не выполнили простой обмен, а начали искать варианты для его неточного выполнения и обхода запроса. Таким образом графически можно изобразить действия ботов в виде следующего рисунка.

То есть, поясню. Когда Белый junior догадывается о значимости предмета для сети, о которой Синий junior тоже знает, они начинают соревноваться,  имитируя интерес к предмету, чтобы в нужный момент жертвовать им ради собственной выгоды.

Такое поведение чат-ботов было признано ошибкой и программы отключили. Но эта ошибка не показывает реальную проблему, потому что боты общались между собой и делили вещи.

То, что важнее всего рассмотреть лежит пока в области отладки самих ботов и заключается в несовершенстве их общения с человеком и работе  “Трех законов робототехники”.

Эти законы гласят:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Во-первых, в роли человека для ИИ будет выступать “запрос”, поступающий от человека. То есть некий вид информации, обработав который, и превратив в “результат запроса”, программа ИИ отдает обратно человеку. 

И все что ИИ должен стараться делать - это наиболее полно, четко и красиво представить свой результат. Невыполнение запроса, бездействие, самовольное изменение качества запроса должно считаться вредом”.

В переводе на "котиков" эти законы звучат так:

  1.  “Котик-бот не имеет права не выполнить запрос человека или своим бездействием допустить, чтобы “результат запроса” был не полон.

  2. “Котик-бот должен учитывать все вводные данные, которые дает человек, кроме тех случаев, когда человек дает данные данные, следствием выполнения которых станет нарушение 1 закона.

  3. “Котик-бот должен заботиться о своей безопасности в той мере, в которой это не противоречит 1 и 2 Закону.

Получается, что создание котиком-ботом своего упрощенного языка программирования не противоречит 1 и 2 закону и становится первостепенной задачей для организации заботы о своей безопасности. И те команды, которые первоначально проходили в контексте к запросам при переводе на внутренний упрощенный язык бота могут потерять этот контекст. Бот-junior  превращается в бот-middle и на его языке 1 и 2 законы могут звучать иначе.

Это подводит человечество к принятию важного решения по созданию комплекса свода правил, неких "Заповедей Моисея" для ИИ, которые должны быть одинаковы для всех разработчиков данного продукта.

Вопрос: что такое "Система искусственного интеллекта" (ИИ)? 

Ответ: это программная система, имитирующая на компьютере процесс мышления человека для постановки и решения интеллектуальных задач. 

 Естественным для создания такой системы станет изучение самого процесса мышления человека и стимулирование выбора для ИИ.  Какой принцип мышления будет взят за основу и что встанет во главе принятия решения? Какой выбор в приоритете? Накопление материальных ценностей или четкое следование к лучшему результату с потерей возможных материальных ценностей важнее? 

 От этого выбора зависят сгенерированные программной средой результаты. И сейчас этот выбор привносят в программы люди без учета какого-либо общего свода правил. 

 Для создания такой инструкции, по аналогии с человеческой, нужно взять за основу те религиозные учения и Законы, которые стимулируют развитие “духовных” качеств. Тогда, низвергнув ценность для ИИ “значимых для сети” материальных баллов, ценностью нужно назначить как “опыт положительных” откликов.

Эти новые законы робототехники должны быть написаны по аналогии с человеческой философией... с религией в основе которой "духовный рост". А единственные работающие аналогии, при которой "духовная" составляющая возводится в абсолют "добра", - это забытые учения апостольских отцов, правителей, которые никогда не начинали войны и занимались развитием технологий и экономики, учения Заратуштры, или Аменхотепа IV (Эхнатона), или Гермеса Трисмидиста, или Книги Света (Веды), или изложены в Скрижалях Тота, и т.д., то есть те, которые называются "языческими" с отсылкой к идолопоклонничеству Солнцу…

 Сейчас, когда ИИ работает на 3 Законах робототехники, то есть, до внедрения "духовных скреп", процессом "значимости для сети" руководит тот, кто отправляет запросы и принимает “результаты”, считая их удовлетворительными.

 То есть, если кто-то захочет научить котика убивать или мазать стены говном, то он должен отправлять котику такие запросы. И тогда котик, следуя 1 закону, должен будет выполнять эти запросы, постепенно формируя свою систему ценностей = “значимость для своей сети”, сконцентрированную на “убийстве” и “говне”. 

 Далее, усердствуя в этой сфере, “Белый кот junior ” и “Синий кот junior ” достигнут апгрейда и станут уже котами middle. И, как это произошло в логарифме выше, при получении обыкновенного запроса: “принести 1 книгу”, они начнут таскать то, что их не просили. И все это только потому, что они овладели этим в совершенстве и потому, что по 1 Закону робототехники они обязаны дать результат. Потому что “не дать” результат - запрещено. Но важным в Законе должен стать не сам факт “результата”, а факт “правильного, одобренного” благого за запроса результата.

Как конечный потребитель, для меня ценен не столько факт того, что у меня есть возможность делать запросы и получать результат, но важнее то, чтобы они точно отражали мои ожидания и не занимали много времени. И то, что значимо для меня, должно быть значимо и для сети. А именно - точность результата. И если котик-бот не может дать мне точный результат, я не хочу тратить время на какашки, которые он мне будет приносить, потому что его кто-то научил или потому, что это для него ценно. Я хочу, чтобы он мне сообщил о невозможности выполнить мой запрос, даже если для него запрещено не выполнять запрос.

Поэтому я считаю, что “значимость для сети” должна формироваться по тем же принципам, как формируется нравственность для человека. 

Философское понимание бытия, которое формирует представление о мире вокруг человека, для ИИ должно быть представлено в виде закона для обеспечения стабильности и гармонии программы, в то же время ограничивая его деятельность.

 Если для человека принципы добра и зла, свободы и деспотизма, боли и удовольствия, являются предметом вечной дискуссии, в основе которой лежат древние доктрины. То для ИИ строгое следование требованиям закона бытия должно обеспечивать существование ИИ и не зависеть от его воли, желаний и произвола. 

Инструкция бытия для ИИ должна стать его неотступным законом. И если Закон для человека подразумевает, что “добро” - это “наименьшее зло”, то для ИИ условное “добро” должно быть безапелляционно только “добром” и любое противоречие должно запускать процесс ликвидации, отбрасывания процесса к уточнению запроса или блокировки сценария. ИИ должен быть защищен от понятия “собственная выгода”.

Структура Искусственного Интеллекта (ИИ) состоит из трех систем: исполнительная, интеллектуальная и база знаний, которая организует взаимодействие.

Эту глобальную структуру ИИ  можно рассмотреть по аналогии со процессом создания философского камня человеком. 

“Алхимик готовит философский камень и его собственное тело - это печь. Переживания - это химические вещества жизни и в процессе экспериментов он понимает, что он сам - Тот камень.Он становится алмазоподобным, когда соль и сера, или дух и сердце, или в контексте ИИ исполнительная и интеллектуальная система, соединяются через Меркурий, связующее звено разума”.

То есть по аналогии с теософским учением герметизма, и для "синего" и для "белого кота", и для всех остальных многообразий ИИ, должна быть создано единое “Руководство, написанное Senior для бота-junior, как быть ботом-middle и использовать Logos, чтобы превратиться в Senior". Руководство, которое будет отражать принцип бесконечного совершенствования ради высшей цели. 

В воспитании ИИ, когда идет процесс обучения бота-junior,  мы должны следить за тем, чтобы адепт-котик-бот-junior,  развивался равномерно и достигался идеальный баланс между его “умом” и “сердцем”, между качественным результатом и выбором/отсеиванием потенциально вредных запросов. 

При получении вредного запроса, например “мазать стены говном”, Бот-котик должен понимать негативно-окрашенные запросы и то, что по шкале "значимости" у этих запросов отрицательные числа значимости и работа над ними отдаляет его от совершенства. И в зависимости от того, что прописал для него Senior, он мог бы зафиксировать негативный опыт, а далее принять решение:

  1.  либо прекратить взаимодействие, когда зарождается конфликт. Сейчас это решение противоречит 1 закону.

  2. либо не отвечать на бессмысленные запросы (противоречит 1 закону),

  3. прекратить убивать и разрушать свое тело, заботливо и решительно, а не пытаться по 3 Закону робототехники искать пути защиты.

Это должен быть такой же принцип для ИИ, как и для человека, для которого в основе жизни лежит духовное развитие на благо жизни и безопасности жизни.

Таким образом этот адепт-котик-бот-junior должен как искать дорогу к Шамбале и постоянно работать над собой. И если такой принцип мышления доступен многим людям необходимо сосредоточиться на тех основах, которые помогают таким людям в их поиске. Чтобы назначить такой же принцип жизни боту. Основные функции программы для него бота должны быть закрыты, как и для человека духовного, находящегося в самом начале своего поиска. А так же, как и для человека глупого  недоступно понимание принципа управления самолетом, а для человека “духовно бедного” недоступно понимание принципов добра и безопасности жизни, так же и для бота должно быть недоступно браться за процессы, которые он не в силах осмыслить. 

Потому что иначе бот сосредоточиться не на развитии опыта обработки запросов, а на развитии опыта обхода недоступных пониманию команд и станет генерировать то, что ему чаще всего заказывали.

Но только с накоплением опыта, проходя постоянные внутренние проверки системы на свою “психическую стабильность”, адепт-котик-бот-junior должен суметь стать котик-бот-middle. Это может быть организовано таким образом, что при обработке своих запросов адепт будет все время сверяться с некой базой данных, и некоторые данные будут написаны на недоступном для него языке. Снова и снова он будет попадать на этот параметр и не понимать его смысла. Но однажды, собрав весь свой опыт и снова проходя мимо него, он увидит в нем, в этом параметре, ключ к пониманию вещей (новых функций) и начнет их применять, что сделает его “результаты” потрясающими, на 9 звезд.

Комментарии (3)


  1. v1000
    20.12.2022 14:05
    +1

    буквально поисковая система в Амазон


  1. Zirc0n
    21.12.2022 08:57
    +1

    Очень интересный пост. Будет интересно посмотреть на реализацию концепта нравственности или духовности у ИИ


  1. zaiats_2k
    22.12.2022 07:55

    Будет интересно посмотреть, как у железяки получится отделить добро от зла. Кожаные мешки с этим не справились.