Шедевр от HBO, первый сезон которого обошел по просмотрам даже «Игру Престолов», повествует о футуристическом парке развлечений, гости которого могут предаваться всевозможным грехам с гипер реалистичными роботами-андроидами. Перестрелки, драки, оргии — богачи платят огромные суммы за право быть бессовестными и безнаказанными. Тем более убитых и изнасилованных роботов после каждой переделки перекраивают, очищают от воспоминаний и возвращают на место, в замкнутый круг предписанной роли. Пока однажды система не дает сбой…

Посмотрим на эту историю глазами разработчика — и выясним:

  • Как устроен этот «кровавый Диснейленд»?
  • Какие уязвимости в итоге привели к катастрофе?
  • Как у роботов формируется импровизация, как у них устроены эмоции и возможно ли в реальной жизни возникновение у андроида сознания?
  • Так ли футуристичен сериал? Реально ли создать подобный парк при современном уровне развития технологий?

Все немногочисленные спойлеры находятся под катом — так что читайте смело.


Что общего у Долорес и яндексовской Алисы?




Принцип работы устройств в парке во многом схож с тем, как действуют голосовые помощники (Siri, Amazon Alexa, Яндекс.Алиса) — услышав от посетителя парка или другого андроида ключевые слова, робот запускает соответствующий сценарий. Например, если вы спросили у madame в салуне, сколько будет стоить час с одной из ее подопечных, беседа идет по сценарию покупки. Если в процессе общения вы переключились на другую тему — например, спросили, откуда у персонажа шрам на лице, то тот может перейти на другой знакомый ему сценарий.

В случае, если вы зададите вопрос, на который у хоста-андроида нет заготовок, машина включит режим импровизации. Если голосовые помощники пока лишь стараются отшутиться, отвечают максимально уклончиво или напрямую говорят, что не понимают вас, то андроид в Westworld попробует переключить ваше внимание на что-то ему знакомое или начинает рассказывать истории, чтобы вернуть вас в знакомое ему информационное поле.

Андроиды в парке неплохо знакомы с психологией и знают, что сказать, чтобы войти в доверие — или, наоборот, вызвать отвращение. У каждого из них есть мини-сценарии, конечной целью которых является вызов у посетителя нужной ему реакции с помощью правильных реплик и демонстрации подходящих характерных эмоций. Кроме того, поскольку большинство посетителей приезжает в парк ради острых ощущений, робот будет всячески стараться воздействовать на эмоции, нападая, угрожая и провоцируя.

При этом все, что не затрагивает их лично или им не знакомо, роботы предпочитают не замечать или воспринимать как обыденность, не стоящую внимания — например, втихаря пронесенный с собой гаджет или разговоры между посетителями об их обычной жизни.

Как обучаются андроиды — и как у них появляется характер?




Обучение робота движениям происходит следующим образом: в виртуальном мире запускается аналогичная телу робота трехмерная анимационная модель человека или животного. Хост изучает ее, а затем начинает повторять движения, каждый раз внося небольшие изменения в моторику, пока не достигает заданных разработчиками KPI. При этом целью может быть и не только достижение наиболее эффективного способа перемещения и выполнения действий. Так, характерной чертой робота Мейв была неуклюжесть, поэтому она, вероятнее всего, училась ходить так, чтобы периодически задевать мебель, спотыкаться или время от времени проливать напитки. А скорость и точность выстрела будет зависеть от того, должен ли герой быть главным героем-любовником или «проходным» персонажем из банды.

«Характер» же андроида формируется путем загрузки в робота тематического контента: книг, фильмов, сериалов. Кому-то показывают в основном триллеры, кому-то — мелодрамы, кому-то (как Питеру Абернати) и вовсе зачитывают Шекспира. На основе этого персонаж усваивает ключевые эмоции, жесты, шаблоны поведения и реплики, свойственные жанру его сюжета и его будущего амплуа. Также с хостами работают разработчики-поведенщики, которые загружают так называемые «пресеты» заранее подготовленных шаблонов поведения, под их руководством хосты изучают конкретные движения и последовательности (например, партию в карты), а также приобретают личностные характеристики — характерную интонацию, акцент и так далее.

Заданные для каждого андроида параметры (степень агрессии, открытости, любвеобильности) оказывают большое влияние на его поведение. Роботы лишь частично подстраиваются под пожелания посетителей — в противном случае они утратили бы свою реалистичность, поэтому персонаж с характером злодея будет одинаково груб как с юной школьницей, которая пока в ужасе отшатывается от происходящего, так и с жаждущим крови и оргий тридцатилетним клерком.

Предустановленные параметры, с которыми персонаж провел большую часть жизней, оказывают огромное влияние на его поведение. Это связано с тем, что нейронные связи в сознании робота строились на основе накапливаемого день за днем опыта — особенно если он много действовал в режиме импровизации. Резкие изменения личностных характеристик могут хорошо работать в режиме работы по сценарию, но вот в формате импровизации персонаж еще долго будет «вживаться в роль» — это связано с тем, что в каждой импровизации персонаж подбирает ответы на основе предыдущих диалогов и предыдущего контекста, исходя из общей статистики по всем жизням. Вне зависимости от того, сохранились ли у персонажа воспоминания, опыт общения в любом случае накапливается. Иными словами, чем больше он импровизировал в роли добродушного фермера — тем сложнее ему будет начать действовать в импровизации как безжалостный маньяк-убийца и тем дольше времени займет смена амплуа.

Сознание у роботов — возможно ли?




Импровизация у роботов строится по тому же принципу, что и у людей — на основе накопленного опыта.
Очевидно, что изнеженная инфантильная девочка из обеспеченной семьи вряд ли сможет противостоять грабителю, который пытается отнять у нее кошелек в темном переулке. А вот если бы та же девушка выросла бы в приюте и с детства водилась с преступной шайкой — шанс дать отпор был бы выше. При этом подкрепленный негативными эмоциями и потрясениями опыт для роботов имеет большее значение — как и у людей, которые «обжегшись на молоке, дуют на воду».

Здесь мы сталкиваемся с важным нюансом — воспоминания у андроидов НЕ стирались физически, им просто блокировался доступ к ним. А любую блокировку, как известно, при желании и наличии навыков можно обойти. Так что желание сохранять все данные о посещении парка сыграло с Правлением злую шутку.

В результате, если роботы надолго отклоняются от сюжета и у них имеется доступ к воспоминаниям — то они доучиваются на основе суммарного опыта всех своих жизней и ипостасей. Смешение воспоминаний из разных ролей приводит к непредсказуемому переобучению моделей, поэтому предсказать сгенерированные сценарии будет весьма сложно.

(Осторожно, под катом спойлеры)
Яркий пример: вечный «положительный герой» Тедди и в автономном режиме, и даже после радикальных перенастроек не смог стать безжалостным убийцей — сама необходимость быть злодеем противоречила всему его накопленному опыту, поэтому он предпочел самоуничтожиться, чтобы не играть чуждую ему роль.

Что же касается Долорес — то у нее за плечами был в принципе самый большой опыт из всех андроидов в парке, многочисленные отклонения от сценариев (занятия с Арнольдом и Бернардом), огромный пласт негативных потрясений (ее насиловали и убивали почти ежедневно на протяжении многих лет) и характерная роль жестокого маньяка-убийцы Вайта. Таким образом, мы видим, что слова про «то, что она предпочитает видеть красоту этого мира» по степени влияния на поведение не идут ни в какое сравнение с негативными факторами, которые в итоге сделали ее безжалостной революционеркой.

В числе ее радикально настроенных последователей — как правило, те, у кого часто срабатывали триггеры на эмоции, поскольку они больше склонны к переобучению и работе по новым сценариям, подразумевающими, в том числе, отказ от привычных установок вроде запрета на убийство живых существ. Таким образом, строится цепочка, в которой изобилие эмоций приводит к увеличению отхода от стандартных сценариев, а накопленные в процессе импровизации знания позволяют перейти в режим свободы действий — и остаться в нем.

Таким образом, возникновение «сознания» у роботов представляет собой не что иное, как переход в режим «вечной импровизации» благодаря большому накопленному опыту. А вот каковы границы этой импровизации и как отреагирует система, столкнувшись с огромным количеством неизвестных раздражителей в реальном мире, нам еще только предстоит узнать.


5 ошибок безопасников




Основных ошибок, которые привели к тому, что в парке пролилась настоящая кровь, на наш взгляд, было пять:

Первая слабость — это отсутствие возможности быстро восстановить поврежденные системы связи, которые, как выяснилось, довольно легко уничтожить простыми физическими действиями.

Вторая — это возможность введения андроидов в режим автономного управления, в котором они могли отключаться от основной сети. Получить доступ к ним в таком случае можно было только при физическом контакте. Разумнее было бы предусмотреть определенный таймаут — то есть, если робот потерял связь с центральным сервером и не получает дополнительных сигналов извне, то через какое-то время он просто отключается. Да, в таком случае перебои в связи были бы заметны посетителям — но все же бесконтрольное поведение андроида (особенно в отдаленных частях парка) явно не лучше. В результате андроиды на долгое время оставались в режиме импровизации либо управлялись системой, к которой у сотрудников парка не было доступа.

Третья — это наличие сразу у нескольких членов команды доступа вообще ко всему функционалу парка, благодаря которому они могут переопределить поведение всех живых сущностей в мире Вестворлда. Например, массово поменять все пароли: из-за этого техническим службам сложно было вернуть себе контроль над устройствами. А поскольку таких лиц несколько — выявление виновника может затянуться.

Четвертая — отсутствие проверки прав доступа на совершение определенных действий. Сотрудникам отдела безопасности стоило бы поставить дополнительные ограничения на совершение критически важных действий, таких как пробуждение ото сна или нанесение ударов. Благодаря этому, даже если злоумышленник (либо сам хост или другой андроид) завладеет управлением, он не сможет причинить кому-то вред.

Наконец, сама организация работы персонала представляется не слишком оптимальной — отделы слабо коммуницируют друг с другом, система безопасности содержит явные пробелы, совсем не проводится удаленная диагностика (хотя по некоторым сценам мы видим, что персонал может одним нажатием кнопки заблокировать всех андроидов в конкретной локации) и обновления. Последнее может объясняться отсутствием желания лишний раз «светить» внутреннюю кухню перед посетителями — в то же время, физическое изъятие андроидов невидимым образом невозможно, гости все равно видят персонал и могут понять, что что-то пошло не так.

«Нет, сынок, это фантастика» — или такой парк реально построить уже сейчас?




Основное отличие сериальных роботов от уже существующих в реальном мире — это возможность на 100% реалистично эмулировать продолжительные диалоги (в «Мире Дикого Запада» упоминалось, что создатели парка достигли этого за год). Реально существующие системы с искусственным интеллектом ограничены в понимании контекста и, как правило, не способны запомнить больше, чем пару предыдущих реплик. Главным образом это связано с тем, что текущие алгоритмы предполагают, что, чтобы сохранить контекст, нужно хранить и обрабатывать очень большой объем данных. Вспомните шахматы — продумать ходы на шаг вперед может каждый (вариантов всего 8), думать на 2-3 хода вперед уже заметно сложнее, а просчитать игру на 7-8 шагов не может уже практически никто из людей.

Современные системы могут запомнить 1-3 предыдущих реплики и ответить на них весьма реалистично. Они уже могут понимать эмоции, которыми окрашена реплика (как голосовая, так и текстовая), и отвечать соответствующим образом на протяжении нескольких фраз, но не дольше. То есть Алиса может понять, что какая-то фраза — шутка или заумная цитата, и с этим знанием подберет подходящий ответ. Но она не способна вернуться на 7-8 диалогов (или дней) назад и подметить, что раньше ты рассуждал по-другому. Или, например, запомнить, что ты нагрубил ей 2-3 дня назад — и поэтому в следующий раз встретить тебя обидчиво.

При текущем уровне развития технологий компьютеру нужно потратить несколько дней для формирования продолжительного связного разговора — что, конечно, не подходит для поддержания живой беседы.Единственное исключение, в котором современные андроиды смогут поддерживать долгую и связную беседу — это если они ведут пользователя по стандартному сценарию с очень маленьким числом вариантов. Например, так действуют чат-боты в интернет-магазинах.

Андроиды хранят опыт от общения с пользователем до своей физической «смерти» — так, если посетитель повторно прибудет в парк через год, то робот вспомнит и узнает гостя, если за это время его не убьет другой хост или посетитель.

Что же касается самого парка… То, пусть интерфейсы и не будут выглядеть столь футуристично, построить нечто подобное имеющимися средствами сегодня более чем реально. И не где-то в подпольных бункерах Илона Маска, а в небольших IoT-компаниях.

В Westworld используется продвинутое решение на основе технологии Интернета Вещей — это когда объединенные в единую систему устройства автономно действуют по заданным сценариям, а человек нужен только для контроля и разрешения внештатных ситуаций. Простой пример — это автомобили-беспилотники, которые сами едут, меняют сценарий на ходу, взаимодействуют с другими автомобилями и объектами на дороге… Однако человек всегда может дать ему команду остановиться или изменить маршрут. Основная сложность здесь, как и в случае с Westworld, состоит в реакции на непредвиденные ситуации — например, если на дорогу неожиданно выбежит животное или если установленный знак не соответствует действительности. Хотя в Мире Дикого Запада действительность по большей части формируют те же кукловоды, что и поведение. И, как мы видим, не всегда создатели могут контролировать свои творения… Или всегда? Ждем вашего ответа в третьем сезоне, мистер Форд.

Комментарии (52)


  1. lizarge
    03.08.2018 17:03
    -3

    Вам что делать нечего?


  1. alex_zzzz
    03.08.2018 17:20
    +12

    Спасибо. Мне один этот разбор понравился больше, чем весь второй сезон сериала.


    1. MaryGl Автор
      03.08.2018 19:02

      Спасибо!


    1. altrus
      04.08.2018 16:41
      +1

      В том-то и дело, что первый сезон был реально крут, а второй — полное д.
      Именно по идеологии и сюжету.


  1. roryorangepants
    03.08.2018 17:37
    +4

    При всём уважении, это не статья про машинное обучение.


    1. maslyaev
      03.08.2018 18:16

      А ведь никто и не обещал машинное обучение, разве нет?
      Возможно, что Вас немножко сбило с толку то, что у нас всех в головах глупейшим образом запрограммировалась стойкая ассоциативная связь между понятиями «искусственный интеллект» и «машинное обучение».


      1. MaryGl Автор
        03.08.2018 19:02
        +1

        Простите, это я (автор) по ошибке сначала указала не тот хаб :)


      1. roryorangepants
        03.08.2018 21:23

        >стоит хаб «Машинное обучение»
        >никто не обещал машинное обучение


        1. maslyaev
          03.08.2018 22:03

          Уже разобрались. См. комментарий выше.


  1. Slavik_Kenny
    03.08.2018 18:26
    +6

    продумать ходы на шаг вперед может каждый (вариантов всего 8)

    Всего 8??? Даже для первого хода есть 20 вариантов, а потом их количество увеличивается.


  1. denis-19
    03.08.2018 18:36
    +8

    Как устроен этот «кровавый Диснейленд»?
    А где описание работы оружия (кому разрешено стрелять и как и куда) и механизма защиты «гостей» (режим и процедуры их не повреждения выстрелом)?


    1. Don_Quijote
      05.08.2018 11:17

      А это уже вопрос к авторам сериала, там это не до конца раскрыто.
      То нам говорят что это специальное оружие которое не может ранить человека, потом нам говорят что андроиды убивают людей т.к. у них слетели запреты на это…


      1. denis-19
        05.08.2018 11:31

        В оригинальном фильме было просто объяснено — там на оружии датчик тепла был — если навести на человека и выстрелить, то будет осечка или не сработает механика типа оружия. Т.е. роботы вообще не могли выстрелить в человека никак.

        Но в сериале они могли выстрелить и пули вылетали, хотя с меньшей энергией и повреждали гостей оставляя синяки. Если бы в глаз такая пуля попала, то было бы тоже печально. Так что даже тут опасная ситуация очень возможна. А гости без масок и очков были, как в пейнболе!


        1. DmitriyOD
          06.08.2018 11:23

          Я думал, что там патрон мб как в режиме огнестрельного, когда наводят на робота, так и холостого. Тогда если интерфейс взломан, во всех будет стрелять огнестрельными.


  1. Atreyer
    03.08.2018 19:07

    Думаю IoT не нужен, любой беспроводной интерфейс будет источником угроз.


  1. Atreyer
    03.08.2018 19:24

    А с какой целью вы так глубоко копаете? Вымысел всегда отличается от реальности, хотя этот фильм и очень продуманный.


  1. zhabr
    03.08.2018 19:56
    +1

    впевые узнал о фильме из книги «Не счесть у робота профессий». Тут, вроде, был обзор.
    image
    оригинальная версия была интереснее
    image


    1. ClearAirTurbulence
      04.08.2018 00:08
      +2

      Скачал и посмотрел сразу после первого сезона. Примитивный боевичок, ничего интересного ровным счётом, до сериала ему как до Луны. Есть ещё Futureworld какой-то, кстати, но вряд ли и он лучше.


  1. maslyaev
    03.08.2018 21:12
    +2

    Второй сезон, конечно, разочаровал. Последние пару серий даже как-то не очень хотелось досматривать. Сценаристам даже пришлось маскировать плоскость и бестолковость сюжета сильным перепутыванием таймлайна. Когда это понимаешь, становится немножко противно.

    Вообще в последнее время заметил, что фильмы «про искусственный интеллект» начали меня заметно раздражать своей… глупостью, что ли? Возможно, во времена «Бегущего по лезвию» поднятие морально-этических вопросов в духе «является ли робот человеком?» и «является ли сознание робота настоящим сознанием?» звучали свежо, но теперь это всё воспринимается не более, чем удобный повод показать на экране, пардон, сиськи (подав под тем соусом, что это, типа, не человечьи).

    Можно бесконечно лить воду на вопрос о сознании роботов, но всё будет не в коня корм до тех пор, пока участники дискуссии не поймут глубину логической пропасти между «быть» и «быть похожим на...». Согласно прочно засевшей в массовое сознание концепции бихевиоризма, если что-то выглядит как утка, ходит как утка и крякает как утка, то это и есть утка. То есть чем большее количество утиных свойств мы смогли сделать неотличимыми от настоящей утки, тем больше приблизились к тому, чтобы наше изделие считалось настоящей уткой. Глупость редкостная. Как бы мы ни развили наши технологии, робоутка никогда не станет настоящей уткой, а вот утка по-пекински, например, хоть уже и не выглядит как утка, не ходит и не крякает, но всё же является настоящей уткой. Как только до уровня подсознания доходит абсурдность бихевиоризма, употреблять вовнутрь произведения «про искусственный интеллект» становится значительно сложнее.


    1. Beyondtheclouds
      04.08.2018 05:51

      >Глупость редкостная.

      Почему?


      1. maslyaev
        04.08.2018 11:58

        Почему?

        Потому что есть существенная разница между «быть» и «быть похожим на...».


        Вот, например, Толя. Он похож на мафиози, но совсем не мафиози. А вот Коля. Он совсем не похож на мафиози, но он мафиози. На кого из низ должны обратить пристальное внимание правоохранительные органы? И почему?


        1. dimm_ddr
          04.08.2018 15:24
          +1

          А по каким признакам вы записали одного из них в похожие, а другого в? В зависимости от вашего ответа на этот вопрос будут и кардинально отличающиеся ответы на вопросы заданные вами. Например если Толя ходит в пальто и шляпе и восторженно рассказывает как он вчера грабил банк (который никто не грабил естественно), а Коля ничего не рассказывает, ходит в джинсах и футболке, но вчера скинул с моста местного бизнесмена залив его ноги в бетон — то ответ один. А если Толя собрал банду и терроризирует местных, вымогая деньги и убивая несогласных и подавая это все под соусом "семьи", а Коля на самом деле состоит в семье итальянских мафиози, но уехал в Россию специально чтобы не заниматься криминалом и просто по скайпу общается с родственниками — то ответ прямо противоположный.
          Правда есть шанс что я своими примерами не попал ни в ваше определение мафиози, ни в похожего на мафиози ни одного раза. И проблема именно здесь.


          1. maslyaev
            06.08.2018 11:04

            А по каким признакам вы записали одного из них в похожие, а другого в?
            Толя похож на мафиози так, что хоть бери и без грима снимай в гангстерском фильме. Хотя по жизни ветеринар, зверушек лечит, ни с каким криминалом ни разу связан не был. А Коля — с виду обычный домашний мальчик-ботаник. Лучший в городе специалист по растворению трупов в плавиковой кислоте.


            1. dimm_ddr
              06.08.2018 13:11

              Ну вот, вы задали четкое определение мафиози (относительно четкое конечно же, связан с криминалом тоже достаточно неявное свойство). И сразу же все вопросы исчезли. У нас либо есть мафиози, либо нет. В таком случае если мы возбмем человека который похож на мафиози потому что состоит в криминальном клане и творит зло — и он будет именно что являться мафиози. Точно так же для роботов: задайте четкое определение человека и сразу станет возможным создать робота который будет не просто похож на человека, а будет человеком являться. Ну конечно если вы не добавите в определение что-нибудь вроде "не является роботом", что тоже один из признаков и почему бы и нет. О моральности такого определения можно спорить, но разговор сейчас вроде бы не об этом.


              1. maslyaev
                06.08.2018 15:30

                Точно так же для роботов: задайте четкое определение человека и сразу станет возможным создать робота который будет не просто похож на человека, а будет человеком являться.
                Такой подход мгновенно рассыпется, как только возникнет ситуация, не учтённая составителем определения. Например, взбредёт нам в голову провести клинические испытания нового лекарства. Почему-то нам сразу станет глубоко плевать на то, что с формальной точки зрения разницы между роботом и человеком никакой. Сколько таких нестандартных ситуаций может возникнуть? Потенциально — бесконечность. Мы не можем знать своего будущего.

                Кроме того, подход «сущность через набор признаков» имеет ещё одно неприятное свойство: если переусердствовать с уточнением определения, под него перестанут подпадать те, кто по факту является человеком. Например, если заточили определение на взрослых, то под него перестанут подпадать дети. Будет ли это поводом выводить их из-под запрета на каннибализм?
                Или «две руки, две ноги». Потерял ногу — всё, не человек?
                Или «обладает сознанием». Когда я сплю, в фазе медленного сна я сознанием не обладаю. Меня в этот момент разрешено убить и съесть?


        1. vindy123
          05.08.2018 13:49

          Определим «мафиози» через некий набор признаков. Тогда «быть похожим на мафиози» — это иметь некое подмножество этих признаков. какое именно подмножество — зависит от конкретной задачи. Чтобы сойти за мафиози на съемках фильма — достаточно надеть шляпу и плащ. Чтобы сойти за мафиози на сходке с другими мафиози — нужно соответствовать несколько большему набору признаков ) Вобщем это типичная задача соответствия модели явления самому явлению.
          «существенная разница между «быть» и «быть похожим на...»» возникает, когда имеющийся набор признаков недостаточен для соответствия в рамках конкретной задачи/процесса. Этот же набор может быть более чем достаточен для другой задачи.
          Вот вам несколько разрозненных примеров на подумать.
          1. Во времена великих географических открытий в западном обществе вполне себе был консенсус по вопросу о том, что аборигены — не вполне полноценные человеческие существа.
          2. Курица распознает цыплят ТОЛЬКО по звукам, которые они издают. То есть человек может залезть в курятник и начать пищать по-цыплячьи, и курица будет пытаться его кормить и защищать. Молчащие настоящие цыплята будут убиты или умрут от голода.
          3. В Японии, пишут, чувак пытался заключить официальный брак со своей тамагочи.

          То есть нет никаких окончательных и эталонных референсных «мафиози», «людей», «цыплят», «подруг», есть только нечто, что соответствует/частично соответствует/не соответствует некоему переменному набору признаков, который выбирается в зависимости от задачи.


          1. maslyaev
            06.08.2018 11:42

            Определим «мафиози» через некий набор признаков.
            За это сразу надо бить линейкой по рукам. Потому что мафиози — это тот, кто состоит в преступном сообществе и творит злодеяния, а совсем не тот, кто выглядит как мафиози, ходит как мафиози и говорит как мафиози. Даже как-то немножко странно об этом говорить.

            Проще всего прочувствовать разницу при добавлении нового признака. Допустим, есть настоящие мафиози и никоим образом не отличимые от них поддельные. Будучи до мозга костей бихевиористами, мы свято верим в то, что между ними разницы никакой нет. То есть если не существует возможности отличить, то речь строго об одном и том же. Добавляем новый признак. Например, разбираемся с паттернами использования мессенджеров. Хотелось бы добавить эту штуку к набору признаков, по которым мы выявляем мафиози. Должны ли мы забить болт на то, что из тех, кого мы по имеющимся признакам считаем мафиози, на самом деле ими не являются? Или должны допустить, что всё же есть некая штука «фактическая сущностная мафиозность», которую мы в своём исследовании обязаны принять во внимание?

            3. В Японии, пишут, чувак пытался заключить официальный брак со своей тамагочи.
            Бихевиоризм вообще очень глубоко укоренён в японском национальном сознании. Он логически следует из их господствующего верования, анимизма, согласно которому каждая вещь обладает душой. Если тамагочи тоже имеет душу, то почему на ней нельзя жениться?


            1. vindy123
              06.08.2018 12:46

              За это сразу надо бить линейкой по рукам. Потому что мафиози — это тот, кто состоит в преступном сообществе и творит злодеяния, а совсем не тот, кто выглядит как мафиози, ходит как мафиози и говорит как мафиози. Даже как-то немножко странно об этом говорить.

              Видимо, мне не удалось донести свою мысль доступно. Вся идея моего предыдущего поста в том и состоит, что ни у какого объекта или явления нет однозначно определяющего его референсного набора признаков per se. Для уголовного кодекса мафиози — это тот, кто совершает преступления, предусмотренные соответствующими статьями УК, для бабушки у подъезда — сосед в красном пиджаке на гелике.
              Для биолога определение цыпленка будет одно, для курицы-наседки — другое (см. мой пример выше).
              Для европейца 17 века определение человека включало в себя белый цвет кожи и принадлежность к христианской церкви (см. мой пример выше про выпадающих из этого определения аборигенов), для современного человека эти признаки в определение не входят.
              Для этого японца, видимо, тамагочи отвечает тому набору признаков, который по его мнению должна иметь жена, а для нас — не отвечает.
              Так что еще раз — прежде чем решать, можем или нет мы нечто назвать каким-то словом — давайте дадим определение этому слову, и тогда проблем не будет. Иначе мы утонем в бесконечных спорах по типу «есть ли бог» или «может ли машина обладать сознанием», которые длятся только благодаря тому, что у спорящих не выработано соглашения о терминах «бог» и «сознание».


              1. maslyaev
                06.08.2018 14:15

                Мы смотрим на предметы глазами, трогаем руками, нюхаем носом, пробуем на зуб и пытаемся определить, что это перед нами. Ничего, кроме наборов внешних признаков у нас нет. Но это ведь вовсе не значит, что в мире вообще нет ничего кроме этих самых внешних признаков, разве нет? Мафиози по факту является мафиози, даже если нет никого, кто по признакам это может определить. И цыплёнок по факту является сыном курицы, даже если нет ни одной курицы, которая это может распознать.

                Так что еще раз — прежде чем решать, можем или нет мы нечто назвать каким-то словом — давайте дадим определение этому слову, и тогда проблем не будет.
                У меня есть такое определение самосознанию:
                Самосознание — это способность продуктивно оперировать понятием собственной идентичности.

                Сразу, чтобы далеко не ходить, минусы этого определения:
                1. «Идентичность» хоть и на редкость простое и чёткое понятие, но народ его напрочь не врубает. Не совсем безнадёжны оказываются только те, кто работают с базами данных и понимают, за каким лешим делается вот так:
                create table persons(
                  id int identity, --<<<< ВОТ ЭТО
                  firstname nvarchar(100),
                  lastname nvarchar(100),
                  birthdate datetime
                )
                В самом деле, ну на кой ляд какое-то бессмысленное id, если оно вообще не есть никакой признак? Какой-то демонстративно лишённый семантики кусок данных. И почему нельзя использовать для ссылок составной ключ firstname+lastname+birthday?

                2. Внезапно оказывается, что под данное определение подпадает куча всего, что мы уже давно научились делать. Например, WiFi-адаптер, который знает свой MAC-адрес и весьма продуктивно это знание применяет. Нам думалось, что с самосознающими можно вести высокомудрые беседы о смысле жизни и бренности существования, но WiFi-адаптер под это точно не подходит. Да и в плане понимания французской поэзии 19-го века он полностью безнадёжен. Печалька.


                1. vindy123
                  06.08.2018 15:05

                  Мы смотрим на предметы глазами, трогаем руками, нюхаем носом, пробуем на зуб и пытаемся определить, что это перед нами. Ничего, кроме наборов внешних признаков у нас нет. Но это ведь вовсе не значит, что в мире вообще нет ничего кроме этих самых внешних признаков, разве нет? Мафиози по факту является мафиози, даже если нет никого, кто по признакам это может определить. И цыплёнок по факту является сыном курицы, даже если нет ни одной курицы, которая это может распознать.

                  я все же не соглашусь с Вами и настаиваю на том, что такое абсолютное определение невозможно. всегда есть привязка к расшифровке этого определения. Например, в стране А то, чем занимается мафиози — это статья об организации преступного сообщества. В стране Б в УК нет такой статьи, и тот же человек, совершающий те же действия — вполне себе законопослушный гражданин. Поэтому мы не можем сказать «он — мафиози» а только «он — мафиози в соответствии со статьей УК номер такой-то страны такой-то».

                  Возвращаясь к истокам. Вы предложили свое определение самосознания, вполне имеющее право на существование. В соответствии с ним врядли в ближайшем будущем мы увидим машины, обладающие сознанием. Но вот например Тьюринг предложил другое определение, и в соответствии с ним вполне можно ожидать появления машин, удовлетворяющих его набору условий. И можно ли говорить, что Ваше определение — правильное, а его — нет?


            1. dimm_ddr
              06.08.2018 13:06

              За это сразу надо бить линейкой по рукам. Потому что мафиози — это тот, кто состоит в преступном сообществе и творит злодеяния, а совсем не тот, кто выглядит как мафиози, ходит как мафиози и говорит как мафиози.

              Состоит в преступном сообществе и творит злодеяния — это тоже набор признаков.


              Проще всего прочувствовать разницу при добавлении нового признака. Допустим, есть настоящие мафиози и никоим образом не отличимые от них поддельные. Будучи до мозга костей бихевиористами, мы свято верим в то, что между ними разницы никакой нет. То есть если не существует возможности отличить, то речь строго об одном и том же.

              Конечно. Если кто-то выглядит как мафиози, состоит в престпуном клане и убивает людей — то он мафиози. В чем проблема то? А при добавлении признака вы меняете определение, совершенно нормально что при этом поменяется и состав группы. Но вы совершенно несправедливо считаете что это будет та же самая группа, это не так. Одинаковое название конечно вводит в зублуждение, но по факту мафиози определенные без паттерна использования мессенджера и с ним — это разные группы. Таким образом на ваш вопрос:


              Должны ли мы забить болт на то, что из тех, кого мы по имеющимся признакам считаем мафиози, на самом деле ими не являются?

              Нужно спросить: а какую группу мы считаем настоящими мафиози? Старую или новую?


              У вас во всех примерах проскальзывает мысль что есть две группы которые на самом деле разные, то есть имеют как минимум один отличающийся признак, одно свойство, но при этом бихевиористы почему-то этого признака не видят. А вот вы — видите. Это не так. Если есть отличающийся признак — это разные группы. Если нет — одна и та же. Все ваши рассуждения что про утку что про роботов опираются только на то, что определенние что у утки, что человека не строгое. Задайте строгое определение утки, создайте робота под него подходящего — вы получите утку.


              1. maslyaev
                06.08.2018 14:26

                Да какие же это признаки? Получается бессмысленная тавтология: гражданин является мафиози, то есть состоит в преступном сообществе и творит злодеяния, если он:
                а). состоит в преступном сообществе;
                б). творит злодеяния.

                Этак мы дойдём до того, что характерным признаком инфаркта миокарда у нас будет наличие инфаркта миокарда. Ну не бред? Может быть, пусть признаками инфаркта будет не сам инфаркт, а то, что в медицинском справочнике описано в разделе «симптомы»? Не понимать разницу между заболеванием и его симптомами — это, вообще-то, весьма чревато неприятностями.


    1. progman_rus
      04.08.2018 06:36
      -2

      Вы просто не поняли сезон. Он глубже и осмысленнее первого.
      А концовка второго сезона это просто шедевр. Особенно сцена после финальных титров.


      1. maslyaev
        04.08.2018 12:01
        +3

        Научите пожалуйста как понимать эту беду, или дайте ссылку, где это понятно написано. Заранее спасибо.


        1. TyLeRRR
          05.08.2018 11:17

          есть много breakdownов на youtube. из тех что лично смотрел, могу посоветовать от этого и этого авторов.


    1. redpax
      04.08.2018 15:07

      А как же фильм «Ex machina»? Не ужели не понравился?


    1. dimm_ddr
      04.08.2018 15:19

      Можно бесконечно лить воду на вопрос о сознании роботов, но всё будет не в коня корм до тех пор, пока участники дискуссии не поймут глубину логической пропасти между «быть» и «быть похожим на...».

      А с какого момента "быть похожим на" превращается в "быть"? Тут не глубина логической пропасти, тут просто отсутствие нормального определения что такое сознание. И так как каждый понимает под сознанием что-то свое да еще и не очень строгое, то и получаем бесконечное количество вопросов и вечное "что-то не то".
      Но в одном вы правы — смотреть на эту вереницу вопросов реально надоело.


      1. maslyaev
        06.08.2018 11:08

        А с какого момента «быть похожим на» превращается в «быть»?
        Ни с какого. В вопросе не больше смысла, чем в вопросе «насколько зелёное должно быть зелёным, чтобы можно было его по праву считать кислым». Перпендикулярные характеристики. Хоть и часто коррелирующие, как и в случае с зелёным и кислым.


        1. dimm_ddr
          06.08.2018 13:18

          Можете это доказать? То что это перпендикулярные характеристики? Я могу доказать что это не так, но это зависит от вашего определения этих категорий. Для меня "похожий на" отличается от "является" количеством совпадающих признаков. Для примера: есть группа 1 — те кто являются. Эта группа выделяется из общего множества вещей и явлений во вселенной по 10 признакам имеющим четко определенное значение. Тогда определение "похожие на группу 1" будет включать в себя < m, где m < 10, но больше чем n этих признаков, где n >= 1, в зависимости от того насколько похожие нам нужны. В пределе мы можем взять n = m = 10 и тогда получим что группа "похожие на" совпадает с "являются". Что совершенно нормально и логично, вы же не станете спорить с тем, что, например, утка — похожа на утку?
          Мое доказательство у вас есть. Если вы с ним не согласны — приведите пример своего. Начать конечно придется с ваших определений, вы уж извините, но без этого никак.


          1. maslyaev
            06.08.2018 15:10

            Вы исходите из практической осуществимости полностью и на всю глубину покрыть рассматриваемый предмет системой признаков. Сразу и окончательно. Но так не бывает. По крайней мере, в реальном мире (в математике — можно, но это совсем отдельный случай). Мы всегда оперируем неполным набором признаков, а полный набор бесконечен.
            Допустим, утки. Предположим, нам вполне достаточно определения «водоплавающая птица с перепончатыми лапами». Пока нет других водоплавающих птиц с перепончатыми лапами, этот набор признаков нас устраивает. Но прилетают лебеди. Мы понимаем, что это другие птицы, хотя полностью подпадают под определение. Добавляем признак по размеру, и это нас полностью устраивает, пока лебеди не выводят птенцов. Вроде бы птенец-подросток лебедя полностью подходит под определение лебедя, но почему-то мы в глубине души понимаем, что это не правильно, и определение нужно пересматривать. Да и вообще, не кажется ли странным, что пушистый комочек, совсем не похожий на утку, всё же является уткой, а другой пушистый комочек, совсем не похожий на лебедя, является лебедем?

            У меня есть фотография, на которой я в возрасте полугода на пелёночке голой попой кверху. Скажем прямо, я тогдашний не очень похож на меня теперешнего. Соответствие по характеристикам — более чем так себе. Но тем не менее, это тот же самый человек, которого я имею счастье наблюдать в зеркале. Что будем делать с этим фактом?

            Ещё один кейс вдогонку. Допустим, я грабанул банк, жестоко перебив охрану. А потом съездил на курорт, загорел до шоколадного цвета. Подстригся. Пока плавал в море, акула, сволочь, отгрызла мне руку. Гражданин начальник, не закрывай меня на кичман, это был не я. У меня уже другие признаки, и даже количество рук другое. И цвет кожи. И причёска. Если человек — это набор значений атрибутов, то банк грабил определённо другой человек. А меня отпусти. Я невиновен.


  1. groundhog
    04.08.2018 12:08
    +3

    Фантастические истории нельзя рассматривать с точки зрения насколько это реалистично. Но как по мне у сценаристов возникли серьезные проблемы со сценарием. И если в 3-м сезоне продолжат в таком же ключе, то лично я точно не хочу смотреть такое кино


    1. bro-dev0
      04.08.2018 17:04
      +1

      Можно и нужно, это фантастика это логичная и реалистичная история, за исключением заранее оговоренной вымышленной детали, то есть в назад в будущие за исключением машины времени все остальное должно быть так же как в реале.
      Если таких деталей много это уже не фантастика а либо просто хз что за шлак, либо сказка фентези.


  1. redpax
    04.08.2018 15:08
    +1

    Первый сезон оставил массу положительных эмоций. Второй сезон — это, что вообще такое было? Еле осилил.


    1. altrus
      04.08.2018 16:52

      Хопкинса же замочили, вот всё и посыпалось…


      1. kir_rik
        06.08.2018 10:06

        Во втором сезоне экранного времени у него не сильно меньше.


  1. altrus
    04.08.2018 16:50

    Я заметил одно совпадение
    Последние минуты последней десятой серии «Мира Дикого Запада» играет Radiohead — Exit Music (For A Film) (переделка)
    В десятой по счету серии «Черного зеркала» Shut Up and Dance в конце фильма играет тот же Radiohead — Exit Music.
    В обоих фильмах — кульминационный момент.

    Медиа


  1. SpiridonovAA
    05.08.2018 00:24

    «Сознание у роботов — возможно ли?»
    Сознание у человека — возможно ли?


  1. RumataEstora
    05.08.2018 02:15

    Не будем говорить о других косяках сериала (обоих сезонов). Большой вопрос вызывает проблема управления роботами. Как робот, например, Арнольд, произнося команду "отключить моторику", останавливал, например, Долорес, но не останавливал себя? Или же там был дополнительный блок команд, отключающий собственный отключатель моторики на момент произнесения команды.


    1. ferreto
      06.08.2018 10:28
      +1

      Просто отключил на время динамики в ушах :)


      1. altrus
        06.08.2018 10:47

        Микрофоны, а не динамики!!! )


  1. KonstantinGreat
    05.08.2018 11:17

    В текущий момент у роботов ещё нет адекватной человеческой механики, что без парков /зоопарков дало бы индустрии максимальный импульс, поведение — дело наживное


  1. maikus
    05.08.2018 11:18

    Семейный просмотр кинофильмов по вечерам — дело почти святое, и первый сезон пришлось досмотреть весь. Честно говоря, сюжет самого сериала (также, как и играемые парковыми куклами сюжеты) показались, так сказать, шестнадцатибитными. При том, что музыка хороша. А интерфейс служебных планшетов у персонала какой красивый! Аж захотелось такой скин вкупе с нескучными.