Компания DeepMind, сейчас входящее в состав холдинга Alphabet, несколько лет работает над программной платформой AlphaGo. В прошлом году она выиграла в го у одного из чемпионов мира Ли Седоля. Таким образом, разработчики этой нейросети смогли доказать, что компьютер вполне в состоянии соревноваться с человеком в сферах, которые считались ранее прерогативой людей.

Та же игра го входила в рейтинг сложнейших для «понимания» компьютером игр. Эксперты считали, что в ближайшее время ИИ (слабая его форма) не сможет победить не то, что чемпионов мира, но и обычных игроков высокого уровня. Тем не менее, случилось то, что случилось, Alpha Go побил Ли Седоля в четырех партиях из пяти. А сейчас настал черед сразиться с еще одним чемпионом, Кэ Цзе, игроком в го 9 дана. Цзе занимает первую строчку рейтинга Китая и мира по набранным баллам.

Еще один профессиональный игрок одобрил вклад искусственного интеллекта в го, заявив, что Alpha Go дает очень многое развитию стратегии и тактики. «Игра Alpha Go позволила нам всем почувствовать себя свободными, понять, что любой ход возможен. Теперь все пробуют играть по-новому, в стиле, который еще не был опробован ранее», — сказал Чжоу Руянг, игрок 9 дана в го.

Создатели программной платформы уже давно заявляли о желании свести AlphGo и Кэ Цзе, теперь этим планам суждено сбыться. Встретятся два чемпиона, машина и человек на празднике го, который будет проходить в течение пяти дней c 23 по 27 мая включительно на родине этой игры, в Китае, в городе Вужень, провинция Чжэцзян.

Сроки проведения — 23-27 мая. Мероприятие будет проводиться совместно China Go Association и правительством Китая. Чемпионат, который будет проходить во время фестиваля, посетят известнейшие игроки в го, а также эксперты по искусственному интеллекту.

Что касается ИИ, то AlphaGo будет играть не только против одного человека. Организаторы предложили несколько этапов соревнований, включая следующие:

  • «Парное Go» — игра, где один из чемпионов го из Китая будет играть против другого… Все традиционно, кроме того, что у обоих будет собственный напарник AlphaGo. Ожидается, что в таком формате компьютер и человек смогут учиться друг у друга;
  • «Командное Go» — соревнование в котором пять профи будет играть против AlphaGo. Профессионалы попытаются выиграть у системы, изучив особенности ее игры. Им разрешено обсуждать ходы между собой. В команду входят, помимо компьютера, Ши Юэ, Чен Яое, Ми Ютинг, Танг Вейхинг и Чжоу Руянг;
  • «Кэ Цзе против AlphaGo» — пожалуй, центральный элемент всего праздника го. В нем сразятся два чемпиона — компьютер и человек.

Кстати, Кэ Цзе известен своей сбалансированной игрой. Он не слишком увлекается атакой противника, помня о «тылах» и разрабатывая разумную систему атаки и защиты. Когда Ли Седоль играл с AlphaGo, Цзе объяснял преимущества тех либо иных недостатков главе Google Сундару Пичаю.

На празднике го будут разыграны 3 партии с контролем времени 3 часа на партию (+бееми 1 минута). Победитель получит неплохие призовые — $1,5 млн США. Проигравший — $300 тысяч. Это крупнейший игровой фонд для игры в го, да и не только в го. Например, шахматные гроссмейстеры Карякин с Карлсеном играли за 1 миллион на двоих (600 000 победителю, 400 000 — проигравшему).

image

Как сообщает TheVerge, Цзе проиграл Alpha Go несколько неофициальных игр. Возможно, в официальной игре он чемпион из Китая соберется и покажет лучшее, на что он способен. В любом случае, игра с AlphaGo — это не способ показать превосходство ИИ над человеком, а возможность доказать, что машина не хуже, чем человек может справляться с решением ряда задач. «Вместо игры „на уничтожение“, как боятся многие, ИИ помогает своим противникам становиться более сильными, проявляя оригинальные способы мышления», — говорит один из основателей DeepMind Демис Хассабис.

AlphaGo состоит из комбинации метода Монте-Карло и нейросетей политики (policy networks) и ценности (value networks). К нынешнему уровня своего профессионализма система вышла через долгое время после своего «рождения». Ей пришлось играть в го сотни тысяч раз, разбирая партии с сервера KGS, где играют мастера разного уровня — от шестого до девятого данов. Постепенно система самообучалась, причем игра велась не только с людьми, но и с собой. Постепенно AlphaGo стала обыгрывать профессионалов, а после этого выиграла у чемпиона Европы по го, а затем — у Ли Седоля.

Сама игра го считается более сложной для компьютеров потому, что возможных позиций камней на стандартной доске в гугол (10100) больше, чем в тех же шахматах. Это больше, чем число атомов во Вселенной. В самом начале игры противники располагают на доске камни различных цветов и начинают атаковать друг друга в надежде занять камнями собственного цвета площадь большую, чем соперник.

image

Кстати, DeepMind работает не только над обучением своего ИИ для игры в настольные игры, но над тренировкой программной платформы в виртуальной среде, в частности, при игре в StarCraft. Эту игру DeepMind выбрала потому, что в течение 20 лет она является эталоном среди киберспортсменов.
Поделиться с друзьями
-->

Комментарии (40)


  1. Ugrum
    10.04.2017 16:15

    1. «Два Go» — игра, где один из чемпионов го из Китая будет играть против другого… Все традиционно, кроме того, что у обоих будет собственный напарник AlphaGo. Ожидается, что в таком формате компьютер и человек смогут учиться друг у друга;
    2. «Команда Go» — соревнование в котором пять профи будет играть против AlphaGo. Профессионалы попытаются выиграть у системы, изучив особенности ее игры;
    3. «Кэ Цзе против AlphaGo» — пожалуй, центральный элемент всего праздника го. В нем сразятся два чемпиона — компьютер и человек.


    1. Разминка (розыгрыш).
    2. Приигрываемся к соперникам.
    3. Рвём в клочья.
      Как-то так это мне со стороны выглядит.


    1. red75prim
      10.04.2017 17:52

      Приигрываемся к соперникам.

      Насколько я знаю, AlphaGo не сможет сильно изменить стиль игры на основании нескольких сыгранных партий, даже если по этим партиям прогонят цикл обучения. Веса связей в нейросетях AlphaGo сформированы на основе миллионов партий, несколько дополнительных партий — капля в море.


      Но в клочья порвёт. При условии, что в DeepMind не пожалели электричества на несколько месяцев дополнительного обучения.


      1. Dark_Daiver
        10.04.2017 18:40

        >Веса связей в нейросетях AlphaGo сформированы на основе миллионов партий, несколько дополнительных партий — капля в море.
        Ну строго говоря не совсем. Обучали скорее всего SGD, что означает, что мы можем сильно изменить веса просто прогнав новые примеры с большим learning rate. Другое дело, что после такой операции сеть, скорее всего, будет плохо играть.


  1. saboteur_kiev
    10.04.2017 16:39
    -3

    «Та же игра го входила в рейтинг сложнейших для «понимания» компьютером игр.»
    Имхо, это желтизна.

    Есть миллионы игр, где требуется именно интеллект, а не просто отсутствие возможности перебрать все комбинации.
    Например тот же покер, где есть случайность, игра на чувствах и блеф.
    Например подавляющее большинство стратегий и 3д шутеров, если ИИ предоставить именно те исходные данные, которые видит человек (звук из колонок и изображение с монитора).


    1. Anarions
      10.04.2017 16:41

      Проблема в шутерах и стратегиях то, что очень многое решают рефлексы и точность движений, а тут у ИИ огромное преимущество.


      1. saboteur_kiev
        10.04.2017 17:58

        Да, но все эти рефлексы и точность движения — не интеллект, а мускулы.

        А суть то — в распознавании ситуации и принятии решения.


        1. Ugrum
          10.04.2017 18:07
          +4

          Это извечный спор, побьёт ли Брюс Ли чемпиона мира по сумо.


        1. Anarions
          10.04.2017 18:09

          Задержка во времени между тем как ситуация случилась и тем когда человек начал принимать решение — у тренированного человека в районе 150ms, у бота — близка к нулю.


          1. saboteur_kiev
            10.04.2017 18:55

            «Задержка во времени между тем как ситуация случилась и тем когда человек начал принимать решение — у тренированного человека в районе 150ms, у бота — близка к нулю»

            Давайте скормим вашему боту фотографию монитора, и посмотрим, когда он начнет принимать решение после того, как распознает, что там нарисовано?

            Ну не путайте же вы процесс принятия решения и процесс его реализации.


            1. red75prim
              10.04.2017 19:16

              Для десятислойной полносвязной сети с размером слоя 320х240, на распознавание и принятие решения потребуется около 100Gflop. Пиковая производительность GTX 980 — 5Tflops. Итого: около 20мс на не самой новой видеокарте.


              Прикидка очень грубая, но, учитывая, что сеть не будет полносвязной, должна быть в пределах одного десятичного порядка.


              1. saboteur_kiev
                10.04.2017 19:51

                Вы мне рассказали сколько время займет распознавание, даже не уточнив какой игры?
                Ну давайте, например CS:GO, без предварительно зашитой карты уровня.


                1. red75prim
                  10.04.2017 19:56

                  Не только распознавание, а распознавание и формирование реакции. Какая игра — неважно, на какой обучат, на такой и будет играть.


                1. Anarions
                  11.04.2017 12:05

                  Вы роботов собирающих кубик рубика за доли секунды по изображению с камеры не видели? Включая распознание.


                  1. saboteur_kiev
                    11.04.2017 16:07

                    кубик рубика — очень простая штука. Есть уже заранее сформированный массив из 6 граней, и распознавать нечего.

                    А вот смотря на монитор, распознать хотя бы КАК ПЕРЕДВИГАТЬСЯ — там же полос разметки нет, можно ли запрыгнуть на ящик — только экспериментально.
                    Или вы про того бота, который получает всю информацию об уровне на генетическом уровне?


                    1. Anarions
                      11.04.2017 18:07

                      Ну люди, обычно, на уровне не в первый раз в жизни играют… Бот тоже может построить себе какую-нибудь карту — экспериментальным путём.


                      1. saboteur_kiev
                        11.04.2017 21:32

                        Экспериментальным, или ему нужно писать новый алгоритм для предварительного изучения карты?
                        Ну то есть поймите, что ИИ сейчас — совершенно несамостоятельный. Он быстро считает, быстро перебирает варианты, но не способен мыслить ассоциативно.


      1. xPomaHx
        14.04.2017 07:51

        Основная проблема будет в том, что человек учится гораздо быстрее. Даже не уверен что слово учится тут подходит. Например в КС чел. просто будет с гренок убивать каждый раз, так как будет знать где бот, и до тех пор, пока бот догадается что так лучше не делать пройдет игр 1000. А когда догадается человек за 1 игру перестроит свою стратегию.
        То есть у бота просто нету понимания психологии, а человек прочитает его поведение мгновенно.


        1. Anarions
          14.04.2017 11:40

          «пока бот догадается что так лучше не делать пройдет игр 1000» — мне кажется вы недооцениваете на что способная обученная нейросеть. Особенно если она будет контроллировать сразу пятерых. Думаю неожиданные бусты из пяти человек — самое скучное что такая сеть «придумает».


    1. ariklus
      10.04.2017 16:48

      https://www.theguardian.com/technology/2017/jan/30/libratus-poker-artificial-intelligence-professional-human-players-competition
      Гугл говорит что в покер уже. А там даже ИК-камеру, которая может служить простеньким детектором лжи, не прикручивали.

      В шутерах и стратегиях значительная доля успеха — умение быстро кликать куда надо при появлении внешнего стимула (выстрелить первым, на 3 секунды быстрее нафармить 1000 веспена, ), в чем компьютеры ужепереплюнули хуманов. И, ЕМНИП, инфа которая скармливается ботам не так уж и превосходит ту что приходит игрокам. Так что если не увеличивать боту время реакции на внутриигровые раздражители — то у людей шансов тоже маловато.


      1. saboteur_kiev
        10.04.2017 18:04

        Инфа, которая скармливается ботам — критически превосходит ту, что приходит игрокам, ибо она приходит уже очищенная от всего лишнего. Распознавать ничего не нужно, просто перебрать парочку комбинаций

        Но вот написать адекватного бота…
        Вы где-нибудь видели адекватного AI компаньона, который будет тебя сопровождать, передвигаясь хотя бы адекватно. Понятно, что по заранее прописанным маршрутам он это сделает, а построить удобный и безопасный маршрут по свободному пространству, с учетом физических возможностей?

        Не путайте работу интеллекта и работу мышц, сразу предположите, что человек способен управлять компьютерным персонажем мысленно с идеальной точностью, и подумайте где преимущество сегодняшних ИИ в этой ситуации.


        1. ariklus
          11.04.2017 12:42

          Преимущество ИИ — все еще в скорости реакции и рассчетов, а также идеальной памяти.
          Если добавить время на распознавание картинки в время реакции ИИ, а из времени реакции целовека вычесть время между подачей команды и ее выполнением — боты все еще будут быстрее.


          1. saboteur_kiev
            14.04.2017 11:50

            Это преимущество не ИИ, а алгоритма. Ну нет еще ИИ. Все боты это простые алгоритмы.
            В противном случае, робомобили уже давно бы колесили не по тщательно покрашенным дорогам в калифорнии, а по всему миру, по бездорожью и вообще…


    1. red75prim
      10.04.2017 17:38
      +2

      Имхо, это желтизна.

      Упрощение. Читайте как: "Программы для игры в го, в отличие от других игр с полной информацией, показывали низкие результаты при использовании эвристик, созданных при участии профессиональных игроков." -> Не получилось формализовать интуицию игроков в го -> Не получилось научить компьютер хорошо играть в го -> Комьютер не "понял" игру го


    1. dmitryredkin
      10.04.2017 17:56

      Я вас сильно огорчу:
      https://habrahabr.ru/post/310638/


    1. Barafu
      10.04.2017 20:11

      Тут от конкретной игры сильно зависит. В Overwatch беруcь с вменяемой командой сам порвать бота без ограничения на меткость. Просто засядем за щиты и будем медленно переть вперёд черепахой. Особенно если с двумя Рейнами. Потом наберём ульты и Monkey Time! В старой контре же, думаю, бот без ограничений будет выносить всех независимо от, разве что гранатами закидают.


      1. Anarions
        11.04.2017 12:15

        Просто боты на овервоч ещё слабенькие. Представьте какую-нибудь вдову делающую хедшоты в полёте с другого конца карты. Ещё и по паре хедшотов за один крюк )


  1. solariserj
    10.04.2017 17:13

    Ставлю на 3:2 в пользу Цзэ


    1. Ugrum
      10.04.2017 18:01

      Какую сумму и с каким коэффициентом?


    1. Necrozyablo
      10.04.2017 19:28

      Будет 3 партии, а не 5.
      И у Цзэ почти нет шансов.


  1. redpax
    10.04.2017 17:53

    Помнится мне Старкрафт 2 обещали. Не смогли или ещё не добрались до него?


    1. saboteur_kiev
      10.04.2017 18:12

      В играх, где требуется ловкость и реакция, будет сражаться не столько ИИ, сколько скорость клика.
      Поэтому крайне сложно найти реал-тайм игру, где интеллект в таких условиях будет иметь решающее значение.

      Можно использовать не ИИ, а простейшие алгоритмы, но при этом побеждать.
      Подобный пример все поясняет:
      https://www.youtube.com/watch?v=IKVFZ28ybQs


      1. redpax
        10.04.2017 18:31

        Да это видео видел, сам имею 3020 MMR в серебряной лиге, но на текущий момент ни один ИИ не способен победить человека даже если соотношение APM (действий в минуту) 1000 к 100. В СК2 важно и стратегическое и тактическое планирование. Если ИИ к этому ограничить по APM то тогда будет очень и очень интересно. До сих пор ИИ не может справиться с элементарным «зафатониванием» на старте.


      1. darkfrei
        10.04.2017 22:01

        Поэтому крайне сложно найти реал-тайм игру, где интеллект в таких условиях будет иметь решающее значение.

        Начать с задержки в 250 миллисекунд, если проигрываем — уменьшаем на 5 миллисекунд. Быстро достигается наилучший результат среди человеков, каждый более опытный противник — скорее исключение.


      1. xPomaHx
        14.04.2017 08:02

        Так в этом и интерес, что важнее быстро кликать или предугадывать врага на много шагов вперед. Имхо натренированный ИИ даже без микроконтроля сможет убить людей, просто потому что будет лучше читать людей чем люди читают ИИ.


  1. Altaisky
    10.04.2017 23:11

    Сама игра го считается более сложной для компьютеров потому, что возможных позиций камней на стандартной доске в гугол больше, чем в тех же шахматах. Это больше, чем число атомов во Вселенной.

    В который раз уже читаю эту безграмотную фразу. Чего больше, чем атомов во Вселенной? Позиций в го? Или гугол, может, больше? Правильный ответ — они все больше, включая и позиции в шахматах.


    1. fotofan
      11.04.2017 04:01

      Про атомы чистой воды софистика. А если атомы начать переставлять? Любой атом на любое место?


      1. don_ikar
        11.04.2017 10:21

        Более того, обычно имеется ввиду количество атомов в обозримой Вселенной. Но в последнее время слово «обозримой» стали всё чаще опускать, вводя кого-то в заблуждение, а кого-то — в когнитивный диссонанс…


      1. Anarions
        11.04.2017 12:34

        А если атомы начать переставлять? Любой атом на любое место?

        Речь ведь про количество атомов, а не количество их комбинаций.


    1. goricvet
      11.04.2017 18:34

      Интересно, чисто теоретически, можно ли каким-либо способом записать все эти позиции, хватит ли материала во вселенной?
      Другими словами, способны ли современные накопители (HDD, Flash и прочие) вместить базу данных с бОльшим количеством уникальных записей, чем количество атомов, из которых состоит носитель?


      1. Anarions
        11.04.2017 18:43

        Для хранения бита информации необходимо больше одной молекулы. Так что нет. А вот каким-нибудь архивом или генерирующей функцией — возможно.