150 миллионов долларов за «очевидную технологию»




Буквально пару месяцев назад на Geektimes рассказывали о малоизвестном английском стартапе Magic Pony Technology, который основал инженер Роб Бишоп — один из создателей мини-компьютера Raspberry Pi.

Стартап разработал революционную технологию моделирования изображений, которая значительно повышает разрешение фотографий и видео в реальном времени. Обученная нейросеть не просто интерполирует пиксели, а добавляет недостающие детали. Разработчики говорили, что так можно автоматически генерировать элементы, например, для реалистичных виртуальных миров.

В комментариях на GT согласились, что «этот способ вполне очевидный, и его патент — это почти патентный троллинг». Более того, пользователь Sadler сообщил, что два года назад он уже реализовал такую технологию на автоэнкодерах (пример работы нейросети, обученной Sadler).

Пользователю Sadler будет интересно узнать, что компания Twitter сегодня объявила о покупке стартапа Magic Pony Technology. По слухам, сумма сделки составляет $150 млн. Не так уж и мало за очевидную технологию.

Как рассказывало издание MIT Technology Review, при обучении нейросети исследователи генерировали картинки низкого качества из картинок высокого разрешения — и подавали эти пары изображений на вход нейросети. В итоге, нейросеть постепенно научилась обнаруживать закономерности и проделывать обратную операцию. Системе не требуются размеченные вручную образцы.


Изображение справа сгенерировано на основе образца слева

Разработчики утверждали, что их программа отличается скоростью и эффективностью, по сравнению с технологиями конкурентов.

Исполнительный директор и сооснователь Twitter Джек Дорси говорит, что машинное обучение всё чаще используется как ключевая технология всех систем в Twitter. Обученные нейросети применяются для подбора наиболее релевантных для пользователей новостей, историй и событий. Поэтому покупка стартапа, который занимается разработками в сфере ИИ? выглядит вполне логично для Twitter.

Компания может использовать интеллектуальный потенциал сотрудников Magic Pony Technology для своих собственных нужд. Ну и конечно же, Twitter может каким-то образом применить саму нейросеть Magic Pony Technology, которая повышает резкость фотографий и видеороликов.

Пример работы нейросети Magic Pony Technology показан в коротком видеоролике. Слева — оригинальный видеопоток игры, справа — улучшенная графика.



В будущем технологию можно реализовать на персональных компьютерах и мобильных телефонах, в том числе в веб-браузерах, видеоплеерах, движках компьютерных игр и так далее. Здесь программа будет эффективно повышать качество фотографий, сделанных в плохих условиях освещения или с низким разрешением матрицы, а также улучшать качество видео. Кроме того, такую нейросеть можно применить в форматах сжатия изображений и видео. Правда, только в проприетарных форматах (технология защищена 20 патентами).

Сотрудники Magic Pony пополнят команду Twitter Cortex, которая занимается приложениями искусственного интеллекта в Twitter. В числе сотрудников — 11 докторов наук в сфере компьютерного зрения, машинного обучения и высокопроизводительных вычислений, так что это ценное приобретение. Возможно, компании Twitter нужна не столько нейросеть, сколько сами сотрудники Magic Pony.

Для британских разработчиков ИИ это уже второе крупное достижение в этой технической области. В январе 2014 года компания Google приобрела ещё один лондонский стартап под названием DeepMind за полмиллиарда долларов. Та сделка стала триггером для настоящего бума на рынке технологий ИИ.

«Добро пожаловать в наш табун, Волшебный Пони!», — такими словами приветствовал новых сотрудников Джек Дорси.

Поделиться с друзьями
-->

Комментарии (23)


  1. NeoCode
    20.06.2016 19:30
    +6

    Что-то в видеоролике никакой разницы между тем что слева и справа не заметил.
    А вообще интересно пощупать эту технологию для такой цели, как восстановление текста электронных книг в djvu, страницы которых не отсканированы, а сфотографированы «с руки» в ужасном качестве.


    1. alltiptop
      20.06.2016 19:35
      +1

      Текст лучше, контент такой же замыленый (даже лицо стримера не изменилось, хотя это одна из основных «фич» технологии).


      1. worldxaker
        20.06.2016 22:51
        +1

        трава стала четче


    1. Sadler
      20.06.2016 20:01
      +2

      В общем случае для фотографии задача несколько сложнее, т.к. там бывает множество сложных искажений, со всей совокупностью которых алгоритм вряд ли справится так хорошо, как на примерах из моего google drive. Это хорошо работает на локальных искажениях известного рода, т.е. когда есть возможность явно выделить полезные данные для каждой области изображения, а затем их декодировать назад в изображение. Для более сложных искажений понадобятся куда более сложные сети. С другой стороны, в случае текста задача несколько упрощается, так что шанс получить нечто полезное имеется, я посмотрю в эту сторону.


      1. NeoCode
        20.06.2016 21:02

        Как думаете, вот такое восстановить до преемлемого (для OCR) уровня реально?

        пример
        image


        1. edd_k
          20.06.2016 21:21
          +1

          Так это считай часть задачи OCR. Чем лучше она натаскана на подобных шрифтах (не только идеального разрешения), тем лучше она разберет замыленый текст.


        1. Sadler
          20.06.2016 21:24

          С помощью sae это сложно: здесь отдельные буквы настолько затёрты, что блоки входных данных должны захватывать целые слова, чтобы правильно восстановить, а это потребует целой модели языка в виде шаблонов. Если и можно, то нужно думать о другой архитектуре сети, возможно, даже смешанном методе, который будет использовать как строгую языковую модель, так и нейросети (что, собственно, и делают коммерческие OCR-решения).


          1. sim31r
            21.06.2016 03:15

            В данном случае восстановить = придумать. И уже не поймешь что опечатка в готовом тексте, нейросеть придумает целые абзацы текста по сохранившейся букве, часто ни как не связанные с оригиналом.


            1. Alexsandr_SE
              21.06.2016 10:56

              Человек с большой долей вероятности таки сможет восстановить каждую букву отдельно. Значить есть куда расти системам, там нечего думать, словарь конечно поможет, но буквы в целом читаемы.


      1. LanMaster
        20.06.2016 21:39
        +1

        В программе IrfanView функция увеличения резкости даёт полностью такой же результат, как и пример обработки Вашей нейросетью. Вот для примера: https://yadi.sk/d/gubnqpNMsf8sw
        Здесь in.png и out.png — Ваши, +1.png — это однократное увеличение резкости (чуть размытее, чем out), и +2.png — незначительно резче, чем out.
        В IrfanView тоже нейросеть обрабатывает изображение? Или там полностью Ваш алгоритм?


        1. Sadler
          20.06.2016 22:03

          Я, к сожалению, не читал код IrfanView, но не вижу ничего неожиданного в том, что разные подходы могут давать подобные результаты: исходник содержит ограниченный объём данных для восстановления. Я сам использовал разные подходы к решению этой задачи, и некоторые из них давали весьма сходные результаты.


          1. daggert
            20.06.2016 22:22
            +2

            Код IrfanView читал только Ирфан Скирьян и, к сожалению, давать читать их никому он не дает…


    1. Mad__Max
      20.06.2016 21:00
      +1

      На HD ролик не забыли переключить надеюсь? Иначе разницу сложно увидеть.


      А так разница на тексте, цифрах и элементах интерфейса весьма значительная. А вот сама игровая графика — отличия минимальны и почти не заметны.


  1. Sadler
    20.06.2016 19:35
    +1

    Рад за британских коллег. Необязательно придумывать самую сложную технологию, можно взять что-то достаточно хорошо развитое, хотя и не очень новое, и монетизировать. Касательно патентов я не переживаю: в области автоэнкодеров столько работ, что им никто не позволит патенты на очевидные вещи получить, только на их какие-то нестандартные методы.


  1. Keyten
    20.06.2016 20:26
    +5

    Обработать бы MK3 этой сетью…


    1. Jamato
      20.06.2016 21:45

      Получится фильм :D


    1. captain_obvious
      20.06.2016 23:59
      +3

      image


    1. Eugeny1987
      21.06.2016 10:00

      да, было бы неплохо )


  1. AntonSor
    20.06.2016 21:04
    +2

    А эта штука не будет генерировать «призраков»?


  1. bak
    20.06.2016 22:53
    +1

    В machine-learning-е всё решает качество, решение превосходящее конкурентов буквально на несколько процентов (или даже долей) вполне может стоить 150 миллионов.


  1. vvatest
    21.06.2016 02:23

    Уже не первый раз встречаю описание сети, которой на вход подают эталон и «поломку», два изображения. Есть задачи и мысли о том, что решить их можно было бы попробовать именно таким образом. Есть желание погрузиться в эту область, но пока все что я видел из «готовых» фреймворков 2 образца на вход не берет. :(

    Может быть сможет кто-нибудь подсказать чем можно попробовать реализовать если не что-то подобное, то хотя бы: что-то вот такое? В порядке развития и самообразования :)


    1. Sadler
      21.06.2016 07:20
      +1

      Начать обучение классической сети в том же матлабе можно в несколько строк вместе со всеми настройками:

      net = fitnet([2047 2047 2047],'trainscg'); % число нейронов в скрытых слоях и функция обучения
      net.trainParam.epochs = 1e6; % обрывать по числу эпох
      net.trainParam.max_fail = 100; % обрывать, если 100 эпох ошибка не падала
      net.trainParam.min_grad = 1e-7; % обрывать, если сеть учится слишком медленно
      net = train(net,in,out,'useGPU','yes'); % учим с использованием GPU
      


  1. andrey_aksamentov
    21.06.2016 10:03

    Интересно, придумают ли сеть способную восстанавливать еду по фрагменту, в каком ни будь супергидраторе.