Американская компания Movidius известна как разработчик аппаратного ускорителя нейросетей Myriad 2 VPU и поставщик микросхем для системы искусственного интеллекта GoogleNet.

После оптимизации и подготовки бинарника в фирменном фреймворке Fathom Deep Learning Software Framework нейросеть эффективно работает на ускорителе Myriad 2 с энергопотреблением менее 1 Вт. Такие микросхемы идеально подходят для роботов, мультикоптеров, смартфонов, видеокамер наблюдения, шлемов дополненной реальности — любых гаджетов, где пригодится распознавание объектов, распознавание речи, трекинг объектов, навигация и т.д.

Одновременно с фреймворком Fathom компания Movidius сегодня на саммите Embedded Vision Summit в Калифорнии впервые показала публике ускоритель-на-флешке Fathom Neural Compute Stick — первый в мире прибор такого рода. Здесь вообще всё сразу готово к применению. Флэшка со встроенным ускорителем Myriad 2 просто вставляется в любое устройство с USB-портом.

Таким образом, теперь разработчики могут нативно испытывать нейросети сразу на целевых устройствах, для которых те разрабатываются.



При подключении к компьютеру флешка Fathom Neural Compute Stick выполняет роль инструмента профилирования и оценки, ускоряя прототипирование и обучение нейросети. Fathom поддерживает основные фреймворки глубинного обучения, в том числе Caffe и TensorFlow.

«Как участник экосистемы глубинного обучения, я давно надеялся на появление чего-нибудь вроде Fathom, — говорит д-р Ян Лекун (Yann LeCun), основатель и директор научного центра данных Нью-Йоркского университета, известный специалист в области машинного обучения, компьютерного зрения, мобильной робототехники и вычислительной нейробиологии, один из создателей технологии сжатия изображений DjVu и языка программирования Lush. — Fathom Neural Compute Stick — это компактный, маломощный ускоритель свёрточных сетей для встроенных приложений, который уникален сам по себе. Как разработчик и создатель различных роботов и беспилотных аппаратов, я давно мечтал получить в свои руки нечто такое. С Fathom каждый робот, большой или маленький, сразу получает наилучшее компьютерное зрение».



Компания Movidius уже получила заказов более чем на 1 млн ускорителей Myriad 2. Компания рассчитывает, что скоро ускориители нейросетей внедрят в смартфоны и другие гаджеты. Это приведёт к распространению множества новых уникальных приложений, которых сейчас так не хватает. Например, мы сможем наконец-то мгновенно распознать девушку в метро, запустив нейросеть с локальной копией профилей «Вконтакте» на собственном смартфоне.

Один из 1000 экземпляров Fathom Neural Compute Stick можно заказать бесплатно для тестирования. Начало продаж ожидается в IV кв. 2016 года по цене менее $100.

Комментарии (13)


  1. Ocelot
    02.05.2016 13:55
    +3

    Началось.


    1. Bot_0002
      02.05.2016 15:17
      +1

      На таком уровне к сожалению еще нет.


      1. GadPetrovich
        02.05.2016 16:34
        +2

        Не волнуйтесь, скоро все будет.


        1. Bot_0002
          02.05.2016 23:32
          +1

          Надеюсь. А то очень уж хочется, в Друмир попасть.


          1. MiksanDr
            03.05.2016 17:37

            Что-то мне кажется, что когда будет на таком уровне долго радоваться мы не будем.


            1. Bot_0002
              04.05.2016 12:59

              Ааа пофиг. Главное успеть сорваться, а там хоть трава не расти.


  1. rPman
    02.05.2016 19:04
    +1

    Есть какие то численные характеристики этого ускорителя, в сравнении с сетями той же размерности на классических CPU/GPU?


  1. Maxmaxmaximus
    02.05.2016 19:54
    -1

    Надо встроить в процессоры, аппаратное ускорение графики, квантовых вычислений, и нейросетей ^_^


    1. Idot
      03.05.2016 14:28

      А насколько трудно запустить нейросеть на GPU?
      (напомнило историю с отдельным физическим процессором PhysX, который более-менее эмулируется на GPU через CUDA/OpenCL)


      1. Bot_0002
        03.05.2016 16:31

        Всегда так. Сначала костыли, потом более менее внедряется.


      1. BelBES
        03.05.2016 23:20
        +1

        Смотря что понимать под "трудно". Большинство алгоритмов, основанных на глубоких нейронных сетях, сейчас в реалтайме способны работать только на топовых десктопных GPU… а всем хочется сетки считать на телефонах.


        1. Idot
          04.05.2016 13:18

          А простенькую нейронную сеть для AI в компьютерной игре GPU ведь потянет?

          PS если Вы в теме (а я по Вашему ответу подозреваю, что Вы и есть тот самый человек, кто в теме), то было бы крайне интересно почитать статью про реализацию нейронной сети на GPU. (возможно, на Хабре, но и Гиктайме — тоже было бы интересно)


          1. barmaley_exe
            04.05.2016 14:41
            +1

            Все операции с нейросетью сводятся к простым операциям линейной алгебры, поэтому сами по себе не очень трудоёмки. Однако, при обучении нужно перелопатить огромное множество данных, причём не один раз, поэтому процесс обучения хочется ускорить настолько, насколько это вообще возможно. Соответственно, для того, чтобы сказать «потянет» или «не потянет», нужно определиться с деталями: насколько большой вход у нейросети, насколько большая (в ширину и глубину) эта сеть, сколько раз в секунду её нужно вызывать.
            Вообще же, мне кажется, в игровом ИИ нейросети используются редко, ведь есть более простые и прозрачные методы.

            Что касается реализации на GPU, то, как правило, никто не пишет GPU-ориентированный сишный код, люди описывают нейросеть на каком-нибудь высокоуровневом языке (python или lua, например) с использованием специального символьного пакета, а потом из этого высокоуровневого описания генерируется сишный код (рассчитанный, как правило, на CUDA – технологию программирования под GPU от nVidia). Он же потом компилируется нужным компилятором, запускается, а результаты можно обрабатывать в том же высокоуровневом языке.