Всего-то пару лет назад мы не могли общаться с приложениями Google сквозь уличный шум, не переводили русские надписи в Google Translate и не искали фото того самого лабрадудля в Google Photos, только лишь о нём услышав. Дело в том, что наши приложения были тогда недостаточно умны. Что ж, очень быстро они стали значительно, значительно умнее. Сегодня, благодаря технологии машинного обучения, все эти замечательные штуки, равно как и многое другое и более серьёзное, мы можем делать играючи.

В общем, встречайте: мы создали принципиально новую систему машинного обучения по имени TensorFlow. TensorFlow быстрее, умнее и гибче в сравнении с нашей предыдущей технологией (DistBelief, с 2011, та самая, что распознавала кошку без учителя), благодаря чему стало значительно проще адаптировать её к использованию в новых продуктах и исследовательских проектах. TensorFlow – высокомасштабируемая система машинного обучения, способная работать как на простом смартфоне, так и на тысячах узлов в центрах обработки данных. Мы используем TensorFlow для всего спектра наших задач, от распознавания речи до автоответчика в Inbox и поиска в Google Photos. Такая гибкость позволяет нам конструировать и тренировать нейросетки до 5 раз быстрее в сравнении с нашей старой платформой, так что мы действительно можем использовать новую технологию значительно оперативнее.

image


Используя новую систему «прямо из цеха», мы увидели, какие возможности открывает TensorFlow. Стало ясно, что она способна оказать ещё большее влияние за пределами нашей корпорации. Сегодня мы открываем TensorFlow для всех разработчиков в open source. Мы надеемся, что это позволит всему сообществу вокруг машинного обучения, всем – от исследователей до инженеров и просто любителей – обмениваться идеями эффективнее, посредством реально работающего кода, а не путём одних лишь исследовательских статей. В качестве отдачи от этого шага мы планируем использовать вашу обратную связь, чтобы ускорить наши исследования в области машинного обучения, в итоге сделав эту технологию лучше для всех. Кстати, бонус: TensorFlow подходит не только лишь для машинного обучения. Он также может быть полезен во всех случаях, когда исследователи ищут содержание и смысл в очень сложноструктурированных данных – всюду от белковых свёрток в биоинформатике до анализа астрономических таблиц. В то время как предшествующая технология была заточена на нейронные сети и нашу внутреннюю кухню, TensorFlow достаточно обобщён и более эффективен.

Машинное обучение всё ещё в новинку и очень молодо. Сегодня компьютер по-прежнему не способен повторить то, что без усилий проделает и 4-х летний ребёнок. Каково, например, запомнить имя динозавра, увидев лишь пару предъявленных картинок, или же понять, что «Масса рабочего стекла» вовсе не о рабочем-человеке, а «Эти типы стали есть на складе» вовсе не о поедании металла и скорее всего не о людях, пришедших на склад поесть. Впереди много работы в этом направлении. Мы считаем, что TensorFlow даёт замечательную точку отсчёта в начале пути, а также – возможность нам всем идти близкими дорогами в верном направлении. Присоединяйтесь!

Будете пробовать?

Проголосовало 299 человек. Воздержалось 111 человек.

Только зарегистрированные пользователи могут участвовать в опросе. Войдите, пожалуйста.

Комментарии (28)


  1. xGromMx
    10.11.2015 04:04
    +2

    Сам репозиторий github.com/tensorflow/tensorflow


  1. markhor
    10.11.2015 09:38
    +5

    Один в один повторяет наш проект, который мы делали последние 3 года в Самсунге, перед тем как команда распалась — velesnet.ml Но в отличие от нас у Гугла есть на него ресурсы, так что желаю Джеффу Дину и компании успехов, в этой теме много чего интересного.


    1. excoder
      10.11.2015 10:19
      +3

      Спасибо за ссылку! Почему распалась команда?


      1. markhor
        10.11.2015 17:34

        Не то чтобы она совсем распалась, половина контрибьюторов сменили работу в надежде использовать проект в фин секторе. Развитие продолжается, но значительно медленнее, чем раньше.


  1. kraidiky
    10.11.2015 10:01
    +2

    Если бы ещё какая-нибудь фактическая информация о продукте была, а то пока выглядит как буклет написанный маркетологом, а если людям массово так покажется, то может получиться, что вреда от этого поста больше, чем пользы. :(


    1. excoder
      10.11.2015 10:17
      +2

      Она есть здесь: googleresearch.blogspot.se/2015/11/tensorflow-googles-latest-machine_9.html. В переводе действительно буклет от маркетолога директора Google. Он встретился мне вчера ночью и я решил перевести его. По-хорошему надо перевести статью в ссылке, там несколько подробнее. День-два и появятся первые отчёты о пробах в блогах, тогда можно переводить уже их.


    1. excoder
      10.11.2015 10:18
      +1

      Тут мнение двоякое. Google хочет популяризовать эту тему, поэтому появление именно такого поста к библиотеке машинного обучения, в общем, не случайно. Интересно наблюдать, как именно они популяризуют технологию, какую используют риторику при этом.


  1. Infanty
    10.11.2015 12:14

    Мне видится проблема, что они пытаются туда включить всё, что относится к ИИ и обучению. Это с одной стороны хорошо, с другой стороны монстр. В данный момент множество библиотек в фонде Аpache которые могут почти то же самое. Но они на Java и из них самому нужно собирать свой велосипед. В большинстве случаев нужно решать конкретные задачи под которые нужен конкретный велосипед и иногда велосипед из старых технологий надёжней.

    В любом случае TensorFlow пригодится для препарирования и поиска интересных решений в нём.
    Спасибо за новость.


  1. mephistopheies
    10.11.2015 13:02
    +1

    честности ради строит отметить, что они врут про "мы создали принципиально новую систему машинного обучения", уже давно есть github.com/Theano/Theano, и из проект это его клон, вероятно с какими то улечьшениями, но все же клон


    1. excoder
      10.11.2015 15:24
      +1

      Более того, DeepMind, купленный Google, до сих пор использует Torch www.wired.com/2015/11/google-open-sources-its-artificial-intelligence-engine, но не гугловскую технологию.


      1. SkidanovAlex
        10.11.2015 22:45

        (edit: это ответ на комментарий на один уровень выше)

        TensorFlow — это скорее не Theano, а Theano + Lasagne, потому что в TensorFlow есть все слои и апдейт-функции.
        Самая большая критика в адрес Theano всегда была очень медленная компиляция моделей в C/cuda. В TensorFlow компиляции нет, поэтому для прототипирования сложных моделей он подходит намного лучше.


  1. artoym
    11.11.2015 08:04
    +2

    Это, конечно, не принципиально, но я не мог пройти мимо, увидев этот логотип. Всё дело в том что проекция буквы Т симметричная в то время как сама фигура не может дать такую проекцию. Несуществующие фигуры всегда обращают на себя внимание.


    1. kraidiky
      11.11.2015 11:22
      +1

      Прикольно. Не заметил пока вы не сказали. Видимо если сделать как должно быть исходная трёхмерная фигура слишком легко читается к простая сумма двух. Вот её и погнули.


    1. knagaev
      11.11.2015 18:22
      +1

      Почему не может дать?
      Извините, что-то не понял.
      Там неправильно только то, что правую верхнюю палочку (которая формирует верхнюю буквы F) надо было бы отодвинуть правее, то есть удлинить плечо буквы Т, от которого она отходит.
      А здесь получается, что у тени Т правое плечо должно быть короче, чем левое.
      При условии, что угол прямой между правым плечом Т и этой палочкой F.


      1. artoym
        12.11.2015 07:54

        Вы всё правильно описали.


        1. knagaev
          12.11.2015 08:25
          +1

          Забыл там в конце написать «Простите за занудство» :)
          Настроение видео было такое.


  1. excoder
    12.11.2015 00:42

    1. Andrey_Perelygin
      12.11.2015 14:08

      Думаете, эта штука несколько принизит популярность GPU кластеров на базе той же Radeon 6990?


      1. kraidiky
        12.11.2015 14:58

        Вообще другой сегмент. У этой штуки энергопотребление 10Вт. Она рассчитана на применение в мобильной технике, ограниченной по энергии.
        А стада радеонов это для больших стационарных ферм.


        1. excoder
          12.11.2015 15:01

          Да, этот девайс размером с кредитку для конструирования самообучающихся автономных дронов. Другой сегмент, интересно было бы сравнить мощность этой новой штуки в эквивалентном «количестве видеокарт в ферме».


          1. kraidiky
            12.11.2015 15:12

            Заявлен один терафлопс. Дальше всё просто смотрите производительность систем на радионах в интернете и сообщаете тут в комментах. Заодно мы порадуемся, потому как мне тоже интересно. По меркам стационарных систем это не много, как я понимаю, но в пересчёте на Ватт энергии это весьма и весьма сурово.


        1. Andrey_Perelygin
          12.11.2015 15:03

          Быть может, но все же по принципу цена/производительность (мы опускаем энергопотребление и необходимость в мобильности), все же даже стадо из одного радеона видится мне более интересным.
          Печально, что для стационарных систем, отрабатывающих машинное обучение, нет каких-то крутых новинок и прорывов в целом.


          1. kraidiky
            12.11.2015 15:16
            +1

            Почему же нет. Вот например вышла в июле статья vk.com/feed?section=comments&w=wall3614110_4254 про нейронную сетку, которая лучше, чем средний человек предсказывает какое следующее слово будет в обычном на английском языке. Это ахренительный прорыв, на самом деле, причём всего за один год. Ещё в прошлом году было в два раза хуже чем у человека.

            Причём для этого не потребовалось какого-нибудь запредельного железа. Прогресс не столько в железе, сколько в алгоритмах.


            1. Andrey_Perelygin
              12.11.2015 15:30

              И спорить даже не стану, но в случае с железом все же тоже много следствий можно проследить, особенно если говорить про какой-то продакшн…
              Да и в любом случае хотя бы сама разработка: сейчас сижу играюсь с данными на kaggle, запускаю обучение на своей рабочей машине — MacBook Air и это выглядит очень печально, а хотелось бы иметь дома специальный кластер под это дело, который был максимально хорошим с точки зрения цена/производительность и я не беспокоился бы по поводу своевременной оплаты всяких там амазонов и азур


              1. kraidiky
                12.11.2015 16:29

                Вот сильно зависит от алгоритмов. Первые мои три статьи на этом сайте касательно нейронных сетей считались на самсунговском планшете с восьмой виндой в качестве опрационки. В билайновском конкурсе большую часть рассчётов делал на стационарнике, но последние модели из отпуска досчитывал опять на планшете. Я, конечно, из 75% так и не выпрыгнул (сейчас уже знаю почему), но вообще считаю, что если пользуешься не готовыми библиотеками, а пишешь что-то сам, ориентироваться надо на продумывание алгоритмов, а не на взятие задач грубым компьютерным штурмом.

                Хотя это только моё имхо. Вот если я при таком подходе в топ5 выйду хотя бы по одной кагловской задаче — тогда это будет серьёзное авторитетное мнение. :)


                1. Andrey_Perelygin
                  12.11.2015 16:39

                  Да, опять же я согласен с доминирующей важностью алгоритмов. Но как говорится: «Кашу маслом не испортишь», а в нашем случае алгоритм аппаратными ресурсами. И помимо задач по машинному обучению, железку, хорошо считающую числа с плавающей точкой, можно использовать и для подбора тех же хешей в совершенно разнообразных задачах, что делает инвестицию в подобную машинку вполне ликвидной. Но вот нет прямо таки хорошего железа для данных целей.



  1. Andrey_Perelygin
    14.11.2015 14:50

    Никто часом ли не знает хорошей документации по TensorFlow на русском, либо на хорошо воспринимаемом английском?