В общем, встречайте: мы создали принципиально новую систему машинного обучения по имени TensorFlow. TensorFlow быстрее, умнее и гибче в сравнении с нашей предыдущей технологией (DistBelief, с 2011, та самая, что распознавала кошку без учителя), благодаря чему стало значительно проще адаптировать её к использованию в новых продуктах и исследовательских проектах. TensorFlow – высокомасштабируемая система машинного обучения, способная работать как на простом смартфоне, так и на тысячах узлов в центрах обработки данных. Мы используем TensorFlow для всего спектра наших задач, от распознавания речи до автоответчика в Inbox и поиска в Google Photos. Такая гибкость позволяет нам конструировать и тренировать нейросетки до 5 раз быстрее в сравнении с нашей старой платформой, так что мы действительно можем использовать новую технологию значительно оперативнее.
Используя новую систему «прямо из цеха», мы увидели, какие возможности открывает TensorFlow. Стало ясно, что она способна оказать ещё большее влияние за пределами нашей корпорации. Сегодня мы открываем TensorFlow для всех разработчиков в open source. Мы надеемся, что это позволит всему сообществу вокруг машинного обучения, всем – от исследователей до инженеров и просто любителей – обмениваться идеями эффективнее, посредством реально работающего кода, а не путём одних лишь исследовательских статей. В качестве отдачи от этого шага мы планируем использовать вашу обратную связь, чтобы ускорить наши исследования в области машинного обучения, в итоге сделав эту технологию лучше для всех. Кстати, бонус: TensorFlow подходит не только лишь для машинного обучения. Он также может быть полезен во всех случаях, когда исследователи ищут содержание и смысл в очень сложноструктурированных данных – всюду от белковых свёрток в биоинформатике до анализа астрономических таблиц. В то время как предшествующая технология была заточена на нейронные сети и нашу внутреннюю кухню, TensorFlow достаточно обобщён и более эффективен.
Машинное обучение всё ещё в новинку и очень молодо. Сегодня компьютер по-прежнему не способен повторить то, что без усилий проделает и 4-х летний ребёнок. Каково, например, запомнить имя динозавра, увидев лишь пару предъявленных картинок, или же понять, что «Масса рабочего стекла» вовсе не о рабочем-человеке, а «Эти типы стали есть на складе» вовсе не о поедании металла и скорее всего не о людях, пришедших на склад поесть. Впереди много работы в этом направлении. Мы считаем, что TensorFlow даёт замечательную точку отсчёта в начале пути, а также – возможность нам всем идти близкими дорогами в верном направлении. Присоединяйтесь!
Только зарегистрированные пользователи могут участвовать в опросе. Войдите, пожалуйста.
Комментарии (28)
markhor
10.11.2015 09:38+5Один в один повторяет наш проект, который мы делали последние 3 года в Самсунге, перед тем как команда распалась — velesnet.ml Но в отличие от нас у Гугла есть на него ресурсы, так что желаю Джеффу Дину и компании успехов, в этой теме много чего интересного.
kraidiky
10.11.2015 10:01+2Если бы ещё какая-нибудь фактическая информация о продукте была, а то пока выглядит как буклет написанный маркетологом, а если людям массово так покажется, то может получиться, что вреда от этого поста больше, чем пользы. :(
excoder
10.11.2015 10:17+2Она есть здесь: googleresearch.blogspot.se/2015/11/tensorflow-googles-latest-machine_9.html. В переводе действительно буклет от
маркетологадиректора Google. Он встретился мне вчера ночью и я решил перевести его. По-хорошему надо перевести статью в ссылке, там несколько подробнее. День-два и появятся первые отчёты о пробах в блогах, тогда можно переводить уже их.
excoder
10.11.2015 10:18+1Тут мнение двоякое. Google хочет популяризовать эту тему, поэтому появление именно такого поста к библиотеке машинного обучения, в общем, не случайно. Интересно наблюдать, как именно они популяризуют технологию, какую используют риторику при этом.
Infanty
10.11.2015 12:14Мне видится проблема, что они пытаются туда включить всё, что относится к ИИ и обучению. Это с одной стороны хорошо, с другой стороны монстр. В данный момент множество библиотек в фонде Аpache которые могут почти то же самое. Но они на Java и из них самому нужно собирать свой велосипед. В большинстве случаев нужно решать конкретные задачи под которые нужен конкретный велосипед и иногда велосипед из старых технологий надёжней.
В любом случае TensorFlow пригодится для препарирования и поиска интересных решений в нём.
Спасибо за новость.
mephistopheies
10.11.2015 13:02+1честности ради строит отметить, что они врут про "мы создали принципиально новую систему машинного обучения", уже давно есть github.com/Theano/Theano, и из проект это его клон, вероятно с какими то улечьшениями, но все же клон
excoder
10.11.2015 15:24+1Более того, DeepMind, купленный Google, до сих пор использует Torch www.wired.com/2015/11/google-open-sources-its-artificial-intelligence-engine, но не гугловскую технологию.
SkidanovAlex
10.11.2015 22:45(edit: это ответ на комментарий на один уровень выше)
TensorFlow — это скорее не Theano, а Theano + Lasagne, потому что в TensorFlow есть все слои и апдейт-функции.
Самая большая критика в адрес Theano всегда была очень медленная компиляция моделей в C/cuda. В TensorFlow компиляции нет, поэтому для прототипирования сложных моделей он подходит намного лучше.
artoym
11.11.2015 08:04+2Это, конечно, не принципиально, но я не мог пройти мимо, увидев этот логотип. Всё дело в том что проекция буквы Т симметричная в то время как сама фигура не может дать такую проекцию. Несуществующие фигуры всегда обращают на себя внимание.
kraidiky
11.11.2015 11:22+1Прикольно. Не заметил пока вы не сказали. Видимо если сделать как должно быть исходная трёхмерная фигура слишком легко читается к простая сумма двух. Вот её и погнули.
knagaev
11.11.2015 18:22+1Почему не может дать?
Извините, что-то не понял.
Там неправильно только то, что правую верхнюю палочку (которая формирует верхнюю буквы F) надо было бы отодвинуть правее, то есть удлинить плечо буквы Т, от которого она отходит.
А здесь получается, что у тени Т правое плечо должно быть короче, чем левое.
При условии, что угол прямой между правым плечом Т и этой палочкой F.
excoder
12.11.2015 00:4210 ноября как ночь релизов в Deep Learning. Вот и nvidia: nvidianews.nvidia.com/news/tiny-nvidia-supercomputer-to-bring-artificial-intelligence-to-new-generation-of-autonomous-robots-and-drones.
Andrey_Perelygin
12.11.2015 14:08Думаете, эта штука несколько принизит популярность GPU кластеров на базе той же Radeon 6990?
kraidiky
12.11.2015 14:58Вообще другой сегмент. У этой штуки энергопотребление 10Вт. Она рассчитана на применение в мобильной технике, ограниченной по энергии.
А стада радеонов это для больших стационарных ферм.excoder
12.11.2015 15:01Да, этот девайс размером с кредитку для конструирования самообучающихся автономных дронов. Другой сегмент, интересно было бы сравнить мощность этой новой штуки в эквивалентном «количестве видеокарт в ферме».
kraidiky
12.11.2015 15:12Заявлен один терафлопс. Дальше всё просто смотрите производительность систем на радионах в интернете и сообщаете тут в комментах. Заодно мы порадуемся, потому как мне тоже интересно. По меркам стационарных систем это не много, как я понимаю, но в пересчёте на Ватт энергии это весьма и весьма сурово.
Andrey_Perelygin
12.11.2015 15:03Быть может, но все же по принципу цена/производительность (мы опускаем энергопотребление и необходимость в мобильности), все же даже стадо из одного радеона видится мне более интересным.
Печально, что для стационарных систем, отрабатывающих машинное обучение, нет каких-то крутых новинок и прорывов в целом.kraidiky
12.11.2015 15:16+1Почему же нет. Вот например вышла в июле статья vk.com/feed?section=comments&w=wall3614110_4254 про нейронную сетку, которая лучше, чем средний человек предсказывает какое следующее слово будет в обычном на английском языке. Это ахренительный прорыв, на самом деле, причём всего за один год. Ещё в прошлом году было в два раза хуже чем у человека.
Причём для этого не потребовалось какого-нибудь запредельного железа. Прогресс не столько в железе, сколько в алгоритмах.Andrey_Perelygin
12.11.2015 15:30И спорить даже не стану, но в случае с железом все же тоже много следствий можно проследить, особенно если говорить про какой-то продакшн…
Да и в любом случае хотя бы сама разработка: сейчас сижу играюсь с данными на kaggle, запускаю обучение на своей рабочей машине — MacBook Air и это выглядит очень печально, а хотелось бы иметь дома специальный кластер под это дело, который был максимально хорошим с точки зрения цена/производительность и я не беспокоился бы по поводу своевременной оплаты всяких там амазонов и азурkraidiky
12.11.2015 16:29Вот сильно зависит от алгоритмов. Первые мои три статьи на этом сайте касательно нейронных сетей считались на самсунговском планшете с восьмой виндой в качестве опрационки. В билайновском конкурсе большую часть рассчётов делал на стационарнике, но последние модели из отпуска досчитывал опять на планшете. Я, конечно, из 75% так и не выпрыгнул (сейчас уже знаю почему), но вообще считаю, что если пользуешься не готовыми библиотеками, а пишешь что-то сам, ориентироваться надо на продумывание алгоритмов, а не на взятие задач грубым компьютерным штурмом.
Хотя это только моё имхо. Вот если я при таком подходе в топ5 выйду хотя бы по одной кагловской задаче — тогда это будет серьёзное авторитетное мнение. :)Andrey_Perelygin
12.11.2015 16:39Да, опять же я согласен с доминирующей важностью алгоритмов. Но как говорится: «Кашу маслом не испортишь», а в нашем случае алгоритм аппаратными ресурсами. И помимо задач по машинному обучению, железку, хорошо считающую числа с плавающей точкой, можно использовать и для подбора тех же хешей в совершенно разнообразных задачах, что делает инвестицию в подобную машинку вполне ликвидной. Но вот нет прямо таки хорошего железа для данных целей.
excoder
13.11.2015 21:53Ну точно сговорились, вот только вчера: blogs.technet.com/b/inside_microsoft_research/archive/2015/11/12/microsoft-open-sources-distributed-machine-learning-toolkit-efficient-big-data-research.aspx
Andrey_Perelygin
14.11.2015 14:50Никто часом ли не знает хорошей документации по TensorFlow на русском, либо на хорошо воспринимаемом английском?
xGromMx
Сам репозиторий github.com/tensorflow/tensorflow