Amazon перенесла часть операций, которые обеспечивают функционирование голосового помощника Alexa, на чипы собственной разработки Inferentia. Компания отказалась от решений Nvidia.
Чип Inferentia производит до 128 триллионов операций в секунду и поддерживает типы данных FP16, BF16 и INT8. Он состоит из четырех ядер NeuronCore. Каждое ядро включает большое количество блоков DPU, которые обрабатывают данные линейным образом. Чип обладает солидным кэшем, что позволяет уменьшить задержки.
Около 80% обработки данных Alexa уже перевели на инстансы Elastic Compute Cloud (EC2) Inf1, которые используют новые чипы. По сравнению с G4, в которых использовались традиционные графические процессоры, инстансы Inf1 увеличивают пропускную способность на 30% и снижают затраты на 45%. Amazon считает, что это лучший экземпляр на рынке для анализа рабочих нагрузок естественного языка и обработки голоса.
Пользователи устройств с голосовым помощником, в том числе и Amazon Echo, задают ему вопрос, и он отправляется в один из ЦОД Amazon для обработки и формирования ответа в формате текста. Затем он переводится в формат аудио и озвучивается Alexa.
Если раньше в этих операциях задействовали микросхемы Nvidia, то теперь большую часть процесса будут выполнять с использованием вычислительного чипа Inferentia.
Чипы начали внедрять и в работу облачной службы распознавания лиц Rekognition.
См. также:
cepera_ang
Заголовок: Amazon отказалась от чипов NVIDIA в пользу собственных (подразумеваем, что выкинула все миллионы серверов с ГПУ на свалку или ещё что-то такое же масштабное)
Содержимое: один из сервисов компании начал использовать собственные чипы для инференса (предсказаний) вместо нвидии. Эка невидаль, могли и на проце вообще запускать, куча народа так делает. Чипы NVIDIA никуда не делись, продолжают работать в облаке (сдаваться в аренду, тренировать нейросети для той же Алексы и т.д.)
Paskin
Может, у NVIDIA наконец-то появится стимул для улучшения драйверов и ПО для их карт. И на форуме разработчиков нанятые за копейки студенты перестанут отвечать «поищите, кто-то недавно про это писал» (там речь шла о другой архитектуре чипа и версии библиотеки).
cepera_ang
Ну, если вам драйверы и ПО нвидии не нравятся, то я боюсь представить, что вы про остальных игроков в этой области скажете :)
Paskin
Вы пробовали работать с TensorRT, nvcc, TRT server или JetPack году так в 2019? Или хотя бы TensorFlow на Jetson установить — не говоря уже о подключении MIPI-камер, произведенных их же сертифицированным и рекомендованным партнером?
Возможно, сейчас все поменялось — но еще год назад было очень печально.
cepera_ang
Пробовал много всего и продолжаю настаивать — нвидия (при всех своих недостатках) ещё молодцом держится среди остальных :)