В то время как производители десктопных процессоров не могут освоить техпроцесс 10 нм, продолжая выпускать самые мощные процессоры по техпроцессу 14 нм, другие производители электроники уже преодолели этот технологический рубеж.
23 февраля 2017 года компания Samsung представила последнее поколение высокопрозводительных систем-на-кристалле (SoC, СнК) — Exynos 8895, первую СнК, спроектированную Samsung по технологическому процессу с проектной нормой 10 нм (FinFET). Этот СнК опредялет технические характеристики самых мощных смартфонов ближайшего будущего, может быть, следующего Galaxy S8 (апрель). Похожие характеристики будут у чипа A11 в iPhone 8 (сентябрь), производством которого тоже по 10-нм техпроцессу занимается TSMC.
Компания Samsung давно выпускает мобильную линейку СнК Exynos, но в последнее время она явно застолбила за собой лидерские позиции в секторе high-end, что подтвердили последние модели микросхем Exynos 7420 и Exynos 8890, выполненные по техпроцессу 14-нм. Кстати, Exynos 8890 стал первым СнК, который основан на собственной микроархитектуре Exynos M1 от компании Samsung. По сравнению со стандартными архитектурами ARM в неё внесён ряд изменений и улучшений.
Exynos 8895 продолжает эту традицию, он тоже базируется на собственной микроархитектуре и ядрах M1.
По названию Exynos 8895 понятно, что он не должен сильно отличаться от Exynos 8890, но всё-таки ряд приятных изменений имеется. Самое главное, конечно, это переход на техпроцесс 10 нм. А в технических характеристиках бросается в глаза радикальное улучшение процессора изображения (ISP). Обработка сигнала с фронтальной камеры увеличена с разрешения 13 МП сразу до 28 МП. Основная камера «подросла» с 24 МП до 28 МП, появился режим «двойной камеры». Улучшились характеристики модема, который теперь поддерживает приём данных со скоростью до 1 Гбита/c (LTE Cat16) — прямо как будущий LTE-модем Qualcomm X20.
Серьёзно улучшена графика до Mali G71MP20. Этот графический процессор может обсчитывать виртуальную реальность с разрешением 4K, поддерживает Vulkan API, OpenGL ES и OpenCL. Новые смартфоны смогут работать на дисплеях с разрешением 3840?2400 и 4096?2160.
Тактовые частоты центрального и графического процессора пока не известны.
Спецификации Exynos SoC
SoC | Exynos 8895 | Exynos 8890 | Exynos 7420 |
---|---|---|---|
CPU | 4x A53 4x Exynos M2(?) |
4x A53@1,6 ГГц 4x Exynos M1 @ 2,3 ГГц |
4x A53@1,5 ГГц 4x A57@2,1 ГГц |
GPU | Mali G71MP20 | Mali T880MP12 @ 650 МГц |
Mali T760MP8 @ 770 МГц |
Контроллер памяти | 2x 32-бит(?) LPDDR4x |
2x 32-бит LPDDR4 @ 1794 МГц 28,7 ГБ/с b/w |
2x 32-бит LPDDR4 @ 1555 МГц 24,8 ГБ/с b/w |
Хранение | eMMC 5.1, UFS 2.1 | eMMC 5.1, UFS 2.0 | eMMC 5.1, UFS 2.0 |
Модем | Приём: LTE Cat16 Передача: LTE Cat13 |
Приём: LTE Cat12 Передача: LTE Cat13 |
Неизвестно |
ISP | Задний: 28 МП Фронтальный: 28 МП |
Задний: 24 МП Фронтальный: 13 МП |
Задний: 16 МП Фронтальный: 5 МП |
Техпроцесс | Samsung 10 нм LPE |
Samsung 14 нм LPP |
Samsung 14 нм LPE |
Благодаря переходу на техпроцесс 10 нм LPE удалось добиться роста производительности на 27% и снизить энергопотребление на 40% относительно 14 нм. Правда, компания не указывает явно, что улучшения по этим двум параметрам достигнуты одновременно. Более реалистичной кажется оценка о повышении производительности или снижении энергопотребления.
Восьмиядерный Exynos 8895 содержит четыре высокопроизводительных ядра «второго поколения» (M2?) и четыре энергоэффективных ядра. Сейчас пока неизвестно, какие конкретно изменения внесены в ядро «второго поколения» по сравнению с M1.
Поcкольку энергоэффективные ядра Cortex-A53 тоже производятся по 10-нм техпроцессу, то при сохранении прежней архитектуры они должны стать совсем крошечными по размеру — ведь даже на 14 нм они были меньше 1 мм?.
Exynos 8895 станет первой СнК от Samsung с поддержкой гетерогенной системной архитектуры (Heterogeneous System Architecture, HSA). Это значит, что модули CPU и GPU работают на одной шине с общей памятью, что улучшает производительность СнК и облегчает программирование. Больше не требуется двигать данные из памяти CPU в память GPU и обратно.
Samsung внедрила в микросхему более энергоэффективную память LPDDR4x, которая является расширением стандарта LPDDR4. Её энергопотребление снижено на 20% за счёт уменьшения выходного напряжения I/O VDDQ на 45%, то есть с 1,1 В до 0,6 В. Память LPDDR4x только начали производить, её поддерживает также недавно анонсированный Qualcomm Snapdragon 835.
Из других улучшений Samsung упоминает новый видеодекодер Multi-Format Codec (MFC), который поддерживает самые последние видеоформаты HEVC и VP9 со скоростью декодирования 120 кадров/с на максимальном разрешении 4K UHD.
В конце концов, Samsung интегрировала в Exynos 8895 «подсистему безопасности с отдельным вычислительным модулем» для аутентификации (распознавание радужной оболочки глаза, отпечатков пальцев), мобильных платежей и тому подобного. По описанию она звучит как Apple Secure Enclave.
Samsung объявила, что массовое производство Exynos 8895 уже началось, так что выход Galaxy S8 явно не за горами.
Комментарии (82)
thousandsofthem
24.02.2017 17:00Интересно сколько еще можно уменьшать техпроцесс.
Есть очевидная проблема:
Шаг кристаллической решетки кремния ~0.5 нм (т е при техпроцессе из статьи там 20 атомов в ширину это характерный размер элемента)
Даже если появится чудесный нано-сборщик то транзистор из пары атомов не выглядит хоть сколь-нибудь надежноdevlind
24.02.2017 17:49+14Сейчас проблема не в кристаллической решетке (до неё ещё далеко), а в длинне волны, которую используют для фотолитографии. В данный момент используется глубокий ультрафиолет ( что-то около 135нм ). Но его возможности уже на грани. Сейчас голландцы, которые являются главными поставщиками фотолитографов пытаются освоить EUV (Extreme Ultra Violet) с длинной волны 13.5 нм — это почти ренгтгеновское излучение. Фишка там в том, что все материалы поглощают этот свет, так что они пытаются сделать супер мощный источник. Грубо говоря, там будет стоять инфракрасный углеводородный лазер почти как на Звезде Смерти, который испаряет капли олова, которые излучают ультрафиолет. Там гиганская система зеркал, которые поглощают почти весь свет + там вакуум, т.к. воздух его бы тоже поглощал. И вдобавок ко всему миллион нерешённых проблем, от деградации материалов до отсутсвия прозрачных защитных плёнок (чтобы не падал мусор на чип). В общем, задачка не из лёгких. Но демонстраторы технологий уже есть.
В общем, когда я слышу нытьё по поводу того, что новые процессоры очень дорогие, у меня начинается праведный гнев, ведь на 1 пластину нужно потратить месяца 2-3 чтобы сделать готовое изделие. Там целая куча побочных проблем, о которых рядовой обыватель и слыхом не слыхивал. Уменьшая с этим источником света (135нм) техпроцесс, пластину нужно дольше держать под светом, соответственно падает выход пластин, соотсветственно растёт цена. Один только завод по производству новых чипов стоит около 10 млрд долларов =\rPman
25.02.2017 09:18вот была статья про это — https://geektimes.ru/post/282408/
p.s. доля себестоимости комплектующих, а тем более процессора, пусть и SoC, в стоимости конечного устройства мала, если не ничтожна
EvilGenius18
24.02.2017 17:54+1В 2016 в Berkeley Lab создали 1 нм затвор из углеродных нано-трубок и полупроводником из MoS2, вместо кремния, и замеры показали, что затвор в паре с MoS2 работает и позволяет контролировать поток электронов, но до конечного устройства там еще далеко.
С традиционными транзисторами из кремния, квантовое туннелирование начинает вмешиваться в работу транзисторов уже на 5 — 7 нм, и не позволяет закрываться затворам корректно.
geisha
24.02.2017 20:51+2Транзисторы из 2D TMD делают года с 2011 и без нанотрубной экзотики что, впрочем, не делает из серьёзной научной работы потенциального технологического процесса.
beeruser
24.02.2017 20:49+4>> 20 атомов в ширину это характерный размер элемента
Число в названии техпроцесса это «маркетинговые нанометры»
http://www.electronics-eetimes.com/news/samsung%E2%80%99s-14-nm-lpe-finfet-transistors/page/0/3
Mad__Max
01.03.2017 05:24Тех процессы частично маркетинговые сейчас. И в лучшем случае при минимуме маркетинга эти 14-10 нм примерно соответствуют толщине затвора — самой узкой и маленькой части транзистора. Сам транзистор целиком имеет линейные размеры в десятки нм (30-50 нм для самых современных тех процессов) и все еще состоит из сотен тысяч или миллионов атомов каждый.
Ну и для сложный чипов (а не оперативной памяти или флеша с простыми регулярными структурами) самой сложное это не тех процесс, а проектирование его схемы. Производительность и возможности давно этим ограничиваются, а не тем что «транзисторного бюджета» не хватает для реализации задуманного.
osipov_dv
24.02.2017 17:56-1Лет через 5 никто не удивится процессору в настольном компьютере от Samsung? :)
А ведь TSMC когда-то давно уже делала десктопные процы, если мне не изменяет память… Что-то вроде 486-586.Kroligoff
25.02.2017 06:56Не думаю, на десктопах время устаревания теперь очень низкое, а вот в мобильных устройствах год-два, поэтому будут зарабатывать деньги дам.
Diordna
25.02.2017 10:00Если они сохранятся через 5 лет. Такими темпами развития процессоров от сторонних производителей думаю через 5 лет мы будем сидеть на smartbox/планшетах.
FluD
24.02.2017 18:33Давно мучает вопрос. Почему столь мощные чипы не вставляют в обычный десктопный комп? как в своё время Ageia додумалась использовать чип для просчёта физики, по той же технологий можно сделать супер функциональную плату расширения и не только для физики. Какой нибудь офисный пентиум обрадуется такой мощности по цене тв андройд коробки.
grvelvet
24.02.2017 19:28+2Во первых это ARM, во вторых десктопных осей под ARM кроме линукс нет.
grvelvet
24.02.2017 19:34Насчет платы расширения — очевидно это не нужно производителям. Сопроцессоры давно уже отмерли.
burivuh26
24.02.2017 23:21+1десктопных осей под ARM кроме линукс нет.
Microsoft пытается. В декабре была новость о том, что Windows 10 заработала на планшете под управлением Qualcomm Snapdragon 820.grvelvet
25.02.2017 03:52Именно что пытается — RT неудачна без приложений, а на 10 еще нет полноценных uwp программ.
Chamie
25.02.2017 13:16Так всё потому, что они пытаются не только на ARMе запуститься, но ещё и Metro/UWP/whatever в нагрузку навязать. Если бы они не заблокировали на RT запуск/установку WinAPI-программ, такой напряжёнки с софтом бы на ней не было.
Да, были хаки для этого, но рынок софта для «ломанных» устройств — это так себе рынок.
Lofer
25.02.2017 09:56Вроде как Windows 10 для ARM в процессе
perfektsionistor
27.02.2017 11:31Винда 10 на ARM может заработать в виде запуска через эмулятор команд ARM. Такой для ARM делала команда от Эльбруса. Обещали выкатить в 14 году, но как-то оно затихло.
DakDF
25.02.2017 09:56Как только выйдет обещанный Windows 10 под ARM кто-то потеряет часть рынка.
rPman
25.02.2017 21:40выход windows ничего не решает, так как само оно не нужно, а нужны программы, которые собирают под эту платформу.
так как для arm версии windows потребуется не просто пересборка а портирование приложения на новую платформу, у программистов будет выбор, менять платформу на linux/android (которая уже давно на рынке) или ставить на черную лошадку.DakDF
25.02.2017 21:59На данный момент Windows 10 под ARM процессоры позиционирует себя как полноценная ОС имеющая возможность запуска x86 приложений без портирования, в отличии от RT.
Насколько это все правда судить можно будет после релиза, но на данный момент запускали фотошоп и маловероятно, что его портировали.
Поэтому перспективы у такого решения весьма и весьма.rPman
25.02.2017 22:07+1возможность запуска x86 приложений без портирования
как? точнее какой ценой? виртуализация на порядок понижает производительность,DakDF
25.02.2017 22:17Ну какой смысл до релиза делать какие либо выводы о производительности?
Но факт запуска приложений без портирования имеет место быть, а следовательно основная проблема с экосистемой решена. А следовательно продукт найдет своего потребителя и отнимет часть рынка.r0mik
26.02.2017 12:50эта часть — это .NET-приложения.
это уже было в windows-RT и оказалось никому не нужным.
все остальное через эмуляцию. а значит на порядки медленней. сейчас есть эмуляторы x86 и для Андроид, но никто ими не пользуется, потому как крайне медленно. а быстрее не будет…qw1
26.02.2017 13:57+1Речь тут не о компиляции MSIL в код процессора, а о динамической рекомпиляции, которую умеют продвинутые эмуляторы.
Эмулятор выделяет некоторую «горячую» функцию, в которой процессор крутится 95% времени, транслирует её в псевдокод, а затем компилирует в ARM-инструкции, и вместо пошагового выполнения функции запускает нативный вариант. Если код на лету не меняется, замедления на порядки не будет. Тормоза только при старте, когда нужно скомпилировать код.6opoDuJIo
26.02.2017 16:37Эм, чего-то вы загнули. Всё гораздо проще: при сабмиттинге в магазин, IL код транслируется в код всех поддерживаемых архитектур уже на серверрах MS.
qw1
26.02.2017 21:13Это не какая-то фантастика, а общепринятый на данный момент подход к эмуляции.
См. список эмуляторов, которые поддерживают эту фичу, в разделе Applications:
https://en.wikipedia.org/wiki/Dynamic_recompilation
DakDF
26.02.2017 14:47С RT сразу было всё понятно, т.к. экосистемы никакой (вернее минимальная), нужно создавать с нуля и зависит от заинтересованности людей выпускать ПО под такие платформы. Те же метро-приложения из той же оперы.
Но теперь ситуация иная.
Эмуляция, вирутализация или что то иное это не известно, производительность неизвестна, так откуда такие выводы: «быстрее не будет».
В общем поживем увидим.
Zverienish
26.02.2017 11:14+1по идее можно делать JIT компиляцию. И если программа не модифицирует свой код, то должно работать почти как родное.
Кстати, когда маки переходили на интеловские процессоры, старые программы запускались через обычную эмуляцию. И как-то в таком режиме пережили период, пока программисты переделывали программы.rPman
26.02.2017 12:22в теории все выглядит красиво, но на практике ни одна виртуальная машина с полной виртуализацией процессора не работает достаточно быстро чтобы это стало незаметно!
я не слышал чтобы у майкрософт была технология заметно производительней существующих решений.
Помним, что в данной ситуации платформа arm будет конкурировать с существующими решениями x86, и windows на arm должна предоставить какие то ощутимые бонусы,… даже при равных по цена/производительности решениях виртуализация съест все остальные бонусы типа энергопотребление и размер.
6opoDuJIo
24.02.2017 20:16Вероятно потому, что они все-равно слабее десктопных видях и процов. Не будете же вы GTX 1080 сравнивать с Mali G71MP20? Если по полосе пропускания шины памяти сравняться ещё худо-бедно они могут, то вот по филлрейту GTX 1080 будет далеко впереди (увы, я так и не нашёл ни в одной «спецификации» G71MP20 филлрейта).
beeruser
24.02.2017 22:22+2>> увы, я так и не нашёл ни в одной «спецификации» G71MP20 филлрейта
fillrate 1 пиксель/такт на ядро
triangle rate 1/32 на ядро
Для частоты, скажем, 850МГц на MP20 получаем
0.85*20 = 17Гпикс/с
0.85*20/32 = 531Mtri/с6opoDuJIo
26.02.2017 01:26Что и требовалось показать: речь идёт о топовом ARM SOC'е, насколько я понял. По филлрейту видяха не дотягивает и половины до далеко не топовой gtx 960m (~70Гпикс/c).
qw1
26.02.2017 11:25+1Довольно странно сравнивать встроенную графику (которая сильно ограничена по тепловыделению) с дискретной GTX1080. Сравнивайте тогда уж со встроенной в процессор Intel HD 530.
6opoDuJIo
26.02.2017 17:15+1Сравниваем «топчик с топчиком», поэтому и такое сравнение. В добавок, чип то «4k vr», давайте сравнивать с десктопными решениями, которые позиционируются аналогично, раз уж спрашивают, почему «такие мощные чипы» не ставят на десктопы (хотя, какой-нибудь radeon с аналогичными характеристиками должен быть дешевле такого чипа).
rPman
26.02.2017 18:15какое-нибудь ушлое подразделение выпустит мультипроцессорное arm-решение или что-нибудь типа paralella со своим 1024-ядерным risc процессором, и картина на ват/гигафлопс станет совсем другой
Zverienish
26.02.2017 11:16+1Это только узкой категории надо, ну и любителям играть. Для рабочих машин, в большестве, и для печатанья, интернета, мультимедиа хватит с лихвой.
6opoDuJIo
26.02.2017 18:44Для таких уже давно выпускают процессоры со встроенными видяшкам: смотреть кинцо и сидеть в браузере и т.д. и т.п. их возможностей хватает, благо существуют аппаратные кодеки, которые пихаются абсолютно везде.
UJIb9I4AnJIbIrUH
24.02.2017 20:27+2Вообще в этом месяце опять активизировался старый как мир бубнёж про процессоры на ARM в макбуках.
UJIb9I4AnJIbIrUH
24.02.2017 23:17Вообще вспомнилось ещё вот что. Кажется в SoC для смартфонов очень многое убрано по сравнению с десктопными CPU. А десктопные CPU сделаны так, чтобы на них можно было делать всё что душе угодно. Согласитесь, было бы сложновато разрабатывать и выпускать 50 разных процессоров на x86 для того, чтобы ни у кого не было избыточной производительности. Видимо, с экономической точки зрения данная задача решается выпуском CPU «всё в одном и для всех». А когда из x86 убрали всё «лишнее для смартфона», то получился Intel Atom, который сейчас Asus ставит во все свои смартфоны (может не во все, но во многие) и производительность у него емнип похуже Snapdragon 820.
burivuh26
24.02.2017 23:31Не знаю что ж именно не устроило Intel в мобильных Atom-ах, но от мобильных процессоров сине-голубые отказались полностью ещё летом.
beeruser
24.02.2017 23:37+2>> Кажется в SoC для смартфонов очень многое убрано по сравнению с десктопными CPU
Чтобы что-то убрать, это «что-то» нужно сперва добавить.
>> Intel Atom, который сейчас Asus ставит во все свои смартфоны (может не во все, но во многие)
Ни в какие свои смартфоны Asus не ставит Atom уже второй год как (ещё до того как Интел прекратил их производить).
Актуальное поколение — Asus Zenfone 3.UJIb9I4AnJIbIrUH
25.02.2017 00:10Благодарю за пояснение по асусам, не знал.
Про добавление я может быть не совсем понятно выразился: я имел в виду, что многое из того, что есть в десктопных x86 (Intel Core iX, AMD FX и т.д.) отсутствует в ARM-based SoC для смартфонов. А если всё это лишнее из x86 CPU убрать, то получится Atom с близким к ARM-SoC уровнем производительности и TDP. Поэтому, чисто гипотетически, если «всё убранное в х86» добавить в процессор на ARM, то не факт, что выигрыш по TDP будет существенным. Может будет, может нет. Может они в идеале вообще близки по показателю TDP, кто его знает.beeruser
25.02.2017 00:49>> многое из того, что есть в десктопных x86 (Intel Core iX, AMD FX и т.д.) отсутствует в ARM-based SoC для смартфонов
Единственное что там есть это космический потолок по TDP.
Apple A10 по устройству ядра и по сложности микроархитектуры сравним с актуальными процессорами Интел, и даже где-то лучше. Например ещё начиная с A7 декодируется 6 инструкций за такт, что на сегодняшнем топовом х86 возможно только при чтении инструкций из кеша микроопераций, т.е. грубо говоря только для «горячего» кода, и то лишь на последней микроархитектуре Skylake.
На данный момент A10 может уверенно соперничать с совсем не смартфонным Core-m по производительности.
Атом там даже рядом не стоял.
Да, инженеры Intel могут «выехать на скиле», но это единичные проценты производительности, либо следствие большего теплопакета — можно использовать более «тяжелые» методы чтобы делать больше действий за такт. Подсистема памяти очень требовательна и Интел умеет её делать.
Да банально 256-бит SIMD на смартфонах не взлетит — с ним и десктопы в тротлинг уходят.UJIb9I4AnJIbIrUH
25.02.2017 12:54Справедливости ради, Core M3/5/7 нельзя назвать совсем уж несмартфонным чипом. Его TDP составляет 4,5 Вт и у некоторых моделей он может быть занижен до 3,5 Вт, а у QS820 тдп оценивается в 4-6 Вт. Может поэтому Intel и отказался от Atom.
rPman
25.02.2017 21:35потому что драйвера есть только под android стек, он не очень удобный для десктопа.
слышал о проектах чего то типа xserver-а использующего драйвера android но похоже дело не очень двигается
beavis88
27.02.2017 11:11Даже видеокарты невозможно компоновать таким образом, а тут целый комп в компе.
Mad__Max
01.03.2017 05:38+2Они только в попугаях и маркетинге мощные.
Как-то сравнивал не нескольких задачах существующих под х86 и под ARM одновременно, так 1 ядро моего старого десктопного AMD Phenom II за единицу времени делает работу для выполнения который понадобится почти 10 ядер современных смартфонов на базе ARM ну или в 10 раз дольше считать на 1м.
Порядок был примерно такой, для одной и той же задачи:
на смартфонном ARM — считать несколько часов
на десктопном х86 — несколько десятков минут
при портировании на OpenCL и обработке на современном десктопном GPU — меньше 1 минутыrPman
01.03.2017 13:05Есть маленький нюанс, — throttling
Мобильные процессоры (будь то arm или x86) принудительно замедляют работу при повышении температуры, на практике почти сразу после начала длительных ресурсоемких вычислений, усугубляет ситуацию еще и пассивный дизайн системы охлаждения.
если вы установите принудительное охлаждение мобильного чипа (полагаю даже простое охлаждение корпуса даст заметный плюс), результаты сравнения у вас будут менее 'шокирующими'Mad__Max
02.03.2017 00:35Я на андроид «смарт-тв» приставке тестировал, там с питанием(от сети) и охлаждением порядок — на чипе радиатор стоит. Он пассивный, но при потреблении <5 Вт принудительный обдув и не нужен, конвекции хватает.
rPman
01.03.2017 13:31Тест rgbenchmm (нагуглил первое попавшееся исследование производительности, там использовали этот тест) есть для android и pc
xiaomi redmi 3 (чуть больше минуты на тест, нагреться не успевает):
thread Mflops 1 1457 2 2743 4 3153
аналог linpack для pc для разных моделей процессора дает от 15Gflops (intel i3 530) до 57Gflops (amd phenom II x6 1605t, 6 thread)
так что да, 10-кратное превосходство в скорости при еще большем превосходстве энергопотребления и занимаемого местаMad__Max
02.03.2017 00:24+1При этом это еще без оптимизации под SIMD инструкции современных х86. Версия линпак поддерживающая AVX дает на современных десктопных х86 (i5, i7, FX-8xxx) больше 100 Gflops.
Ну а большая энергоэффективность ARM в основном за счет малой частоты работы достигается. Если на х86 пропорционально сбросить частоту и понизить напряжение работы, то энергоэффективность вырастет примерно до уровня ARM. Чудес не бывает.
Например мой Phenom II X4 может жрать до 110 Вт при работе на 3.6 Ггц, при этом скорость в линпак 34 Gflops. — в 10 с лишним раз выше чем у хорошего современного ARM процессора и в 20-30 раз выше чем у старых 4х ARM. Но ценой примерно в 30 раз большего потребления энергии
Но еще много лет назад AMD выпускала серверную версию работающую на сниженных частотах (2,2-2,6 Ггц) и сниженном напряжении питания. Где в те же самые 120 Вт укладывалось уже 12 таких же ядер Phenom II — потребление тоже, но общая скорость примерно в 2 раза выше.
Если взять не Phenom, а более современное х86 ядро, еще дальше скинуть частоту, где-то до уровня типичного для ARM (~1.5 Ггц) и за счет этого поставить еще ниже напряжение, то энергоэффективность получим не хуже чем у ARM.
Например в суперэконономичном режиме (800 МГц, 0,7-0,9в) современный 4х ядерный х86 потребляет на уровне смартфонных и планшетных ARM, но при этом остается все еще быстрее в большинстве задач.
P.S.
В работе по ссылке у рябят ошибка очень жирная — энергоэффективность х86 сильно занизили, взяв потребление для 2х процессорного сервера, а посчитав скорость только для 1 процессора. В результате разница в эффективности использования энергии с серверными х86 не 4х кратная примерно как они вывели, а только 2х кратная. Которая легко свести в 0 или до преимущества х86 просто скинув частоты.
donvictorio
24.02.2017 20:48-2в недалёком будущем видится мне некая универсальная дешёвая плантация ячеек, типа FPGA, на которой в режиме реального времени можно выстраивать любую нужную инфраструктуру под требования софта. нужно физику считать — быстро поднялось 1000 ядрышек для физики. нужно видео крутое — 2000 ядрышек под видео. нужно ещё какую-то байду — загружается соответственная «схема». так же проще… вроде.
sleeply4cat
24.02.2017 23:54Как софт будет разделять это устройство? Наверняка ресурс переконфигурирования ограничен, квантовать время использования не выйдет.
Grox
25.02.2017 00:57+4Энергоэффективность будет низкой. Специализированные ядра меньше и быстрее, а значит будут потреблять меньше.
Dageron
24.02.2017 20:55+1По поводу LTE не совсем понятно: какие операторы смогут такой пропускной канал обеспечивать? Ладно, модем смартфона, но ведь куда большую важность имеет вторая сторона коннекта.
Sma11erM1nd
24.02.2017 23:05Ну как бы вот например. https://habrahabr.ru/company/megafon/blog/308850/
bobych_spb
25.02.2017 10:00+1Ну во первых проблемы оператора для производителя SoC это как проблемы индейцев для шерифа :)
Во вторых есть еще момент лицензирования фич чипсета для конкретной страны или оператора. Это уже производитель смартфона договаривается с производителем SoC. Так что для России к примеру или для Европы могут просто залочить всякие 5СА и оставить 3СА которые к примеру Мегафон обеспечить может.
Ну и третий момент. Не нашел информации как конкретно у сансунга сделано, но у Qualcomm с их Snapdragon черным по белому написано, что модем X16 требует хотя бы 20MHz лицензируемого спектра, X20 допускает использование 10MHz лицензированных частот. Все остальное соответственно допускается размещать в не лицензируемом спектре. 20MHz есть почти у каждого оператора. Ну а как будет жить гигабит на не лицензируемом спектре — покажет практика :)Dageron
25.02.2017 12:21Как я понимаю, это все решаемо в рамках государства, ведь проводятся тендеры на частоты и т.п.? Просто на начальных этапах это может быть очень затратно для самого оператора связи.
bobych_spb
25.02.2017 22:16так свободных частот уже давно нет… Изначально была утопично-здравая идея создать одного оператора который бы заведовал всеми частотами и обеспечивал бы радиодоступ для всех остальных операторов. Не взлетело, каждый в итоге строит сам. Хорошо хоть технологическую нейтральность приняли и теперь в России LTE можно строить в диапазонах:
bobych_spb
25.02.2017 22:29— B1 2100 65MHz наглухо занято 3G
— B3 1800 75MHz занято GSM/3G хотя в Москве уже потихоньку переделывают на LTE
— B7 2600 70MHz разделено поровну между операторами
— B20 800 30MHz разделено между операторами
— B31 450 4.2Mhz исторически принадлежит Tele2
Так что если разделить на 3-4 оператора получится по чуть-чуть у каждого? и ни про какие 5СА речи быть не может.Dageron
25.02.2017 22:41Вот оно как! Не знал, что настолько все невесело в плане распределения частот операторам. Хорошим бы выходом тут, пожалуй, могла бы быть аренда радиочастот и инфраструктуры сети одних операторов у других (насколько знаю, так изначально было у Мегафона и 4G в ряде регионов).
Есть еще один небольшой вопрос. Боюсь покажу свое дилетантство в радиофизике и протоколировании сигналов, но все же хотел бы уточнить, можно ли вообще увести все это дело за пределы данной «вилки частот»? На более высокие или низкие частоты.bobych_spb
26.02.2017 00:08Да, в 5G именно это и сделали. там от 6GHz и выше. С одной стороны чем выше тем свободнее. Но дальность сильно падает. в районе 28GHz можно и 200MHz и 400MHz ширину канала взять, но дальность покрытия будет десятки метров, а значит БС надо ставить плотнее и т.д.
zikasak
26.02.2017 13:27Все так, но B7 не поровну разделено. У мегафона 40 мегагерц (благодаря покупке йоты). У остальных по 10
bkotov
24.02.2017 22:20+1Догонит ли A10?
burivuh26
24.02.2017 23:40В бенчмарках — хз. Обычно Apple в них лидирует по одноядерному режиму, а в многоядерном где-то в середине-конце списка.
Однако учитывая то, что нет абсолютно идентичных референсных устройств (с одинаковыми ТТХ кроме процессора), на которых бы и проводилось сравнение Exynos и Apple A процессоров — сравнение обычно довольно субъективное.
Последние несколько лет все тестировщики говорят, что все работает идеально на обоих флагманах (iPhone и Galaxy S), а дальше всё сводится к фишкам ОС и субъективной любви тестировщика к одной из платформ.bkotov
25.02.2017 09:36Ну понятно что все субъективно. Хотя насчет многоядерных тестов, вроде как A10 если не на первых позициях, то очень близко к верхней строчке. Но есть и более приземленные тесты — где запускают по-кругу приложения и игры, выполняют одинаковые действия и подобное. Айфон тоже обычно оказывается впереди, хотя насколько высок в этом вклад процессора непонятно.
nrv
27.02.2017 12:31HSA? Интересно… AMD еще со времен Llano пудрит голову GPU вычисления и особо эффективными в случае расположения GPU на кристалле с ЦРУ. Но, как я понимаю, поддержки в прикладном ПО не было. Если теперь это будет не только у AMD, может это наконец станет реально использоваться.
Incognito4pda
Вот это зверь! Надеюсь его успеют вкрячить в S8!
h31
Конечно. Для него как раз и делают.
qw1
Во всех анонсах — Qualcomm SD835.
Вообще, у Samsung эксклюзивный контракт с Qualcomm, что SD835 первые месяцы после выхода S8 не получит никакой другой производитель. Из-за этого HTC перенесёт выпуск флагмана на лето, а LG выпустит на старом поколении SD.
Вот будет забавно, если Samsung свой флагман выпустит на Snapdragon, а конкурентам будет продавать Exynos.
h31
Samsung всегда делал две версии Galaxy: со Snapdragon для Америки и Китая и с Exynos для остальных стран. Это связано в первую очередь со стандартами связи. Ясное дело, что сайты и их анонсы в основном ориентируются на американский вариант.
qw1
Это так, но всё равно получается красивая комбинация для захвата рынка — запрещаем поставлять SD другим вендорам и продаём им свой новый Exynos как единственную сопоставимую альтернативу.
Shished
Никто ничего не запрещает. Самсунг скупила все процессоры.
qw1
Нет, там всё сложнее.
Только Самсунг может произвести SD835, потому что больше нигде нет технологии 10nm. И они согласилась их произвести, но сначала только для себя. Когда себе уже будет не надо, то можно и для других поделать.
Если бы всё было честно-рыночно, без эксклюзивных договоров, то
1. Неужели за 6 месяцев до продажи нельзя было запланировать увеличение объёмов производства, чтобы превзойти объёмы, которые Самсунг скупил. Они покупают, а мы ещё больше делаем.
2. Неужели нельзя задрать цены так, чтобы «скупить всё» было невыгодно. Чтобы скупил тот, кто готов платить больше.
h31
Никто не будет просто так переходить на другой чипсет. Нужно целиком переделывать прошивку, менять цепочки снабжения. Слишком дорого, проще подождать лета.