В то время как производители десктопных процессоров не могут освоить техпроцесс 10 нм, продолжая выпускать самые мощные процессоры по техпроцессу 14 нм, другие производители электроники уже преодолели этот технологический рубеж.

23 февраля 2017 года компания Samsung представила последнее поколение высокопрозводительных систем-на-кристалле (SoC, СнК) — Exynos 8895, первую СнК, спроектированную Samsung по технологическому процессу с проектной нормой 10 нм (FinFET). Этот СнК опредялет технические характеристики самых мощных смартфонов ближайшего будущего, может быть, следующего Galaxy S8 (апрель). Похожие характеристики будут у чипа A11 в iPhone 8 (сентябрь), производством которого тоже по 10-нм техпроцессу занимается TSMC.

Компания Samsung давно выпускает мобильную линейку СнК Exynos, но в последнее время она явно застолбила за собой лидерские позиции в секторе high-end, что подтвердили последние модели микросхем Exynos 7420 и Exynos 8890, выполненные по техпроцессу 14-нм. Кстати, Exynos 8890 стал первым СнК, который основан на собственной микроархитектуре Exynos M1 от компании Samsung. По сравнению со стандартными архитектурами ARM в неё внесён ряд изменений и улучшений.

Exynos 8895 продолжает эту традицию, он тоже базируется на собственной микроархитектуре и ядрах M1.

По названию Exynos 8895 понятно, что он не должен сильно отличаться от Exynos 8890, но всё-таки ряд приятных изменений имеется. Самое главное, конечно, это переход на техпроцесс 10 нм. А в технических характеристиках бросается в глаза радикальное улучшение процессора изображения (ISP). Обработка сигнала с фронтальной камеры увеличена с разрешения 13 МП сразу до 28 МП. Основная камера «подросла» с 24 МП до 28 МП, появился режим «двойной камеры». Улучшились характеристики модема, который теперь поддерживает приём данных со скоростью до 1 Гбита/c (LTE Cat16) — прямо как будущий LTE-модем Qualcomm X20.



Серьёзно улучшена графика до Mali G71MP20. Этот графический процессор может обсчитывать виртуальную реальность с разрешением 4K, поддерживает Vulkan API, OpenGL ES и OpenCL. Новые смартфоны смогут работать на дисплеях с разрешением 3840?2400 и 4096?2160.

Тактовые частоты центрального и графического процессора пока не известны.

Спецификации Exynos SoC
SoC Exynos 8895 Exynos 8890 Exynos 7420
CPU 4x A53

4x Exynos M2(?)
4x A53@1,6 ГГц

4x Exynos M1 @ 2,3 ГГц
4x A53@1,5 ГГц

4x A57@2,1 ГГц
GPU Mali G71MP20 Mali T880MP12
@ 650 МГц
Mali T760MP8
@ 770 МГц
Контроллер памяти 2x 32-бит(?)
LPDDR4x
2x 32-бит
LPDDR4 @ 1794 МГц

28,7 ГБ/с b/w
2x 32-бит
LPDDR4 @ 1555 МГц

24,8 ГБ/с b/w
Хранение eMMC 5.1, UFS 2.1 eMMC 5.1, UFS 2.0 eMMC 5.1, UFS 2.0
Модем Приём: LTE Cat16
Передача: LTE Cat13
Приём: LTE Cat12
Передача: LTE Cat13
Неизвестно
ISP Задний: 28 МП
Фронтальный: 28 МП
Задний: 24 МП
Фронтальный: 13 МП
Задний: 16 МП
Фронтальный: 5 МП
Техпроцесс Samsung
10 нм LPE
Samsung
14 нм LPP
Samsung
14 нм LPE

Благодаря переходу на техпроцесс 10 нм LPE удалось добиться роста производительности на 27% и снизить энергопотребление на 40% относительно 14 нм. Правда, компания не указывает явно, что улучшения по этим двум параметрам достигнуты одновременно. Более реалистичной кажется оценка о повышении производительности или снижении энергопотребления.

Восьмиядерный Exynos 8895 содержит четыре высокопроизводительных ядра «второго поколения» (M2?) и четыре энергоэффективных ядра. Сейчас пока неизвестно, какие конкретно изменения внесены в ядро «второго поколения» по сравнению с M1.

Поcкольку энергоэффективные ядра Cortex-A53 тоже производятся по 10-нм техпроцессу, то при сохранении прежней архитектуры они должны стать совсем крошечными по размеру — ведь даже на 14 нм они были меньше 1 мм?.

Exynos 8895 станет первой СнК от Samsung с поддержкой гетерогенной системной архитектуры (Heterogeneous System Architecture, HSA). Это значит, что модули CPU и GPU работают на одной шине с общей памятью, что улучшает производительность СнК и облегчает программирование. Больше не требуется двигать данные из памяти CPU в память GPU и обратно.

Samsung внедрила в микросхему более энергоэффективную память LPDDR4x, которая является расширением стандарта LPDDR4. Её энергопотребление снижено на 20% за счёт уменьшения выходного напряжения I/O VDDQ на 45%, то есть с 1,1 В до 0,6 В. Память LPDDR4x только начали производить, её поддерживает также недавно анонсированный Qualcomm Snapdragon 835.

Из других улучшений Samsung упоминает новый видеодекодер Multi-Format Codec (MFC), который поддерживает самые последние видеоформаты HEVC и VP9 со скоростью декодирования 120 кадров/с на максимальном разрешении 4K UHD.

В конце концов, Samsung интегрировала в Exynos 8895 «подсистему безопасности с отдельным вычислительным модулем» для аутентификации (распознавание радужной оболочки глаза, отпечатков пальцев), мобильных платежей и тому подобного. По описанию она звучит как Apple Secure Enclave.

Samsung объявила, что массовое производство Exynos 8895 уже началось, так что выход Galaxy S8 явно не за горами.
Поделиться с друзьями
-->

Комментарии (82)


  1. Incognito4pda
    24.02.2017 16:44

    Вот это зверь! Надеюсь его успеют вкрячить в S8!


    1. h31
      24.02.2017 19:59

      Конечно. Для него как раз и делают.


      1. qw1
        25.02.2017 15:32

        Во всех анонсах — Qualcomm SD835.
        Вообще, у Samsung эксклюзивный контракт с Qualcomm, что SD835 первые месяцы после выхода S8 не получит никакой другой производитель. Из-за этого HTC перенесёт выпуск флагмана на лето, а LG выпустит на старом поколении SD.

        Вот будет забавно, если Samsung свой флагман выпустит на Snapdragon, а конкурентам будет продавать Exynos.


        1. h31
          25.02.2017 18:16

          Samsung всегда делал две версии Galaxy: со Snapdragon для Америки и Китая и с Exynos для остальных стран. Это связано в первую очередь со стандартами связи. Ясное дело, что сайты и их анонсы в основном ориентируются на американский вариант.


          1. qw1
            25.02.2017 19:48

            Это так, но всё равно получается красивая комбинация для захвата рынка — запрещаем поставлять SD другим вендорам и продаём им свой новый Exynos как единственную сопоставимую альтернативу.


            1. Shished
              26.02.2017 08:56
              +1

              Никто ничего не запрещает. Самсунг скупила все процессоры.


              1. qw1
                26.02.2017 13:51

                Нет, там всё сложнее.

                Только Самсунг может произвести SD835, потому что больше нигде нет технологии 10nm. И они согласилась их произвести, но сначала только для себя. Когда себе уже будет не надо, то можно и для других поделать.

                Если бы всё было честно-рыночно, без эксклюзивных договоров, то
                1. Неужели за 6 месяцев до продажи нельзя было запланировать увеличение объёмов производства, чтобы превзойти объёмы, которые Самсунг скупил. Они покупают, а мы ещё больше делаем.
                2. Неужели нельзя задрать цены так, чтобы «скупить всё» было невыгодно. Чтобы скупил тот, кто готов платить больше.


            1. h31
              26.02.2017 12:03

              Никто не будет просто так переходить на другой чипсет. Нужно целиком переделывать прошивку, менять цепочки снабжения. Слишком дорого, проще подождать лета.


  1. thousandsofthem
    24.02.2017 17:00

    Интересно сколько еще можно уменьшать техпроцесс.
    Есть очевидная проблема:
    Шаг кристаллической решетки кремния ~0.5 нм (т е при техпроцессе из статьи там 20 атомов в ширину это характерный размер элемента)
    Даже если появится чудесный нано-сборщик то транзистор из пары атомов не выглядит хоть сколь-нибудь надежно


    1. devlind
      24.02.2017 17:49
      +14

      Сейчас проблема не в кристаллической решетке (до неё ещё далеко), а в длинне волны, которую используют для фотолитографии. В данный момент используется глубокий ультрафиолет ( что-то около 135нм ). Но его возможности уже на грани. Сейчас голландцы, которые являются главными поставщиками фотолитографов пытаются освоить EUV (Extreme Ultra Violet) с длинной волны 13.5 нм — это почти ренгтгеновское излучение. Фишка там в том, что все материалы поглощают этот свет, так что они пытаются сделать супер мощный источник. Грубо говоря, там будет стоять инфракрасный углеводородный лазер почти как на Звезде Смерти, который испаряет капли олова, которые излучают ультрафиолет. Там гиганская система зеркал, которые поглощают почти весь свет + там вакуум, т.к. воздух его бы тоже поглощал. И вдобавок ко всему миллион нерешённых проблем, от деградации материалов до отсутсвия прозрачных защитных плёнок (чтобы не падал мусор на чип). В общем, задачка не из лёгких. Но демонстраторы технологий уже есть.
      В общем, когда я слышу нытьё по поводу того, что новые процессоры очень дорогие, у меня начинается праведный гнев, ведь на 1 пластину нужно потратить месяца 2-3 чтобы сделать готовое изделие. Там целая куча побочных проблем, о которых рядовой обыватель и слыхом не слыхивал. Уменьшая с этим источником света (135нм) техпроцесс, пластину нужно дольше держать под светом, соответственно падает выход пластин, соотсветственно растёт цена. Один только завод по производству новых чипов стоит около 10 млрд долларов =\


      1. encyclopedist
        25.02.2017 01:28
        +1

        Сейчас используются 193 нм эксимерные лазеры.


      1. rPman
        25.02.2017 09:18

        вот была статья про это — https://geektimes.ru/post/282408/
        p.s. доля себестоимости комплектующих, а тем более процессора, пусть и SoC, в стоимости конечного устройства мала, если не ничтожна


    1. EvilGenius18
      24.02.2017 17:54
      +1

      В 2016 в Berkeley Lab создали 1 нм затвор из углеродных нано-трубок и полупроводником из MoS2, вместо кремния, и замеры показали, что затвор в паре с MoS2 работает и позволяет контролировать поток электронов, но до конечного устройства там еще далеко.
      С традиционными транзисторами из кремния, квантовое туннелирование начинает вмешиваться в работу транзисторов уже на 5 — 7 нм, и не позволяет закрываться затворам корректно.


      1. geisha
        24.02.2017 20:51
        +2

        Транзисторы из 2D TMD делают года с 2011 и без нанотрубной экзотики что, впрочем, не делает из серьёзной научной работы потенциального технологического процесса.


    1. beeruser
      24.02.2017 20:49
      +4

      >> 20 атомов в ширину это характерный размер элемента

      Число в названии техпроцесса это «маркетинговые нанометры»
      http://www.electronics-eetimes.com/news/samsung%E2%80%99s-14-nm-lpe-finfet-transistors/page/0/3


    1. Mad__Max
      01.03.2017 05:24

      Тех процессы частично маркетинговые сейчас. И в лучшем случае при минимуме маркетинга эти 14-10 нм примерно соответствуют толщине затвора — самой узкой и маленькой части транзистора. Сам транзистор целиком имеет линейные размеры в десятки нм (30-50 нм для самых современных тех процессов) и все еще состоит из сотен тысяч или миллионов атомов каждый.

      Ну и для сложный чипов (а не оперативной памяти или флеша с простыми регулярными структурами) самой сложное это не тех процесс, а проектирование его схемы. Производительность и возможности давно этим ограничиваются, а не тем что «транзисторного бюджета» не хватает для реализации задуманного.


  1. osipov_dv
    24.02.2017 17:56
    -1

    Лет через 5 никто не удивится процессору в настольном компьютере от Samsung? :)
    А ведь TSMC когда-то давно уже делала десктопные процы, если мне не изменяет память… Что-то вроде 486-586.


    1. Kroligoff
      25.02.2017 06:56

      Не думаю, на десктопах время устаревания теперь очень низкое, а вот в мобильных устройствах год-два, поэтому будут зарабатывать деньги дам.


    1. Diordna
      25.02.2017 10:00

      Если они сохранятся через 5 лет. Такими темпами развития процессоров от сторонних производителей думаю через 5 лет мы будем сидеть на smartbox/планшетах.


  1. BZAin
    24.02.2017 18:03
    +1

    отличная новость… теперь VR станет еще ближе.


  1. FluD
    24.02.2017 18:33

    Давно мучает вопрос. Почему столь мощные чипы не вставляют в обычный десктопный комп? как в своё время Ageia додумалась использовать чип для просчёта физики, по той же технологий можно сделать супер функциональную плату расширения и не только для физики. Какой нибудь офисный пентиум обрадуется такой мощности по цене тв андройд коробки.


    1. grvelvet
      24.02.2017 19:28
      +2

      Во первых это ARM, во вторых десктопных осей под ARM кроме линукс нет.


      1. grvelvet
        24.02.2017 19:34

        Насчет платы расширения — очевидно это не нужно производителям. Сопроцессоры давно уже отмерли.


      1. burivuh26
        24.02.2017 23:21
        +1

        десктопных осей под ARM кроме линукс нет.

        Microsoft пытается. В декабре была новость о том, что Windows 10 заработала на планшете под управлением Qualcomm Snapdragon 820.


        1. grvelvet
          25.02.2017 03:52

          Именно что пытается — RT неудачна без приложений, а на 10 еще нет полноценных uwp программ.


          1. Chamie
            25.02.2017 13:16

            Так всё потому, что они пытаются не только на ARMе запуститься, но ещё и Metro/UWP/whatever в нагрузку навязать. Если бы они не заблокировали на RT запуск/установку WinAPI-программ, такой напряжёнки с софтом бы на ней не было.
            Да, были хаки для этого, но рынок софта для «ломанных» устройств — это так себе рынок.


            1. grvelvet
              25.02.2017 15:39

              ЕМНИП, программы пересобранные под arm win 32 требовали обязательной подписи MS.


              1. qw1
                25.02.2017 16:31

                Во времена Windows Mobile — нет )))


            1. Zverienish
              26.02.2017 11:07

              Только вот где эти программы под WinAPI на арм взять?


      1. Lofer
        25.02.2017 09:56

        Вроде как Windows 10 для ARM в процессе


        1. perfektsionistor
          27.02.2017 11:31

          Винда 10 на ARM может заработать в виде запуска через эмулятор команд ARM. Такой для ARM делала команда от Эльбруса. Обещали выкатить в 14 году, но как-то оно затихло.


      1. DakDF
        25.02.2017 09:56

        Как только выйдет обещанный Windows 10 под ARM кто-то потеряет часть рынка.


        1. rPman
          25.02.2017 21:40

          выход windows ничего не решает, так как само оно не нужно, а нужны программы, которые собирают под эту платформу.

          так как для arm версии windows потребуется не просто пересборка а портирование приложения на новую платформу, у программистов будет выбор, менять платформу на linux/android (которая уже давно на рынке) или ставить на черную лошадку.


          1. DakDF
            25.02.2017 21:59

            На данный момент Windows 10 под ARM процессоры позиционирует себя как полноценная ОС имеющая возможность запуска x86 приложений без портирования, в отличии от RT.
            Насколько это все правда судить можно будет после релиза, но на данный момент запускали фотошоп и маловероятно, что его портировали.

            Поэтому перспективы у такого решения весьма и весьма.


            1. rPman
              25.02.2017 22:07
              +1

              возможность запуска x86 приложений без портирования
              как? точнее какой ценой? виртуализация на порядок понижает производительность,


              1. DakDF
                25.02.2017 22:17

                Ну какой смысл до релиза делать какие либо выводы о производительности?

                Но факт запуска приложений без портирования имеет место быть, а следовательно основная проблема с экосистемой решена. А следовательно продукт найдет своего потребителя и отнимет часть рынка.


                1. r0mik
                  26.02.2017 12:50

                  эта часть — это .NET-приложения.
                  это уже было в windows-RT и оказалось никому не нужным.
                  все остальное через эмуляцию. а значит на порядки медленней. сейчас есть эмуляторы x86 и для Андроид, но никто ими не пользуется, потому как крайне медленно. а быстрее не будет…


                  1. qw1
                    26.02.2017 13:57
                    +1

                    Речь тут не о компиляции MSIL в код процессора, а о динамической рекомпиляции, которую умеют продвинутые эмуляторы.

                    Эмулятор выделяет некоторую «горячую» функцию, в которой процессор крутится 95% времени, транслирует её в псевдокод, а затем компилирует в ARM-инструкции, и вместо пошагового выполнения функции запускает нативный вариант. Если код на лету не меняется, замедления на порядки не будет. Тормоза только при старте, когда нужно скомпилировать код.


                    1. 6opoDuJIo
                      26.02.2017 16:37

                      Эм, чего-то вы загнули. Всё гораздо проще: при сабмиттинге в магазин, IL код транслируется в код всех поддерживаемых архитектур уже на серверрах MS.


                      1. qw1
                        26.02.2017 21:13

                        Это не какая-то фантастика, а общепринятый на данный момент подход к эмуляции.

                        См. список эмуляторов, которые поддерживают эту фичу, в разделе Applications:
                        https://en.wikipedia.org/wiki/Dynamic_recompilation


                  1. DakDF
                    26.02.2017 14:47

                    С RT сразу было всё понятно, т.к. экосистемы никакой (вернее минимальная), нужно создавать с нуля и зависит от заинтересованности людей выпускать ПО под такие платформы. Те же метро-приложения из той же оперы.

                    Но теперь ситуация иная.

                    Эмуляция, вирутализация или что то иное это не известно, производительность неизвестна, так откуда такие выводы: «быстрее не будет».

                    В общем поживем увидим.


              1. Zverienish
                26.02.2017 11:14
                +1

                по идее можно делать JIT компиляцию. И если программа не модифицирует свой код, то должно работать почти как родное.
                Кстати, когда маки переходили на интеловские процессоры, старые программы запускались через обычную эмуляцию. И как-то в таком режиме пережили период, пока программисты переделывали программы.


                1. rPman
                  26.02.2017 12:22

                  в теории все выглядит красиво, но на практике ни одна виртуальная машина с полной виртуализацией процессора не работает достаточно быстро чтобы это стало незаметно!
                  я не слышал чтобы у майкрософт была технология заметно производительней существующих решений.

                  Помним, что в данной ситуации платформа arm будет конкурировать с существующими решениями x86, и windows на arm должна предоставить какие то ощутимые бонусы,… даже при равных по цена/производительности решениях виртуализация съест все остальные бонусы типа энергопотребление и размер.


    1. 6opoDuJIo
      24.02.2017 20:16

      Вероятно потому, что они все-равно слабее десктопных видях и процов. Не будете же вы GTX 1080 сравнивать с Mali G71MP20? Если по полосе пропускания шины памяти сравняться ещё худо-бедно они могут, то вот по филлрейту GTX 1080 будет далеко впереди (увы, я так и не нашёл ни в одной «спецификации» G71MP20 филлрейта).


      1. beeruser
        24.02.2017 22:22
        +2

        >> увы, я так и не нашёл ни в одной «спецификации» G71MP20 филлрейта

        fillrate 1 пиксель/такт на ядро
        triangle rate 1/32 на ядро

        Для частоты, скажем, 850МГц на MP20 получаем
        0.85*20 = 17Гпикс/с
        0.85*20/32 = 531Mtri/с


        1. 6opoDuJIo
          26.02.2017 01:26

          Что и требовалось показать: речь идёт о топовом ARM SOC'е, насколько я понял. По филлрейту видяха не дотягивает и половины до далеко не топовой gtx 960m (~70Гпикс/c).


          1. qw1
            26.02.2017 11:25
            +1

            Довольно странно сравнивать встроенную графику (которая сильно ограничена по тепловыделению) с дискретной GTX1080. Сравнивайте тогда уж со встроенной в процессор Intel HD 530.


            1. 6opoDuJIo
              26.02.2017 17:15
              +1

              Сравниваем «топчик с топчиком», поэтому и такое сравнение. В добавок, чип то «4k vr», давайте сравнивать с десктопными решениями, которые позиционируются аналогично, раз уж спрашивают, почему «такие мощные чипы» не ставят на десктопы (хотя, какой-нибудь radeon с аналогичными характеристиками должен быть дешевле такого чипа).


              1. rPman
                26.02.2017 18:15

                какое-нибудь ушлое подразделение выпустит мультипроцессорное arm-решение или что-нибудь типа paralella со своим 1024-ядерным risc процессором, и картина на ват/гигафлопс станет совсем другой


      1. Zverienish
        26.02.2017 11:16
        +1

        Это только узкой категории надо, ну и любителям играть. Для рабочих машин, в большестве, и для печатанья, интернета, мультимедиа хватит с лихвой.


        1. 6opoDuJIo
          26.02.2017 18:44

          Для таких уже давно выпускают процессоры со встроенными видяшкам: смотреть кинцо и сидеть в браузере и т.д. и т.п. их возможностей хватает, благо существуют аппаратные кодеки, которые пихаются абсолютно везде.


    1. UJIb9I4AnJIbIrUH
      24.02.2017 20:27
      +2

      Вообще в этом месяце опять активизировался старый как мир бубнёж про процессоры на ARM в макбуках.


    1. UJIb9I4AnJIbIrUH
      24.02.2017 23:17

      Вообще вспомнилось ещё вот что. Кажется в SoC для смартфонов очень многое убрано по сравнению с десктопными CPU. А десктопные CPU сделаны так, чтобы на них можно было делать всё что душе угодно. Согласитесь, было бы сложновато разрабатывать и выпускать 50 разных процессоров на x86 для того, чтобы ни у кого не было избыточной производительности. Видимо, с экономической точки зрения данная задача решается выпуском CPU «всё в одном и для всех». А когда из x86 убрали всё «лишнее для смартфона», то получился Intel Atom, который сейчас Asus ставит во все свои смартфоны (может не во все, но во многие) и производительность у него емнип похуже Snapdragon 820.


      1. burivuh26
        24.02.2017 23:31

        Не знаю что ж именно не устроило Intel в мобильных Atom-ах, но от мобильных процессоров сине-голубые отказались полностью ещё летом.


      1. beeruser
        24.02.2017 23:37
        +2

        >> Кажется в SoC для смартфонов очень многое убрано по сравнению с десктопными CPU
        Чтобы что-то убрать, это «что-то» нужно сперва добавить.

        >> Intel Atom, который сейчас Asus ставит во все свои смартфоны (может не во все, но во многие)
        Ни в какие свои смартфоны Asus не ставит Atom уже второй год как (ещё до того как Интел прекратил их производить).
        Актуальное поколение — Asus Zenfone 3.


        1. UJIb9I4AnJIbIrUH
          25.02.2017 00:10

          Благодарю за пояснение по асусам, не знал.
          Про добавление я может быть не совсем понятно выразился: я имел в виду, что многое из того, что есть в десктопных x86 (Intel Core iX, AMD FX и т.д.) отсутствует в ARM-based SoC для смартфонов. А если всё это лишнее из x86 CPU убрать, то получится Atom с близким к ARM-SoC уровнем производительности и TDP. Поэтому, чисто гипотетически, если «всё убранное в х86» добавить в процессор на ARM, то не факт, что выигрыш по TDP будет существенным. Может будет, может нет. Может они в идеале вообще близки по показателю TDP, кто его знает.


          1. beeruser
            25.02.2017 00:49

            >> многое из того, что есть в десктопных x86 (Intel Core iX, AMD FX и т.д.) отсутствует в ARM-based SoC для смартфонов

            Единственное что там есть это космический потолок по TDP.
            Apple A10 по устройству ядра и по сложности микроархитектуры сравним с актуальными процессорами Интел, и даже где-то лучше. Например ещё начиная с A7 декодируется 6 инструкций за такт, что на сегодняшнем топовом х86 возможно только при чтении инструкций из кеша микроопераций, т.е. грубо говоря только для «горячего» кода, и то лишь на последней микроархитектуре Skylake.
            На данный момент A10 может уверенно соперничать с совсем не смартфонным Core-m по производительности.
            Атом там даже рядом не стоял.
            Да, инженеры Intel могут «выехать на скиле», но это единичные проценты производительности, либо следствие большего теплопакета — можно использовать более «тяжелые» методы чтобы делать больше действий за такт. Подсистема памяти очень требовательна и Интел умеет её делать.
            Да банально 256-бит SIMD на смартфонах не взлетит — с ним и десктопы в тротлинг уходят.


            1. UJIb9I4AnJIbIrUH
              25.02.2017 12:54

              Справедливости ради, Core M3/5/7 нельзя назвать совсем уж несмартфонным чипом. Его TDP составляет 4,5 Вт и у некоторых моделей он может быть занижен до 3,5 Вт, а у QS820 тдп оценивается в 4-6 Вт. Может поэтому Intel и отказался от Atom.


    1. rPman
      25.02.2017 21:35

      потому что драйвера есть только под android стек, он не очень удобный для десктопа.
      слышал о проектах чего то типа xserver-а использующего драйвера android но похоже дело не очень двигается


    1. beavis88
      27.02.2017 11:11

      Даже видеокарты невозможно компоновать таким образом, а тут целый комп в компе.


    1. Mad__Max
      01.03.2017 05:38
      +2

      Они только в попугаях и маркетинге мощные.

      Как-то сравнивал не нескольких задачах существующих под х86 и под ARM одновременно, так 1 ядро моего старого десктопного AMD Phenom II за единицу времени делает работу для выполнения который понадобится почти 10 ядер современных смартфонов на базе ARM ну или в 10 раз дольше считать на 1м.
      Порядок был примерно такой, для одной и той же задачи:
      на смартфонном ARM — считать несколько часов
      на десктопном х86 — несколько десятков минут
      при портировании на OpenCL и обработке на современном десктопном GPU — меньше 1 минуты


      1. rPman
        01.03.2017 13:05

        Есть маленький нюанс, — throttling
        Мобильные процессоры (будь то arm или x86) принудительно замедляют работу при повышении температуры, на практике почти сразу после начала длительных ресурсоемких вычислений, усугубляет ситуацию еще и пассивный дизайн системы охлаждения.

        если вы установите принудительное охлаждение мобильного чипа (полагаю даже простое охлаждение корпуса даст заметный плюс), результаты сравнения у вас будут менее 'шокирующими'


        1. Mad__Max
          02.03.2017 00:35

          Я на андроид «смарт-тв» приставке тестировал, там с питанием(от сети) и охлаждением порядок — на чипе радиатор стоит. Он пассивный, но при потреблении <5 Вт принудительный обдув и не нужен, конвекции хватает.


      1. rPman
        01.03.2017 13:31

        Тест rgbenchmm (нагуглил первое попавшееся исследование производительности, там использовали этот тест) есть для android и pc
        xiaomi redmi 3 (чуть больше минуты на тест, нагреться не успевает):

        thread	Mflops
        1	1457
        2	2743
        4	3153
        

        аналог linpack для pc для разных моделей процессора дает от 15Gflops (intel i3 530) до 57Gflops (amd phenom II x6 1605t, 6 thread)
        так что да, 10-кратное превосходство в скорости при еще большем превосходстве энергопотребления и занимаемого места


        1. Mad__Max
          02.03.2017 00:24
          +1

          При этом это еще без оптимизации под SIMD инструкции современных х86. Версия линпак поддерживающая AVX дает на современных десктопных х86 (i5, i7, FX-8xxx) больше 100 Gflops.

          Ну а большая энергоэффективность ARM в основном за счет малой частоты работы достигается. Если на х86 пропорционально сбросить частоту и понизить напряжение работы, то энергоэффективность вырастет примерно до уровня ARM. Чудес не бывает.
          Например мой Phenom II X4 может жрать до 110 Вт при работе на 3.6 Ггц, при этом скорость в линпак 34 Gflops. — в 10 с лишним раз выше чем у хорошего современного ARM процессора и в 20-30 раз выше чем у старых 4х ARM. Но ценой примерно в 30 раз большего потребления энергии

          Но еще много лет назад AMD выпускала серверную версию работающую на сниженных частотах (2,2-2,6 Ггц) и сниженном напряжении питания. Где в те же самые 120 Вт укладывалось уже 12 таких же ядер Phenom II — потребление тоже, но общая скорость примерно в 2 раза выше.

          Если взять не Phenom, а более современное х86 ядро, еще дальше скинуть частоту, где-то до уровня типичного для ARM (~1.5 Ггц) и за счет этого поставить еще ниже напряжение, то энергоэффективность получим не хуже чем у ARM.
          Например в суперэконономичном режиме (800 МГц, 0,7-0,9в) современный 4х ядерный х86 потребляет на уровне смартфонных и планшетных ARM, но при этом остается все еще быстрее в большинстве задач.

          P.S.
          В работе по ссылке у рябят ошибка очень жирная — энергоэффективность х86 сильно занизили, взяв потребление для 2х процессорного сервера, а посчитав скорость только для 1 процессора. В результате разница в эффективности использования энергии с серверными х86 не 4х кратная примерно как они вывели, а только 2х кратная. Которая легко свести в 0 или до преимущества х86 просто скинув частоты.


  1. donvictorio
    24.02.2017 20:48
    -2

    в недалёком будущем видится мне некая универсальная дешёвая плантация ячеек, типа FPGA, на которой в режиме реального времени можно выстраивать любую нужную инфраструктуру под требования софта. нужно физику считать — быстро поднялось 1000 ядрышек для физики. нужно видео крутое — 2000 ядрышек под видео. нужно ещё какую-то байду — загружается соответственная «схема». так же проще… вроде.


    1. sleeply4cat
      24.02.2017 23:54

      Как софт будет разделять это устройство? Наверняка ресурс переконфигурирования ограничен, квантовать время использования не выйдет.


    1. Grox
      25.02.2017 00:57
      +4

      Энергоэффективность будет низкой. Специализированные ядра меньше и быстрее, а значит будут потреблять меньше.


  1. Dageron
    24.02.2017 20:55
    +1

    По поводу LTE не совсем понятно: какие операторы смогут такой пропускной канал обеспечивать? Ладно, модем смартфона, но ведь куда большую важность имеет вторая сторона коннекта.


    1. knstqq
      24.02.2017 21:37

      фемто-соты в офисе или дома, например?


    1. Sma11erM1nd
      24.02.2017 23:05

      Ну как бы вот например. https://habrahabr.ru/company/megafon/blog/308850/


    1. bobych_spb
      25.02.2017 10:00
      +1

      Ну во первых проблемы оператора для производителя SoC это как проблемы индейцев для шерифа :)

      Во вторых есть еще момент лицензирования фич чипсета для конкретной страны или оператора. Это уже производитель смартфона договаривается с производителем SoC. Так что для России к примеру или для Европы могут просто залочить всякие 5СА и оставить 3СА которые к примеру Мегафон обеспечить может.

      Ну и третий момент. Не нашел информации как конкретно у сансунга сделано, но у Qualcomm с их Snapdragon черным по белому написано, что модем X16 требует хотя бы 20MHz лицензируемого спектра, X20 допускает использование 10MHz лицензированных частот. Все остальное соответственно допускается размещать в не лицензируемом спектре. 20MHz есть почти у каждого оператора. Ну а как будет жить гигабит на не лицензируемом спектре — покажет практика :)


      1. Dageron
        25.02.2017 12:21

        Как я понимаю, это все решаемо в рамках государства, ведь проводятся тендеры на частоты и т.п.? Просто на начальных этапах это может быть очень затратно для самого оператора связи.


        1. bobych_spb
          25.02.2017 22:16

          так свободных частот уже давно нет… Изначально была утопично-здравая идея создать одного оператора который бы заведовал всеми частотами и обеспечивал бы радиодоступ для всех остальных операторов. Не взлетело, каждый в итоге строит сам. Хорошо хоть технологическую нейтральность приняли и теперь в России LTE можно строить в диапазонах:


        1. bobych_spb
          25.02.2017 22:29

          — B1 2100 65MHz наглухо занято 3G
          — B3 1800 75MHz занято GSM/3G хотя в Москве уже потихоньку переделывают на LTE
          — B7 2600 70MHz разделено поровну между операторами
          — B20 800 30MHz разделено между операторами
          — B31 450 4.2Mhz исторически принадлежит Tele2
          Так что если разделить на 3-4 оператора получится по чуть-чуть у каждого? и ни про какие 5СА речи быть не может.


          1. Dageron
            25.02.2017 22:41

            Вот оно как! Не знал, что настолько все невесело в плане распределения частот операторам. Хорошим бы выходом тут, пожалуй, могла бы быть аренда радиочастот и инфраструктуры сети одних операторов у других (насколько знаю, так изначально было у Мегафона и 4G в ряде регионов).

            Есть еще один небольшой вопрос. Боюсь покажу свое дилетантство в радиофизике и протоколировании сигналов, но все же хотел бы уточнить, можно ли вообще увести все это дело за пределы данной «вилки частот»? На более высокие или низкие частоты.


            1. bobych_spb
              26.02.2017 00:08

              Да, в 5G именно это и сделали. там от 6GHz и выше. С одной стороны чем выше тем свободнее. Но дальность сильно падает. в районе 28GHz можно и 200MHz и 400MHz ширину канала взять, но дальность покрытия будет десятки метров, а значит БС надо ставить плотнее и т.д.


          1. zikasak
            26.02.2017 13:27

            Все так, но B7 не поровну разделено. У мегафона 40 мегагерц (благодаря покупке йоты). У остальных по 10


  1. bkotov
    24.02.2017 22:20
    +1

    Догонит ли A10?


    1. burivuh26
      24.02.2017 23:40

      В бенчмарках — хз. Обычно Apple в них лидирует по одноядерному режиму, а в многоядерном где-то в середине-конце списка.

      Однако учитывая то, что нет абсолютно идентичных референсных устройств (с одинаковыми ТТХ кроме процессора), на которых бы и проводилось сравнение Exynos и Apple A процессоров — сравнение обычно довольно субъективное.

      Последние несколько лет все тестировщики говорят, что все работает идеально на обоих флагманах (iPhone и Galaxy S), а дальше всё сводится к фишкам ОС и субъективной любви тестировщика к одной из платформ.


      1. bkotov
        25.02.2017 09:36

        Ну понятно что все субъективно. Хотя насчет многоядерных тестов, вроде как A10 если не на первых позициях, то очень близко к верхней строчке. Но есть и более приземленные тесты — где запускают по-кругу приложения и игры, выполняют одинаковые действия и подобное. Айфон тоже обычно оказывается впереди, хотя насколько высок в этом вклад процессора непонятно.


  1. nrv
    27.02.2017 12:31

    HSA? Интересно… AMD еще со времен Llano пудрит голову GPU вычисления и особо эффективными в случае расположения GPU на кристалле с ЦРУ. Но, как я понимаю, поддержки в прикладном ПО не было. Если теперь это будет не только у AMD, может это наконец станет реально использоваться.