Согласно собственным тестам ARM, процессор Cortex-A76 уже примерно соответствует по производительности разогнанному процессору Core i5-7300U, рассеивая при этом менее 5 Вт (TDP), в сравнении с 15 Вт у чипа Intel

Процессоры ARM традиционно используются в смартфонах и планшетах, но в последнее время производители ПК вроде Asus и HP решили, что производительность и низкое энергопотребление этих «камней» вполне подходят для ноутбуков. Глядя на такое положение вещей, сама компания ARM анонсировала процессорные архитектуры, специально предназначенные для конкуренции с Intel и AMD на ноутбуках и настольных компьютерах в 2019?2020 годы. По мнению ARM, новые чипы вполне могут сравниться и даже превзойти процессоры Intel в однопоточной производительности.

ARM анонсировала две новые микроахитектуры:

  • Deimos, 7 нм, 2019 год
  • Hercules, 7 и 5 нм, 2020 год



Все эти процессоры будут использовать новую технологию DynamiQ, которая заменит big.LITTLE.

Сложно заранее сказать, насколько реальные системы на ARM смогут сравниться в производительности с обычными машинами x86. Всем понятно, что большинство программного обеспечения пишется и оптимизируется для x86, а под ARM будет работать через эмуляцию, что сразу даёт x86 фору в производительности. Например, можно посмотреть на реальные бенчмарки PCMark 8 Work 3.0 обычных процессоров в сравнении с ARM. Бенчмарки проводились в нативном разрешении каждого планшета/ноутбука.



Как видим, мощный современный ARM-процессор Snapdragon 835 (производитель: Qualcomm) сильно проигрывает в производительности даже системе на Celeron N3450. Проигрыш объясняется двумя причинами: кроме упомянутого режима вынужденной эмуляции это ещё и меньшее количество ядер в процессорах ARM по сравнению с представителями семейства Core.

Но ARM собирается устранить это обидное недоразумение в будущих процессорных архитектурах, где микросхемы станут изготовлять по техпроцессам 7 и 5 нм. К 2019?2020 годам компания намерена догнать и обогнать по производительности существующие процессоры Core i5-4300U, Core i5-6300U и Core i5-7300U, а траектория развития процессоров ARM превзойдёт закон Мура. По заявлению фирмы, до выхода Cortex-A76 в последние годы ARM и так выдаёт средний ежегодный прирост производительности процессоров около 20%, а после Cortex-A76 ежегодный прирост ещё увеличится. Итак, с 2016 по 2020 годы производительность её чипов вырастет в 2,5 раза, то есть процессоры на архитектуре Hercules будут в 2,5 раза быстрее, чем Cortex-A73. Львиная доля в этом скачке производительности объясняется переходом с техпроцесса 16 нм на 5 нм, но частично — системными улучшениями, ведь в сравнении с остальной процессорной индустрией ARM демонстрирует (или обещает продемонстрировать) намного больший прогресс.



Но разница постепенно нивелируется. Согласно собственным бенчмаркам ARM, процессор Cortex-A76 уже примерно соответствует по производительности процессору Core i5-7300U, рассеивая при этом менее 5 Вт (TDP), в сравнении с 15 Вт у чипа Intel.

Проигрывая в производительности, ноутбуки вроде Asus NovaGo уже сейчас выигрывают в энергопотреблении, то есть во времени работы без подзарядки. Вероятно, это преимущество сохранится и в будущем, когда мощность процессоров ARM резко вырастет.

Вероятно, ARM рассчитывает, что процессоры на её архитектуре станут настолько же популярными в ноутбуках, насколько популярными они сейчас являются в смартфонах и планшетах. Это вполне целенаправленная и логичная экспансия. Как и планшеты, ноутбуки тоже преимущественно эксплуатируются в «мобильном» режиме, то есть без непосредственного подключения к сети питания, а в таком режиме ноутбуки на ARM смогут работать несколько дней. Кроме того, ведущим производителем ARM-процессоров является компания Qualcomm. По всей вероятности, она станет и крупнейшим производителем 5G-модемов. Это даёт дополнительное преимущество ARM-ноутбукам, которые в будущем предположительно будут эксплуатироваться в режиме постоянного соединения с сетью 5G.

Комментарии (155)


  1. evocatus
    17.08.2018 17:44
    +7

    Всем понятно, что большинство программного обеспечения пишется и оптимизируется для x86, а под ARM будет работать через эмуляцию,


    А я думал, что приложения пишутся на C/С++/Java, а дальше их можно скомпилировать, например, под ARM, что и позволяет выпускать тот же Debian(с десятками тысяч пакетов) под десяток разных архитектур.
    Понятно, что есть всякие SSE, AVS и пр., но их использует очень небольшое количество ПО и, насколько мне известно, современные компиляторы ещё не умеют автоматически использовать эти возможности.


    1. picul
      17.08.2018 17:57

      AVS
      AVX))
      но их использует очень небольшое количество ПО
      Ну их использует как раз то ПО, тормоза которого будут ощутимы, потому что как раз с этим ПО люди заморачиваються.
      современные компиляторы ещё не умеют автоматически использовать эти возможности
      Умеют, хоть и не дотягивают пока до человека (насколько я знаю).

      Вообще, насколько я знаю, Винда ARM очень слабо поддерживает, так что наверное проблема еще и в этом. Ну и разные архитектуры означают разные инструкции и их характеристики.


      1. Am0ralist
        17.08.2018 18:00
        +3

        винда арм то поддерживает. ей интел перекрыл возможность поддерживать x86 на арме…


        1. picul
          17.08.2018 18:16

          Как он это сделал?


          1. springimport
            17.08.2018 18:22
            +2

            Патентами, конечно.


            1. DrPass
              17.08.2018 18:27

              А как можно запретить патентами использование набора команд? К тому же существующему в несколько раз дольше, чем действует срок патентной защиты.



            1. picul
              17.08.2018 18:30

              Чего же Intel не перекроет аналогичную возможность AMD? Они (Intel) бы себя неплохо почувствовали.


              1. imanushin
                17.08.2018 18:43
                +1

                Тогда антимонопольные комитеты остановят Intel. А точнее — производитель компилятора сможет пожаловаться на Intel Compiler (как это сделал производитель браузера Chrome, который пожаловался на Microsoft), так что Intel'у придется отдать рынок компиляторов. Потом производитель чипсетов пожалуется и т.д.

                А так сейчас у Intel'а есть доля в 80-90% от процессоров х86/х64, плюс доля на рынке компиляторов и тд. А если занять 100%, то отнимут все дополнительные рынки.


                1. Xalium
                  17.08.2018 20:36
                  +3

                  у AMD них с Intel кросс-паненты. Минимум набор команд x86-64 принадлежит AMD.


              1. Newbie2
                18.08.2018 00:24
                +3

                Потому что тогда они станут монополистами, а это их самый страшный кошмар. Антимонопольщики принудительно их поделят на две компании и все, нет Интел. А благодаря АМД соблюдается видимость конкуренции при фактическом ее отсутствии. Поэтому мне лично кажется, что АМД это внебрачная дочка Интел.


                1. evtomax
                  18.08.2018 12:56

                  Cейчас у крупных игроков конкуренция в основном с самими собой. То есть процессоры улучшают для того, чтобы ими заменяли ещё вполне рабочие старые процессоры.


                1. we1
                  18.08.2018 21:49

                  AMD не дочка, а сестра. Две конторы были основаны, скажем так, хорошими знакомыми.


                  1. 0lympian
                    18.08.2018 23:50
                    +1

                    Там все значительно запутаннее и интереснее, рекомендую посмотреть на ютубе «16 бит тому назад» — там есть несколько серий «intel vs amd»


          1. Am0ralist
            17.08.2018 22:40

            Примерно так
            АМД существует только потому, что иначе антимонопольщики бы их загрызли.


            1. Newbie2
              18.08.2018 00:19

              Именно поэтому АМД никогда и нигде не обгонит Интел, как бы того не хотелось фанатам.


              1. Am0ralist
                18.08.2018 00:43
                +1

                Почему, поэтому? Потому, что у них патенты кросс имеют и обе компании могут ими легко пользоваться в разработке своих продуктов?
                Так то она их уже обгоняла, если не в проданных штуках считать, а по производительности.


                1. Newbie2
                  18.08.2018 11:17

                  Так то она их уже обгоняла, если не в проданных штуках считать, а по производительности.


                  Ну да, обгоняла. Видимость острой конкурентной борьбы показали, а теперь все. Спектакль окончен.


              1. walti
                18.08.2018 10:05
                +1

                Так уже года 2 как)))))))
                Во-1, АМД младше Интела… на 1 год. 1969 против 1968-го, до создания микропроцессора на х86 архитектуре оставалось… 10 лет
                (это из оперы Интел придумал АМД)
                Во-2, если посмотреть тестирования Интел вс АМД с включенными патчами от мелдония и спектры, то Интел не смотрится от слова совсем.
                В-3, самая быстрая платформа — за АМД.

                ПС. У Интела сейчас цейтнот, нет идей, постоянные скандалы, отсутствие диверсификации бизнеса.


                1. Newbie2
                  18.08.2018 11:23
                  -1

                  Во-первых, интел не придумал, а, как мне кажется, купил АМД. Только без шуму и через подставные фирмы.
                  Во-вторых — патчи мелдония, скорость платформы… Это все неважно. Для корпораций важна прибыль и доля на рынке. Интел гребёт бабло лопатой, монополизировав рынок десктопов, ноутбуков и весь корпоративный сектор от корпоративных же ноутбуков и вплоть до серверов. А АМД притворяется живой.


                  1. fatronix
                    18.08.2018 13:20

                    То что у AMD меньшие объемы на рынке не означает, что они фиктивная компания.


                    1. x67
                      18.08.2018 14:49

                      sarcasm
                      Ну как же, я комп собирал — выбрал интел. Все друзья собирали, выбрали интел. Значит амд мертва!
                      /sarcasm


                      1. klirichek
                        18.08.2018 18:23

                        А я вот без сарказма… Собирал себе впервые десктоп (до этого покупные готовые ноуты/компы напрочь устраивали). Всё посчитал, взвесил… Взял материнку под AM2 (давно дело было) и на тот момент "что-то" из amd из процессоров. Позже вышел (впервые!) 4-ядерный феном, взял свежую материнку (уже под AM2+) под него (ещё порадовался, что она гораздо дешевле интел-ориентированных) и его самого, с теплопакетом в 95 ватт…
                        Погонял два-три года… Ну, как сказать… Десктоп вполне отзывчивый. Перекодировать видео (на тот момент на "новый" H264 — уже натяжно… Кодирует, но ревёт всеми кулерами, как паровоз… И десктоп в то же время начинает уже подтормаживать).
                        И вот тут внезапно попался задёшево ноут на core i5, того же поколения, что мой phenom… И внезапно выяснилось, что то же видео он кодирует раза в полтора быстрее, при этом не ревя кулерами и не подтормаживая…
                        И теперь материнка с феномом, оперативкой и кулерами лежит в загашнике "про запас", потому что интеловские решения (в совокупности; мамка + проц) оказались в реальной жизни гораздо более внятными


                        1. Greendq
                          18.08.2018 19:24

                          Я тоже без сарказма. Занимался перекодированием видео — много, очень много (терабайты). На Opteron/Xeon специально собранными кодеками под конкретный процессор для задействования всех доступных инструкций. Разница в скорости — в пределах погрешностей. При этом Opteron-ы значительно дешевле Xeon-ов.
                          Так что всё очень сильно зависит от того, чем конвертировать. :)


                          1. nckma
                            19.08.2018 12:26

                            Сейчас у Интела аппаратный кодек прямо в чипсете: QuckSync. Не знаю как у АМД


                            1. Sap_ru
                              20.08.2018 02:25

                              У АМД встроенная видюха, которая рвёт интелловскую, как тузик грелку, и на ней есть аппаратный кодек.


                        1. walti
                          18.08.2018 19:40

                          Ноут с поколением равным феному — это 2008 год и это аррандейл, и они весьма унылы… если не использовать его встроенный аппаратный кодер, который тоже весьма уныл.
                          Скажем честно, не только лишь все из нас, способны смотреть на артефакты кодирования аппаратного кодера Интел.
                          И чем больше частота (svp просто прекрасен) и разрешение, тем большую усмешку вызывает результат.
                          Сейчас не эпоха S-VHS, и пятна и артефакты вызывают раздражение.


                  1. walti
                    18.08.2018 13:37
                    +1

                    Обе компании — публичные, можно смотреть, кто владелец акций, это не секрет.
                    Интел догребает деньги лопатой, ибо в мобильный сектор его не пустили, АРМы они уже не производят, немного делают флеш ( но помнится они уже погрызлись с Микроном), модемы помнится тоже не вышли.
                    Видеокарты -всё (найт корнер, который в девичестве должен был стать первой в мире ВК на х86 — снят с производства).
                    Контрактным производством интел не занимается, да и проблемы с новыми ТП у них начались.
                    Альтера в виде сопроцессора не прижилась — а как дышали, как дышали.
                    Учитывая все вышесказанное — перспективы не очень.
                    Да обороты громадные, да — большая часть рынка его (пока).
                    Но «титаники» всегда тонут долго и пафосно.


                    1. walti
                      18.08.2018 14:02
                      +1

                      Проблемы Интела, как я вижу — как и у любой большой корпорации -они не хотят рисковать.
                      А каждый раз когда пробуют (в надежде прогнуть рынок) -получается факап, как с Итаником или нетберстом.
                      В результате они сидят на сверхудачной архитектуре Коре разлива 2006 года, вяло копирую наиболее удачные решения АМД.
                      ИКП -не они придумали, х86-64 — тоже называется АМД64.
                      Первый двуядерник, тем более на одном кристалле — не они, интегрированное видеоядро — типа они, но это склейка.
                      Единственное толковое — встроенный VRM, но в следующей архитектуре Интел его же и похоронила.

                      В общем, обычная закостенелая контора с весьма туманными перспективами.


                    1. Newbie2
                      18.08.2018 19:16

                      А мобильный сектор, внезапно, это бэкэнд+веб, которые размещаются в ЦОДах, которые на 99% укомплектованы интелом. Может быть когда-нибудь этот титаник и потонет, но сейчас пророчить ему «интелокапец» рано.


                      1. walti
                        18.08.2018 19:32

                        Ой-ли.
                        IBM точит зубы на этот сектор, АРМ предлагает всякое.
                        Интелокапец — это понятие перспективное, но Интелу в этом секторе все меньше и меньше есть что предложить.


                        1. Newbie2
                          18.08.2018 21:04

                          А пока другие точат зубы и предлагают «всякое», интел гребет деньги лопатой и изменений этому не видно. АМД попыталось влезть, но не пошло. И вряд ли из-за того, что Оптероны хуже были. Маркетинг, он такой.


                        1. khanid
                          19.08.2018 11:06

                          И IBM кроме точения ничего не остаётся, по большому счёту, потому что их цены не способствуют широкому распространению. Только там, где готовы тратить такие деньги — это либо что-то специфическое, либо крупный энтерпрайз. А для рядовых ЦОД/компании пока по-прежнему сильно выгоднее hpe/dell на интелах.


                    1. carebellum
                      18.08.2018 21:36

                      у интела идет разработка дискретной графики, планируют выход на рынок в 2020


                    1. Sap_ru
                      20.08.2018 02:28

                      С видеокартами они делают хитрое лицо и обещают очень (через год — два) скоро всех порвать в сегменте интегрированных и даже потеснить на рыке дискретных. С другой стороны, они такое лицо уже не раз делали (по крайней мере, относительно интегрированных) и каждый раз кончалось пшиком — конкуренты за время разработки и вывода на рынок уходили далеко вперёд.


              1. Dioxin
                20.08.2018 09:34

                Уже обгоняли с Атлон 64. Причем по всем статьям.
                Весь офисный и бытовой сектор сидел на АМД начиная с К7 и до Х2 пока интел кор дуо не выкатил и цена на него не опустилась до приемлемых.
                Только инерционность мышления и корпоративные соглашения позволили Интелу пересидеть до белой полосы.
                Если бы в АМД не отдыхали так сильно, глядишь ситуация была бы не так однозначна.


    1. kalininmr
      18.08.2018 09:49

      всё немного печальнее. в критичном софте есть куски кода заточенные под конкретную архитектуру. и комплилятор тут не очень помогает.
      всяческие особенности работы кеша, длинная арифметика.


    1. dendron
      18.08.2018 18:39

      Не всё так просто с C/C++. Код должен быть написан как кросс-платформенный, иначе вместо рабочей программы после сборки получится бинарная какашка. И чем больше и сложнее проект — тем сложнее в нём обеспечивать кросс-платформенность.


      1. Antervis
        18.08.2018 21:02

        там всего одно правило: не использовать расширения msvc


        1. Kobalt_x
          18.08.2018 21:50

          Ага, конечно.
          Про unaligned reads забыли? Что вам будет за это на x86? — правильно ничего а только чтение меделнное а на ARM — sigbus. и в существующем коде их куча.
          А это ещё блин только цветочки.


          1. Antervis
            18.08.2018 23:53

            армы ж уже умеют читать невыровненную память. Если там еще остались проблемы — ну допилят за пару поколений, всё равно арм в десктопах — сравнительно далекое будущее.


          1. 0xd34df00d
            19.08.2018 04:55

            А еще прелести модели памяти, из-за чего кривоватый многопоточный код как-то работает на х86, а на армах не работает никак.


          1. Sap_ru
            20.08.2018 02:34

            ARM уже давным давно читает unaligned точно так же, как и x86. Даже на микроконтроллерах, не говоря уже более серьёзный SoC. Я бы, даже, сказал, что архитектуры, где он fault выдавал можно ныне считать мёртвыми. И доп. расходы на невыравненные чтение-запись у ARM точно такие же, как и x86.


    1. Dioxin
      20.08.2018 08:18
      +1

      SSE2 везде используется давно, компьютер без него это кусок кремния.
      По этой причине я слез в свое время с Amd K7.


  1. DrPass
    17.08.2018 17:47

    Как видим, самый мощный современный ARM-процессор Snapdragon 835 (производитель: Qualcomm) сильно проигрывает в производительности даже системе на Celeron N3450.

    Если экстраполировать производительность, то уже даже прошлогодний Snapdragon 845 обгонит Celeron N3450, и это круто для ARM, учитывая их энергоэффективность.


  1. Marwin
    17.08.2018 18:19
    +1

    Это всё, конечно, круто, но ведь в 2020 году и софт продвинется вперёд, и x86 процы будут еще больше энергоэффективны (надеемся, что Интел всё же разродится со второй реинкарнацией 10нм). Если утрированно говорить, то прикольно, конечно, было запускать Win98 на HTC HD2, но смысл? К сожалению, тенденции развития софта говорят только о том, что повседневный софт жирнеет не по дням, а по часам (даже виндовый блокнот научился в bing!) Поэтому на армах 20-х годов, да, если и будет что-то нормально работать, то только ПО двух-трехлетней давности, раз они сравнивают их с нынешним поколением интелов.
    PS примеры типо "да даже на семилетнем 2600k всё отлично пашет" не считаются… тут же разговор идёт о энергоэффективном сегменте на грани комфортности при минимальном потреблении, где, например, J1800 совершенно не справляется с банальным современным браузингом


    1. powerman
      17.08.2018 18:25
      +4

      У меня i7-2600K разогнанный на 4.5GHz (десктоп, Linux, SSD и 24GB RAM). Периодически поглядываю на современные процы — никакого смысла апгрейдиться пока не видно. Учитывая, что помимо проца придётся менять ещё и материнку, и память, как минимум — стоимость апгрейда получается значительной, а вот ожидаемый выигрыш в производительности реальных приложений вряд ли будет заметен "на глаз". Были бы новые процы защищёнными от модных уязвимостей без больших потерь в производительности — тогда был бы хоть какой-то смысл обновиться.


      1. Marwin
        17.08.2018 18:33

        так ведь моя мысль и была в том, что high-end процы на то и high-end, чтобы их хватало на несколько лет. А вот мобильные энергоэффективные версии всегда находятся на границе добра и зла )) И уже буквально через пару лет полностью оказываются непригодны к ежедневному использованию ввиду постоянного роста средней температуры по больнице тяжести контента. Поэтому будущие армы, сравниваемые с текущими лоу процами, будут иметь крайне малый запас скорости в рамках нагрузок 20-х годов.


        1. powerman
          17.08.2018 18:54

          Ok, давайте про мобильные. У меня уже довольно старенький (лет 5-6) Samsung Galaxy S3 (правда, его редкий вариант i9305 с 2GB RAM и LTE). Ну и Cyanogen, разумеется, родные прошивки это зло. Никаких проблем, тормозов, нехватки места, etc., регулярно качаю новые игрушки и пока все отлично работали, обычные приложения тем более — единственная причина заставляющая периодически задумываться об обновлении — для этой модели нет поддержки текущих версий LineageOS (обратная сторона выбора более мощной, но и более редкой модели).


          Иными словами проблема не столько в том, что софт жирнеет (хотя это безусловно так, и очень раздражает), сколько в том, что железо покупается без запаса прочности, что и приводит к тому, что через год-два начинаются проблемы и его нужно обновлять. Думаю, по факту либо эта "экономия" приводит к тому, что используемые инструменты тормозят и раздражают годами, либо регулярно обновляются и в результате за суммарное время эксплуатации обходятся дороже, чем если сразу взять что-то более мощное.


      1. springimport
        17.08.2018 18:42

        Сам так думал пока сидел на 3770 и пока не попробовал 8700k. Все же с выходом Ryzen многое изменилось и новый i7 вышел очень хорошим. 2600k знаю и пишу с него прямо сейчас, достойный вариант.
        Обновляться есть смысл, но если именно что не хватает производительности.


        1. Marwin
          17.08.2018 19:12

          да на самом деле разница огромна даже при переходе с 2600k на какой-нить 2011-3 хасфелл от 6 ядер и более. Особенно, если добавить NVME SSD, чего на 2600k платформе сделать весьма непросто. Я тоже не верил… до тех пор пока не обновился. Дело-то не только в синтетических циферках, но и задержках IO подсистемы, которые на новых платформах уменьшаются заметно сильнее роста мощи процов, и очень бросаются в глаза.


          1. springimport
            17.08.2018 19:19

            Ну я знаю, 970 pro не даст соврать.


          1. powerman
            17.08.2018 19:33
            +1

            Опять же, под виндой может и так. И при нехватке памяти это запросто может быть правдой. Но я поставил 24GB RAM (хотя практика показала, что хотя 8GB было реально мало, но вот 16GB уже бы хватило), и, скажу честно, все тормоза моментально пропали — при том, что у меня даже SSD не было!


            Линух в этом отношении устроен очень удачно — при первом обращении в винту всё кешируется в память (если её хватает), и остаётся там навсегда, что делает работу с HDD и SSD примерно одинаковой (после начальной загрузки компа и всех приложений, что у меня занимало 2 минуты, а перегружаюсь я примерно раз в месяц-два).


            Я только полгода как добавил SSD и перенёс на него систему — и сделал это исключительно из-за того, что на HDD заметно тормозил docker, которому при docker image prune -f приходилось удалять файлы сотнями тысяч. Единственное заметное отличие после перехода на SSD — ускорилась загрузка системы (да, вот эти 2 минуты раз в месяц, очень важно, ага) и она стала абсолютно тихой, но в работе, если не считать docker, никаких заметных отличий от перехода на SSD (достаточно быстрый, хоть и не NVMe — hdparm показывает чтение 460MB/sec) не обнаружилось.


            1. Marwin
              17.08.2018 19:35
              +1

              Под Win10, к сожалению так )))


            1. rub_ak
              17.08.2018 20:13
              +2

              Windows 7 и старше (а скорей всего и Vista) также делают, всё единожды запущенное остается в памяти, пока она не понадобиться.
              "


              1. oldbie
                17.08.2018 21:45
                +2

                Пусть меня поправят знающие наверняка, насколько мне известно все зависит от кол-ва озу: чем больше доступной тем более агрессивную политику кеширования использует ОС. И win и linux.


              1. powerman
                17.08.2018 23:43
                -1

                Я виндой давно не пользовался, но насколько я помню, 7-ка, как и все предыдущие, постоянно что-то свопят на винт, даже если памяти достаточно. И вот тут SSD сильно ускоряет. Linux тоже изредка что-то свопит, но это происходит на порядок-два реже и намного менее заметно (типичная ситуация на двух примерно одинаковых компах, на которых никто ничего не делает — на винде лампочка винта моргает почти постоянно, на линухе крайне редко). Впрочем, даже этот редкий своп сильно раздражает, так что я его выключаю в принципе. Наверное, под виндой тоже можно выключить, хотя я не слышал, чтобы так делали.


              1. Kwisatz
                18.08.2018 11:14

                Неправда. У меня памяти 18гб стоит и пока я не работаю с графикой ее хватает за глаза. Но иногда какойнить хром, висевший в фоне часов 10, явно начинает работать из свопа. Отключение свопа кстати решает эту проблему, но порождает куда более неприятную


                1. rub_ak
                  18.08.2018 14:34

                  Что именно неправда?


                1. Gaikotsu
                  18.08.2018 20:03

                  Ну это вобщем-то вполне логичное поведение — скинуть из физ. памяти в своп самые старые фоновые/неиспользуемые данные/приложения, если вдруг чему-то более свежезапущенному потребовалась свободная память, а ее уже маловато.


                1. Massacre
                  18.08.2018 22:52

                  Смена постоянно запущенного браузера на другой тоже решит эту проблему :) Ну и ленивая загрузка вкладок.


            1. 0xd34df00d
              19.08.2018 05:01

              Ну фиг знает. Прогон make на уже собранном проекте в tmpfs — две секунды, на пятилетнем интеловском ssd — четыре, на харде — 15. Грепать сорсы clang'а быстро — бесценно.


        1. powerman
          17.08.2018 19:19
          +1

          У 8700k ядер больше. Если сравнить производительность, учесть мой разгон (а он линейно ускоряет, сам тестировал многократно), и сравнить производительность на одно ядро — у 2600K она будет даже немного больше (~2800 моего разогнанного против ~2660 у не разогнанного 8700K).


          При этом количество ядер больше 4-х на десктопе особого выигрыша не даёт — у меня Gentoo Linux, и, честно, если бы не регулярная Gentoo-шная компиляция обновлений то и одно ядро почти никогда не занято, не то, что 4. Поэтому и нужно смотреть производительность на одно ядро, а не суммарную сколько может выжать проц если нагрузить максимально.


          Гарантировать разгон сложно, но, предположим, получится разогнать 8700K на те же 4.5GHz — это даст 15% выигрыша производительности на одном ядре. Допустим, он разгонится до 4.7GHz, учитывая что его это турбо-частота шансы хорошие — это будет 20%. И, наконец, если реально повезёт, и он будет на воздухе стабильно работать на 5GHz, то мы получим уже что-то достойное упоминания, такое, что реально может быть заметно в скорости работы десктопа "на глаз" — 28.5%. При этом стоимость апгрейда потянет под штуку баксов (проц, мать, 24GB очередной новой быстрой DDR, и может потребуется ещё что-то менять).


          Так что нет, обновляться смысл может быть только если это нагруженный сервер, но туда лучше ставить что-то с количеством ядер значительно большим, чем у 8700K. А обновлять десктоп с 2600K на 8700K смысла ровным счётом никакого. Не знаю, может если речь про винду и тяжёлые игрушки картина будет другая, но для линуха смысла точно нет.


          1. springimport
            17.08.2018 19:25

            8700k вообще спокойно берет 4.8 и даже 5.0. Только тогда нужно скальпирование. И, насколько я понял, здесь нет лотереи: у всех так гонится.
            Если хочется максимальной отдачи то конечно надо брать. Выше я написал, разница большая между 3770 и 8700k. Это реально чувствуется во всем.
            Конечно, ssd m2 и ram 3600 способствуют тоже.


          1. Marwin
            17.08.2018 19:29

            ну так про проц-то разговор идёт даже в меньшей степени. Материнка и pci-ex дисковая подсистема (может еще немного DDR4) — вот что даёт огромный именно субъективный рост комфорта работы с компом. А обновление проца при этом — скорее вынужденная мера.


          1. 0xd34df00d
            19.08.2018 05:05

            В тяжелых игрушках смысла еще больше нет, на игровой машине хазвелл i5 вытягивает что баттолфилд на максималочках, что какой-нибудь DCS. И загружен он далеко не на сто процентов.


            А вот на домашней машине с линухом я попрограммировать для себя люблю и всерьез присматриваюсь к 32-ядерному threadripper. Эх, жаль, stack не умеет в многопоточную сборку.


      1. Urub
        17.08.2018 22:52

        Пережимал видео с регистратора на i7-2600K и на i3-6100 — и несмотря на 8 потоков первого, 4 потока второго жмут чуть быстрее за счет новых инструкций. Оба без разгона т.е. частоты сопоставимы.


      1. Sway
        18.08.2018 14:05

        У i7 8700 есть преимущества перед 2600К, причем довольно много. Я это понял только после апгрейда (удачно слил почти весь системник и покрыл примерно половину затрат на апгрейд). Очевидное: + 2 ядра и + 4 потока, возможность использовать DDR4, намного меньшее энергопотребление (т.е. можно поставить очень тихий и не очень мощный БП). Не очевидное: современные материнки позволяют использовать оперативку в дополнение к памяти на видеокарте, т.е. имея, например GTX 770 c 2GB RAM можно вообще не задумываться об апгрейде видяхи (а это 30-40к если брать что-то аналогичное по производительности). Есть еще пачка плюсов мелких, в основном связанных с возможностями материнки. В общем по моим ощущениям стало немного лучше, хотя я и на 2600К не жаловался. Кстати не советую брать топовые материнки — они чисто маркетинговые, толку от наворотов в них нет никакого. Я взял среднего уровня материнку и доволен ей полностью (MSI Z370-A PRO, брал весной за 8к). Кстати, счета за электроэнергию стали меньше =)))


        1. walti
          18.08.2018 14:10

          Не очевидное: современные материнки позволяют использовать оперативку в дополнение к памяти на видеокарте,

          Пора бы уже сменить Geforce 6200 TC, 2006 год -прям ностальгией повеяло.
          www.ixbt.com/video2/nv44.shtml


          1. Sway
            18.08.2018 14:21

            Мне кажется, что у вас в процессоре видяха и то мощнее (если он из core i серии) =)))


            1. walti
              18.08.2018 14:28

              Мне кажется, что системную память умели использовать еще AGP карты.
              Я вам ненавязчиво намекаю, что процитированное сообщение — немножко заблуждение.


              1. Sway
                18.08.2018 17:15

                Могли-то могли, но если вы сейчас сравните скорость работы памяти на видяхе GTX 7xx+ и DDR3, то толку от добавления DDR3 к видяхе никакого. В случае с DDR4 ситуация получше — разрыв не настолько катастрофичный и в целом я не заметил особых лагов.


                1. walti
                  18.08.2018 17:48

                  HBM2 ;)))))))))))
                  Сравните скорость.

                  У ДДР4 вырос ПСП, но с задержками не стало особо лучше.
                  ВК всеравно приходится конкурировать с ЦП за доступ к памяти.
                  Я понимаю вашу радость от покупки, но все не так радужно, как в середине 00-х — при переезде с нетберста на коре — буст достигал сотен процентов, а не жалкие 30-40%.

                  Прогресс, увы, уныл. З-н Мура — мертв.
                  Олдфаги помнят ощущения с перехода с 5900 Ультра на 6600, и тем более на 6800.
                  8800 — эт вообще неописуемо.


                  1. Kobalt_x
                    19.08.2018 16:28

                    Ну hbm2 это конечно хорошо, но например бенчмаркинг того же graph500 показывают что при использовании nvlink используя ту же ddr4 производительность повышается и масштабируемость растет что позволяет решать задачи медленнее чем чисто на GPU но в разы быстрее чем на cpu


        1. dartraiden
          19.08.2018 17:47

          современные материнки позволяют использовать оперативку в дополнение к памяти на видеокарте, т.е. имея, например GTX 770

          Разве материнки, а не DirectX 12? А если DirectX, то тут облом — 770 в него полноценно не умеет, и не будет уметь из-за особенностей архитектуры (формально умеет, но на практике под 6xx/7xx разработчикам игр придётся делать отдельный DX12-движок, отличный от DX12 для более новых архитектур; естественно, это экономически неоправданно, поэтому удел таких видеокарт — DX11).

          Что почитать по теме:
          Сравнение быстродействия видеокарт в DirectX 11, DirectX 12 и Vulkan, часть 1


          1. Sway
            19.08.2018 18:20

            У меня спокойно подтягивает недостающую память из оперативки. Остальной функционал DX12 — хз, мне как бы и DX11 вполне достаточно. В играх графика для меня не главное. 770 чаще всего спокойно тянет средне-высокие настройки для fullhd, но вот оперативки на ней последние пару лет стало заметно не хватать и этот неожиданный бонус мне зашел на ура т.к. пока жаба давит тратить несколько десятков тысяч на GTX 1060/1070.


      1. carebellum
        18.08.2018 21:38

        все так, ждем zen2 :)


      1. chapai22
        19.08.2018 05:39

        у меня рабочая станция делл, ей лет 5-6: 2 xeon 3gHz/6core + 72GB RAM ECC +2xSSD/Raid6HDD + NVquadro5 и все ценой ценой меньше штуки.
        Никакие апгрейды не смогут понадобиться еще лет 6, а то и больше.
        Попросту нет практических задач которые могли бы требовать большего.
        И никакие защищенности новых процов роли не играют.

        А вот с лэптопами не все так просто. совокупность быстродействие+время работы играет роль. Лэптопом приходится пользоваться часто вместо дектопа.
        Попытался использовать старый лэптоп i5 — ужас, хотя он был вполне хорош. И тут процы только в путь, и если арм подтянется — будет отлично, день работы от батарей нужен при весе в килограмм.

        Так что прогресс с одной стороны достиг потолка — а с другой есть куда двигаться.


        1. daggert
          19.08.2018 22:31

          Простите, а nv quadro 5 это что?


          1. chapai22
            20.08.2018 08:02

            5000я квадра


      1. cujos
        19.08.2018 11:01

        Я вот когда поменял ноут в этом году на 8550u, почувствовал силу. В сочетании с ddr4, nvme-ssd, он заметно обходил десктопный 3770k(тоже с SSD) в повседневных задачах процентов на 20, притом что он с более чем в 6 раз меньшим TDP. Ноут работает 7 часов, в повседневных задачах неслышен совсем (куллеры не включаются). Хотя 3770к пока тоже менять не собираюсь.


    1. inferrna
      17.08.2018 18:37

      Скорость ожирения ПО примерно равна скорости роста производительности ПК. А кое-где и вовсе отстаёт — например, в способности утилизировать многоядерность. К 2020 году интел порадует привычными +15% на ядро и удвоением числа ядер относительно текущего момента — соответственно потяжелеет и софт, ничего страшного.


  1. LevOrdabesov
    17.08.2018 18:37
    +5

    *в специально подготовленных задачах, оптимизированных под архитектуру ARM. Не является офертой.


  1. seri0shka
    17.08.2018 18:45
    +8

    2040 год.

    Новый 256-ядерный процессор от… позволяет открывать страницу в браузере менее чем за 30 секунд!


    1. Kwisatz
      18.08.2018 11:20

      Ну если так пойдет то это будет не шуткой. Уже сейчас картинки по несколько мегабайт, хренова туча js метров на 10+. Всевозможные обсерверы, двусторонний data-binding, js-анимация, 20 слоев абстракции итд, даже там, где оно нахрен не нужно. Открытие какого нибудь мегаплана по 5+ секунд считается нормальным.


      1. seri0shka
        18.08.2018 14:37

        Именно поэтому пытался найти для себя (и вроде нашёл, но не совсем то) текстовый браузер. По большому счёту мне нужен только текст и картинки, открываемые по моему запросу.


        1. carebellum
          18.08.2018 21:41

          почему не нормальный браузер + NoScript?


          1. seri0shka
            18.08.2018 22:51

            Надо попробовать.


      1. 0xd34df00d
        19.08.2018 05:08

        Новый интерфейс гмыла открывается секунд 15 и жрет все четыре логических ядра на ноуте с i7-6600.


        1. iproger
          19.08.2018 08:08

          И 1 секунду на 8700k. Видимо что-то не так с вашим i7.


          1. Crandel
            19.08.2018 10:51

            Или используется огнелис


          1. khanid
            19.08.2018 12:06

            У рядовых ноутбучных версий количество ядер меньше десктопных вдвое, кроме некоторых топовых. А деградация производительности при полном потреблении ресурсов, по ощущениям, нелинейная по времени выходит.


          1. oldbie
            19.08.2018 16:43
            +1

            логических ядра на ноуте с i7-6600.

            на 8700k. Видимо что-то не так с вашим i7.

            Он ноутбучный.


          1. 0xd34df00d
            19.08.2018 16:46

            На десктопном 3930k тоже пару секунд.

            И я бы сказал, что всё же, видимо, что-то не так с этим UI. Разницы в фичастости с прошлым интерфейсом я не увидел, а тормозит оно заметно сильнее. Зачем?


            1. dartraiden
              19.08.2018 17:56

              Возможно, ситуация такая же, как с новым интерфейсом YouTube.


              1. 0xd34df00d
                19.08.2018 19:34

                Увы, в обоих случаях оно так с хромом.


  1. Gryphon88
    17.08.2018 18:48

    Немного не в тем статьи: почему многопроцессорные ПК стали редкостью? В память лезть дольше, зато проще специализировать по задачам, эффективнее делить ресурсы между не заточенными на многоядерность программами, ну и «песочницы» делать в удовольствие, особенно если процессоры неравноправные.


    1. Marwin
      17.08.2018 19:07

      Где? дома? Потому что на днях вышел домашний и как раз по сути многопроцессорный Threadripper 2990WX с неравноправным доступом к памяти, и Винда (да и весь остальной софт) настолько фшоке от его особенностей, что его производительность как 32-х ядерного процессора скачет в разы как в бОльшую так и в МЕНЬШУЮ сторону по сравнению с 16 ядерным аналогом, что вызывает некоторое смятение. Как бы среднестатистический-то пользователь не хочет заморачиваться особенностями привязки потоков к ядрам. А в датацентрах как были 2011-3, так и есть 3647 многопроцовые


      1. vdem
        17.08.2018 19:10

        Ну в датацентрах они в кластеры собраны, а не тысячи процессоров в одном корпусе :)


      1. Gryphon88
        17.08.2018 19:34

        Да, дома. Почитал описание к Threadripper 2990WX… Ну, приятно, что NUMA скорее работает как в железе, так и на уровне ОС, но я имел несколько иное в виду: грубо говоря, отдать системе одно ядро и палку памяти без возможности сменить (или вообще отдельный сокет), а остальные ресурсы оставить прикладным программам. Или сделать ядра, различающиеся по набору инструкций, всё равно относительно мало программ умеют AVX, а цену немного снизить.


        1. Marwin
          17.08.2018 19:42

          ну примерно так это и сделано в мобилах… идея-то здравая, но в больших компах, предполагаю, что зоопарк конфигураций процов, платформ и вообще совершенно по-разному написанного софта сведёт всё это на нет. На жёстко контролируемых маках это еще хоть как-то было бы возможно, но на остальном — утопия. Слишком всё уже завязано на то, что всё одинаково и доступно в равных условиях. Да даже банально то, что софт сильно часто общается с подсистемами ОС, и их нельзя просто так взять и развязать по дальности памяти и процов.


          1. Gryphon88
            17.08.2018 19:47

            В мобилах тоже зоопарк, а как-то всё эти BigLittle и вспомогательные сопроцессоры работают. Думаю, и на ПК справились бы, если б это было нужно и выгодно.


          1. stychos
            18.08.2018 02:56

            На какой только зоопарк эти жёстко контролируемые маки не устанавливают…


            1. Telmah
              18.08.2018 12:20

              тестируют систему на ограниченном «официальном» наборе железа, все остальные зоопарки за пределами тестинга и гарантий работы, претензии можно писать в спортлото


              1. stychos
                18.08.2018 13:00

                Основные проблемы на хакинтошах — только с вайфлей и тачпадами. В остальном система уверенно работает на практически любом зоопарке, что немного расходится с комментарием, на который я отвечал.


                1. 0xd34df00d
                  19.08.2018 05:10

                  Под виртуалбоксом она очень так себе работает, UI ужаснейше тормозит даже с проброшенным ускорением.


                  1. stychos
                    19.08.2018 14:37
                    -1

                    В виртуалках она плохо работает, да, нет вменяемых драйверов на виртуальную видеокарту. Когда-то была у VMWare, но и они забили на Fusion. Может, можно как-то через SR-IOV с отдельной видеокартой, но не пробовал, не в курсе. Ну и комментарий мой не о виртуальных машинах, а о железном зоопарке, там более-менее всё в порядке, даже на AMD и с большинством популярной графики работает.


          1. Kobalt_x
            18.08.2018 21:57

            Системе вроде нельзя а usermode приложениям можно man CPU affinity. В Винде даже через GUI taskmgr/process explorer


        1. Salabar
          17.08.2018 21:24

          Система не занимает столько ресурсов, чтобы ей целую плашку отдавать.


    1. vdem
      17.08.2018 19:09
      +1

      Зато процессоры стали многоядерными, что практически то же, что и многопроцессорность (для программ). Кстати для того же VirtualBox вполне можно выделить отдельное ядро (или несколько ядер) — вот вам и «песочница».


      1. 0xd34df00d
        19.08.2018 05:11

        cgroups еще можно вспомнить.


    1. oldbie
      17.08.2018 21:50
      +1

      Если упростить то причина в overhead согласования — сложность и дороговизна.


    1. SergeyMax
      17.08.2018 23:22

      почему многопроцессорные ПК стали редкостью?

      Мне кажется, при наличии денег они немедленно перестают быть редкостью)


    1. stychos
      18.08.2018 00:56
      +1

      Никто Вам не мешает купить материнку а-ля Z10PE-D16 WS и воткнуть туда два 24-ядерных процессора и полтерабайта оперативки. Ну кроме зарплаты, разве что.


      1. daggert
        18.08.2018 02:18

        Можно Huanan двухсокетный взять (: Дешевле в разы. Используем для рабочих станций, вполне неплохая штука за свои деньги.


        1. stychos
          18.08.2018 02:50

          Можете пример привести? А то первый раз слышу про такое, беглый гугл многосокетных не выдаёт. Вообще, сейчас на рынке полно дешёвого б/у на 1366м сокете за копейки, можно за очень вменяемые деньги построить достаточно мощную систему, если не обращать внимание на новые фичи процессоров и TDP.


          1. rogoz
            18.08.2018 03:09

            1. stychos
              18.08.2018 03:52

              Вы уж простите, но это никак не в разы дешевле, а очень даже в два раза дороже чем вышеупомянутая z10pe-d16 ws. Да и на чуть более старой платформе с какой-то кастрацией по памяти.


              1. SergeyMax
                18.08.2018 09:07
                +1

                Мне кажется, там цена за мать с уже установленными процессорами и памятью.


          1. daggert
            18.08.2018 10:47

            https://m.aliexpress.com/item/32896997783.html
            Матплата + два проца + память. Не последний чипсет, не свежие процы, но производительность мне нравится.


            1. Kwisatz
              18.08.2018 11:31

              50 тысяч? О_О серьезно? Да у нас б/у сервак дороже стоит мне кажецо)
              И как оно на вкус? Вот хочу но не знаю зачем) у меня i7 960 + 18 gb DDR 1333, вроде и хватает, а тут такая красота.


              1. daggert
                18.08.2018 14:20

                С телефона не могу найти, но буквально позавчера другу показывал набор X79 за 20к в виде мвтплаты, проца и 8 гигов ддр3.
                Сам покупаю наборы 10-ти ядерные на одном проце за 20к комплект, выходит дешевле чем любой новый ритейл тут.


              1. dartraiden
                19.08.2018 18:11

                Тесты (в однопроцессорной конфигурации) есть тут (там же можно поглядеть другие процы/сокеты).


            1. stychos
              18.08.2018 12:53

              Дороговато будет за такого франкенштейна.


              1. SergeyMax
                18.08.2018 15:19

                Предлoжите варианты дешевле?


                1. stychos
                  18.08.2018 15:29

                  У Вас либо ударение не там, либо буква не та.

                  Нормальная некитайская матплата, в среднем сто баксов.
                  32 гигабайта памяти до сотни баксов.
                  Процессор, где-то по 130 за единицу.
                  Сумму сами посчитайте, и учтите, что если искать по аукционам, то может ещё раза в два дешевле выйти.


                  1. SergeyMax
                    18.08.2018 16:40

                    С ударением вроде бы всё в порядке, так же как и с буквой.

                    По стоимости если всё сложить, то уже получается 500 долларов, + стоимость доставки из США через посредника, + на выходе материнская плата с нестандартным разъёмом питания, а если что-то не заведётся (V2 процессоры вообще заявлены для этой ревизии платы?), то кому из продавцов предъявлять претензии?

                    Вариант конечно имеет право на существование, но в целом не всё так радужно…


                    1. stychos
                      18.08.2018 20:29

                      С ударением вроде бы всё в порядке, так же как и с буквой.

                      Не уверен, звучит в Вашем варианте дико.

                      с нестандартным разъёмом питания

                      Чушь какая, там вполне стандартный разъём.

                      а если что-то не заведётс

                      То оно также и на Вашем франкенштейне не заведётся. С возвратами также как и на алишках.

                      Вариант конечно имеет право на существование, но в целом не всё так радужно…

                      Очень даже имеет, не все готовы выкидывать в два раза больше денег ради китайского нонейма в сборе, кое-кому удобнее повыискивать лоты с нормальными ценами, не переплачивая за воздух.


                      1. SergeyMax
                        18.08.2018 20:32

                        Чушь какая, там вполне стандартный разъём.
                        Ну значит вас ждёт сюрпрайз)


                        1. stychos
                          18.08.2018 22:12

                          А подскажите, чего нестандартного в 24Pin + 2x8Pin?


            1. zxweed
              18.08.2018 13:11

              за такую кучу денег можно на родной интеловской плате собрать десктоп — natex.us/intel-s2600cp2j-motherboard


    1. Karpion
      18.08.2018 17:18

      Потому что синхронизировать кэш между процессорами-чипами — дико долго. А работать без синхронизации кэшей — современные программы (особенно операционки) не умеют.

      Следующий рывок производительности ожидается при переходе на NonMA (раздельная память процессоров при быстрой шине); либо при UMA+S (общая память с раздельным использованием — без синхронизации кэшей).

      Фразу «в память лезть дольше» я не понял. В NonMA — у каждого процессора собственная память, в неё он лазает быстро. Особенно если учесть, что другие процессоры туда не лазают, коллизий не бывает.
      В UMA+S — пожалуй, да: лазать в память будет дольше, и коллизии при одновременном cache-miss будут.

      PS: Т.к. я не могу постить ответы чаще чем раз в час — хорошо бы обсуждать это там, где третьи лица не могут помешать двум приличным людям культурно обсуждать интересующую их тему.


      1. Gryphon88
        18.08.2018 23:10

        Да я больше ною, чем что-то деятельно предлагаю, всё-таки я не лид топовой хардварной или софтварной фирмы. У меня чёткое ощущение, что проблему «программы должны работать быстрее» стыдливо спихивают друг на друга: программисты в массе своей не используют возможностей оборудования (векторизация, многоядерность, гетерогенные системы, да даже локальность памяти), спихивают компиляторщикам, те — разработчикам ОС, те — разработчикам оборудования, а те в итоге делают страшные глаза и советуют каждые 3-5 лет ставить топовый процессор и удваивать объём оперативки. В итоге переживать о том, чтобы кривое десктопное приложение на JS не тормозило, должен кто угодно, но не программист.
        Понятно, что надо потихоньку уходить от концепций, сформировавшихся, когда частота процессора совпадала с частотой памяти, а кэшей вообще не было, а не вбивать костыли в промышленных масштабах. Но скорее всего тот, кто это попробует сделать, сверхприбылей не обрящет, а проблем соберёт со всей индустрии.


  1. cher11
    18.08.2018 08:25

    Как видим, самый мощный современный ARM-процессор Snapdragon 835 (производитель: Qualcomm) сильно проигрывает в производительности даже системе на Celeron N3450.

    Имхо, так себе сравнение, один из участников заведомо в проигрышных условиях. Я делал проще — брал Safari и сравнивал производительность в браузере (MacBook Pro 2014 15" Core i7 и iPad Pro 10.5) — и что по результатам тестов, что по реальным ощущениям iPad уже быстрее, чем ноутбук. Результаты GeekBench говорят примерно такие же вещи.
    Понятно, что тяжелый и специализированный софт надо будет адаптировать, но, если все будет так, как с браузерами — Интелу действительно грозит неиллюзорная возможность быть в пролете :)


    1. SergeyMax
      18.08.2018 09:10

      по реальным ощущениям iPad уже быстрее, чем ноутбук
      Ой, об этом не стоит беспокоиться. Пара обновлений iOS, и такое ощущение как рукой снимет)


      1. cher11
        18.08.2018 10:17

        Да, к сожалению, аппетиты (или кривизна — сложно сказать) софта растут очень быстро. Из-за этого iPad до сих пор на iOS 10.3, кстати.


        1. iproger
          19.08.2018 08:10

          Он быстр, да. Но чувствую что через пару лет станет медленным как и предыдущие. Замедление и софт сделают своё дело.


        1. advan20092
          20.08.2018 09:51

          Странно, учитывая что ios11 принесла немало нового именно для планшетов. Да и в 12 обещают существенные улучшения. Я особой разницы в производительности не заметил на аналогичном планшете.


  1. Alex_ME
    18.08.2018 10:08

    А всякие SIMD и прочее? У ARM есть NEON, но он 128 битный против 256/512 AVX. А также кэши, бранч-предикторы, разная встроенная периферия, которая, по рекламным словам интела, все лучше и лучше. А также специфическая оптимизация под конкретное железо, хотя это больше к HPC относится.


    1. Dima_Sharihin
      18.08.2018 15:04

      кэши

      Кэши есть даже у микроконтроллеров. Вопрос в их объеме и ширине.


      бранч-предикторы

      Как и спекулятивное выполнение. Это же есть и у ARM, и это — часть проблемы Spectre (которой так же подвержен)


      разная встроенная периферия

      Простите, я думал, что как раз ARMовские SoC радуют пользователя "периферией на любой вкус и цвет"+гетерогенные системы. Чего такого интересного есть у интела?


  1. maxzhurkin
    18.08.2018 10:41

    … а траектория развития процессоров ARM превзойдёт закон Мура
    Но Закон Мура — про количество транзисторов на кристалле, а не про развитие, производительность или что-то ещё


  1. Gordon01
    18.08.2018 13:22

    Слабо что-то верю в ARM, они обещают захватить ноутбуки уже лет 10, да вот только ОС для этой архитектуры так нормальной и не сделали. Андроид как-то существует, благодаря тому, что нет разделения на планшетную и смартфонную версию, apple кажется забила на планшеты.
    В итоге ms surface go с х86 процом и аккумом 6 Ач на лески раной винде работает 7 часов. Аналога на ARM не видно что-то


    1. Dima_Sharihin
      18.08.2018 15:10

      вот только ОС для этой архитектуры так нормальной и не сделали

      Под ARM давно есть и Linux, и Windows и еще куча разных других операционных систем. Если вы говорите про "десктопное окружение для домашнего пользователя", то профита в ARM-ядре особо нет. Кому не нужна производительность, берут Intel Atom, а до быстрых решений ARM Cortex не догоняет.


      Что до эмбеддеда, то ARM там живет и здравствует: производительность там особо не нужна, а в обращении он будет попроще.


      Аналога на ARM не видно что-то

      Был Surface RT, похоронили тупейшей политикой распространения приложений (а жаль). На любой андроидопланшет гипотетически можно было бы поставить обычный Debian, но, как человек, ставивший Arch Linux на ASUS Transformer TF300T, скажу, что пингвин не приспособлен к планшетному применению и Windows 10 намного впереди.


    1. advan20092
      20.08.2018 09:56

      Да видели мы в обзорах как этот go работает. Тупит по страшному — по сути это дорогой нетбук с переименованным атомом и emmc памятью. Планшеты Apple вполне себе живы-здоровы. Приложений хватает, вот обещают фотошоп скоро подогнать.


  1. Goodkat
    18.08.2018 17:20
    +4

    Полправил вам заголовок: Новые процессоры ARM, которые сейчас пока ещё только в проекте и через два года должны появиться в продаже, смогут потягаться со старыми Core i5, которые вышли два года назад, а на тот момент будут уже четырёхлетними.


  1. Diordna
    18.08.2018 17:59
    -2

    До сих пор сижу дома на q9550. Подскажите если в интернете Существует сайт с результатами реальных тестов(winrar videodecoding) производительности процессоров чтобы можно было сравнить свой камень с каким-нибудь кор ай5 8400 и понять какой будет примерно прирост производительности.


    1. fzn7
      18.08.2018 23:05

      cpu-z


    1. Chamie
      19.08.2018 06:29

      А PassMark — достаточно «реальный» тест?


      1. powerman
        19.08.2018 14:00

        По моим наблюдениям — да. Я многократно за последние годы перепроверял его на разных реальных задачах, практически всегда разница в скорости работы этих задач на разных процах соответствовала разнице в рейтинге этих процов на PassMark.


    1. iproger
      19.08.2018 08:10

      Сайт? Самый популярный userbenchmark.


      1. Diordna
        20.08.2018 00:59

        1. iproger
          20.08.2018 01:11

          В теории? Вполне возможно. Я бы не смотрел на такие метрики потому что даже если в теории они и такие, то на практике обычно все не настолько хорошо.
          Надо еще понимать для чего он нужен. Например, в новейших играх на 1080ti его будет не хватать. В то же время для обычных задач будет с избытком.


        1. DrPass
          20.08.2018 02:12

          +138% i5 8400 vs q9550 реально?

          Для процессоров, между которыми лежит почти десятилетие? Ну, если вы отмотаете примерно столько же времени назад, конкурентом q9550 будет что-то вроде Pentuim III 450. Там разница в быстродействии будет раз в тридцать, если не больше.


  1. loki8
    19.08.2018 11:01

    еще пяток уязвимостей типа spectre|meltdown найдут и core i5 сравняется не только лишь с ARM, а даже с core2quad.


  1. Viacheslav01
    19.08.2018 14:13
    +1

    Сколько лет я слышу: АРМ скоро догонит х86, все еще догоняет. Сколько слышу, что мобильные уже гораздо мощнее Хбокса 360, а игры на них все еще далеки от старичка и все еще тормозят. Подождем еще…