То что сейчас происходит — это выбивание стула из под Intel, никак иначе. Еще и AMD может зацепить, хотя они показывают хороший прогресс. Если Intel продолжит свою текущую политику, продолжит считать себя монополией и диктовать цены на свои процессоры, то ее, вероятно, ждет закат. Почему? Я проанализировал первые тесты Apple M1 и они сделали первый серьезный удар.
Сразу скажу… Я не фанат Apple, хоть и пользуюсь Apple MacBook Pro 13 еще 2015 года, а недавно выбирал супруге ноутбук и остановился на Apple MacBook Pro 16, хотя и перебрал множество других недешевых ноутбуков. Я не в восторге от политики компании, от многочисленных багов в MacOS и если бы для меня существовала альтернатива, то я бы с радостью сьехал на Xubuntu. Потому я не являюсь ярым фанатом, потому не пытайтесь меня уличить в предвзятости.
Сегодня появились в продаже новые MacBook Air, MacBook Pro 13 и Mac mini. Есть первые тесты производительности.
По тесту Geekbench 5 в тесте на 1 ядре Apple M1 3.2 GHz уделывает MacBook Pro 16 на топовом Intel Core i9-9880H 2.6 Ghz и даже iMac 2020 года на топовом Intel Core i9-10910 3.6 GHz. Результаты синтетических тестов 1689 vs 1251 vs 1095.
В multi-core тесте результаты 7288 vs 9021 vs 6869. При этом, у iMac 10 ядер, а у остальных по 8 ядер.
Но! Эти тесты без эмуляции x86, а у M1 архитектура ARM, потому тот же Premier Pro для x86 систем будет медленнее работать. Ранее на Geekbench были замеры в режиме эмуляции и там результаты single core/multi-core были куда скромнее: 1313 и 5888. Но потом с Geekbench данные этих тестов удалили и оставили нативные тесты. Но интернеты помнят все. Даже с эмуляцией это быстрее чем Core i7 и Core i9. А что будет когда Premier Pro и прочие сделают поддержку нативную ARM?
Эти тесты — это синтетика, стоит помнить. У MacBook Air нет вентилятора, а у MacBook Pro есть, потому я предполагал возможность перегрева при длительной нагрузке и будет происходить снижение производительности. Но я уже видел экспорт H264 4K@60fps видео длиной в 20 минут, который не привел к снижению производительности. Производительность не падает! На этом видео, кстати, видно, что экспорт занял 24 минуты, а топовый MBP 14 года проиграл 4%. Разница не так велика, но это Air vs Pro, без вентилятора и базового уровня, дальше Apple обещает более мощные чипы.
Еще под полной нагрузкой M1 нагрелся до 33 градусов по цельсию на корпусе на Air без вентилятора! Что повергло прямо в шок, ибо MacBook Pro 16 греется до 46-50 градусов, жужжа как пылесос.
Работа в Davinci, Final Cut и Premiere Pro с 4K видео работает как нативно (Final Cut), так и с Premiere Pro в режиме эмуляции x86 (Rosetta 2). При x4 воспроизведении 4К не наблюдалось тормозов.
Тесты Cinebench R23 показали преимущество над Core i9-9880, 1498 vs 1183 в single core тесте. Правда Ryzen лидирует в multi-core тесте.
Affinity тест: M1 дает жару iMac с AMD 580X.
Утром подъехали тесты компиляции WebKit.
А еще на habr пользователь avengerweb опубликовал Первый опыт: Mac Mini на M1.
Числа выше говорят за себя. Но вот что еще… Apple подняла цены на официальном сайте на версии с Intel процессорами. Для примера, MacBook Pro 16 с Core i9-9880H, 16Gb RAM и 512Gb SSD стоит $2699. В то время как Apple MacBook Air с M1, 16Gb RAM и 512Gb SSD стоит $1499. При почти одинаковой производительности… Базовый Air entry level против топового Pro… Давление ценой и качеством. Что же, это мощный удар.
UPD. В комментариях уже зацепились за AMD и Market Share, потому давайте добавлю и это.
Доля Intel на рынке процессоров падает и этому способствовал успех AMD.
У AMD вообще отличная архитектура и себестоимость 1Ghz вычислений намного ниже. Это позволило AMD обеспечить прирост в 5 раз доли в сегменте DC. А запас производительности для топовых железок просто отменный.
Какую же долю занимает Client/Server сегмент Intel? Client сегмент на 50% больше чем сервервный, именно в Client сегмент начал быть AMD и теперь Apple.
Потому я вижу, что Intel сдает позиции в x86 десктопном, мобильном и серверном сегменте AMD, а тут еще Apple с ARM начинает будоражить рынок.
А теперь снова к ARM. Что может последовать дальше? Волна хайпа вдохновит других вендоров и разработчиков OS пересмотреть свой подход. ARM позволяет запускать сотни тысяч приложений с мобильного AppStore и пользователи смогут запускать тот же Instagram уже на Mac. У Google тоже есть своя большая экосистема на ARM и это может подстегнуть Google активней разрабатывать свою OS, либо даже посмотреть в сторону производства своих устройств. Если сойдутся звезды, то и MS присоединится к гонке. Выиграет от этого покупатель в любом случае. А что думаете вы? Пишите в комментариях!
А что по минусам или рискам?
- Заявлена поддержка только 1 экрана до 6K в MBA и MBP, подключить два не получится. Возможно, добавят в следующей ревизии, ибо о какой Pro может идти речь, если нельзя два экрана подключить? Кстати, у Mac Mini на M1 есть HDMI порт и подключить можно будет два экрана, скорее всего.
- Epic Games Launcher у людей на MBA вылетал, потому проблемы с Rosetta могут быть, я бы советовал подождать пока проблемы исправят.
Материал подготовлен на базе моей публикаций в авторском телеграм канале Об IT без галстуков. Правда о менеджменте, действиях и мотиваторах топ-менеджмента, про то как расти в компании и что ценят собственники бизнеса. Ну и авторский материал про современную разработку! Второй мой канал (ФинВам) про финансы, финансовую грамотность и инвестиции.Изображение на обложку взято с ixbt.com, ну очень в тему.
psycha0s
Вы сравниваете мобильные чипы. ARM не сможет тягаться с десктопными x86, по крайней мере при одинаковом техпроцессе.
Coverbacker
Но тут показаны реальные задачи включая компиляцию. Почему не могут, если делают?
psycha0s
При разработке чего-либо (например процессорной архитектуры) приходится постоянно искать компромиссы. У ARM упор сделан на энергоэффективность, у x86 на производительность. Невозможно сделать процессор одновременно и с высокой производительностью, и с малым энергопотреблением. Физику не обманешь.
В приведенных вами тестах не участвуют десктопные x86.lassana
В мак про стоит
ZeonXeon. Если в тестах нет никакой ошибки, то похороны x86 уже случились.quwy
Помнится, эта же самая яблочная контора уже «хоронила» x86 лет 25 назад. Тогда тоже были крутые тесты, овации в прессе, слоган «лучше, чем Pentium» и т.д.
И чем все закончилось?
onlinehead
И да, и нет. И да, потому что концептуально можно положить ARM ядро и назвать этот процессор Intel Core или там Ryzen. Более того, AMD в начале 10х экспериментировала с выпуском ARM процессоров.
С другой стороны, разработка ядер CPU и процессоров на их базе — основной бизнес Intel и бОльшая часть бизнеса AMD. Если они начнут эти ядра у кого-то покупать (а Apple, на сколько я понимаю, все таки разрабатывает сама и ядра, и процессор, а не покупает их на стороне, как делают многие производители мобильных чипов), то это будет означать фактическую смерть обоих компаний, так как основную ценность и главную компетенцию они потеряют.
Кроме этого, если у них нет туза в рукаве на базе «таких хороших ядер» на ARM (а у Intel его судя по всему нет) — разрабатывать его с ноля займет годы. И проблемы с техпроцессом. Кроме того, в случае с Intel и их собственными уникальными фабриками, придется еще и перепроектировать все это под собственно их фабрики, что тоже займет долгое время, т.к. нельзя просто взять условную пачку документаций и спецификаций с фабрики TSMC и начать делать то же самое на фабрике от Intel или от Samsung. Даже на одном и том же условном «10нм» техпроцессе техпроцесс у каждого производителя отличается и чип надо под него перепроектировать.
В общем — все на самом деле очень непросто.
quwy
У них гораздо больше опыта в разработке ядер, чем у кого-либо. Если окажется, что просто выбран неверный путь, то повернуть в сторону и разработать нечто похожее для них большой проблемой не будет. Покупать разве что на время переходного периода придется.
Apple — исторически контора дизайнеров-гуманитариев (и не нужно спорить, публично доступная история разработки айфона это отлично доказывает). Весь грешный инжиниринг делается купленными на стороне руками и головами. Так кто мешает тому же интелу, если прям так сильно пахнет жаренным, точно так же перекупить тех, что умеет делать лучшие ядра?
Ну и не забываем, что яблочный процессор — это ARM, а не что-то неведомо-новое, т.е. его архитектура прекрасно известна и доступна всем желающим.
onlinehead
Будет. Intel вот пыталась пару лет назад и в модемы, и в процессоры мобильные. Слилась, не смогла.
Если бы могли — сделали бы. Intel/AMD и любая другая подобная компания каждый год миллиарды долларов в RnD закапывают. Пока в ARM и подобные показатели производительности у них даже близко не получилось.
А на счет покупать — во-первых могут и не продать, во-вторых — все, что доступно к свободной покупке не блещет показателями. Так то да, вон готовые Cortex ядра продаются.
Вот только процессоры они разрабатывают in house. Даже компанию для этого купили в начале нулевых, специализирующуюся на разработке процессоров. Там не только маркетологи работают все таки, с времен создания первого айфона поменялось достаточно много. Ну и контрактников конечно никто не отменял, они есть у любой крупной компани.
А нет их доступных к покупке. А если представить такую ситуацию, что есть абстрактная команда, которая офигенно пилит новые ядра на ARM и она вдруг осталась без контрактов и решила продаться, то Intel может оказаться бедновата для получения над ней контроля. У Apple денег даже в кэше 75 миллиардов против 16 у Intel.
Так и x86_64 всем известен и доступен всем желающим по лицензии. Проблем нет. Вот только архитектура != ядро или процессор под нее. Разница примерно как между алфавитом определенного языка и его грамматикой и написанной с помощью этого алфавита на этом языке книгой.
Знание языка необходимо, но совершенно недостаточно для того, чтобы написать книгу. Ну то есть что-то конечно можно изобразить, но до бестселлера этому произведению будет далековато.
ildarz
Не "пару лет", а побольше. И ушла не потому, что "не смогла", а потому, что эти рынки — низкомаржинальные. Затрат много, конкуренция высокая, прибыли (относительно десктопных и серверных процессоров) — низкие.
Реальная очевидная проблема у Интела сейчас одна — они впервые за очень долгое время потеряли лидерство в техпроцессе, и никак не могут его наладить. На этом фоне рассуждать о том, что у Эппла или АМД архитектура лучше, а Интел якобы "не смог" — занятие так себе.
vaslobas
Разве в x86_64 не всё запатентовано перепатентовано? И патенты никому не продаются. Или это речь шла про х86?
catBasilio
Только то, что мы называем x86_64 было разработано AMD. и оно вообще-то называется AMD64.
Интеловская 64 разрядная технология (IA-64) вообще не взлетела.
drWhy
Не взлетела массово, потому что предлагала слишком радикальный подход, ведущий к продуктивности за счёт отказа от легаси. Что сейчас всё равно происходит.
Впрочем, ограниченную распространённость получила и до сих пор используется, но как раз наступает EOL.
Если уж HP и Intel, потратив огромное количество ресурсов на разработку технологии, решили от неё отказаться, значит есть другие варианты.
quwy
Чужая ниша. А персоналки и сервера — свое поле. Разница очень большая. Тут уже и маркетинг налажен, и рынок приложений трилионный.
Купить болванку. А сделать ее быстрой, если дело только в наборе команд, должны суметь, иначе грош им цена.
Вот про это я и говорю.
Не такая и разница. Да и не деньгами едиными. Apple даже светоча своего Джобса умудрилась просрать в свое время, опыт есть.
Конечно, но раз apple не стала пилить свой x86, а пошла на кардинальную смену набора команд и выбрала arm, значит архитектура решает, не так ли? И если новый камень реально такой крутой, как о нем тут пишут, значит и интел может поменять архитектуру и получить примерно то же самое.
cepera_ang
Конечно решает, x86 не продаётся, а больше разумных вариантов, кроме арма не было, вот и всё решение.
vvzvlad
Еще наработки под мобильные армы были.
cepera_ang
Да и вообще, они этот арм основали :)
re1ax
Почему это? Лицензию х86 может купить любой желающий с тем лишь ограничением, что компания должна быть из США. Apple вполне подходят под это требование.
Я думаю, что выбор x86 <-> ARM был в другом — Apple уже давненько сама разрабатывает процессоры для своих телефонов и увидела, что это у неё успешно получается + провела моделирование быстродействия для десктопных задач. Результаты её устроили и поэтому она решила перевести на них Маки.
cepera_ang
Откуда такая уверенность, что лицензия на x86 вообще продаётся? :)
re1ax
Потому-что иначе это ограничение конкуренции, а там такое очень сильно не любят. Так что там или ты её не продаёшь вообще никому, или пилишь разумные условия лицензии и продаёшь всем, кто подходит им соответствует. Там же недавно Qualcomm нагнули (или дело ещё в процессе) за такое.
cepera_ang
Хорошо вам жить в мире иллюзий, где всё просто и понятно, как у вас в комментарии.
Ну вот x86 никому и не продаётся, нет никаких "разумных условий лицензии", нет никакой лицензии вообще, на планете три компании, кроме интела, которые могут делать x86 процессоры, потому что они исторически добились (разными путями) разрешения от Интела.
С другой стороны, многие патенты уже истекают, так что в принципе любой может начать делать что-то вроде Пентиума 2, но смысл? :)
Iv38
AMD, VIA, а третья какая?
DaemonGloom
DM&P Electronics с их процессорами Vortex86 для embedded оборудования. Последнюю на текущий момент модель процессора они выпустили в 2018 году.
Iv38
Даже не слышал о такой.
cepera_ang
IBM внезапно.
Am0ralist
Хотя можно вспомнить, что АМД продала зен1 китайцам без блоков шифрования. Не знаю, имеют ли они право теперь что-то выше сделать на основе.
cepera_ang
Загуглите как via получили права на x86, там была совсем не продажа :)
Am0ralist
Ну китайцы то для личных процов таки купили прям архитектуру у амд вообще, не знаю на каких условиях)
cepera_ang
Формально, там по сути AMD производит свои ядра.
Am0ralist
Формально, там совместное предприятие AMD с китацами, как и в случае VIA с Zhaoxin.
И совместному была передана именно лицензия на разработку на основе zen без блоков криптографии, которые были заменены на блоки для работы с китайскими алгоритмами шифрования. Zen2 уже не разрешили передавать.
cepera_ang
Да, в википедии так и написано
onlinehead
Так дело же совершенно НЕ в наборе команд. Дело в том, как реализовано выполнение этих команд.
Поглощения компаний ради готовых компетенций — нормальный путь развития крупного бизнеса. В этом нет ничего удивительного. Посмотрите сколько компаний поглатила та же Intel — newsroom.intel.com/tag/acquisition/#gs.l7gq90
Большая часть из них была про микроэлектронику. Получается там тоже одни маркетологи сидят?
Причем тут конкретный человек и компания?
Нет, не так. Apple была в соучеридителях ARM, много лет разрабатывала мобильные процессоры на этой архитектуре и теперь пришла в другой сегмент. Они же не вчера этим занялись. Как раз те самые компетенции. Всмысле они научились очень хорошо работать в рамках этой архитектуры. Вероятно даже лучше, чем AMD/Intel в рамках своей х86 и лучше, чем Qualcomm в рамках той же ARM. Если бы дело было только в архитектуре, Qualcomm, Samsung, Huawei и еще пара десятков компаний помельче давно бы пришели и нагнули парочку Intel/AMD.
Известно, что лицензией на архитектуру Arm64, на которой построены все современные ARM процессоры (то есть возможность заглянуть вообще везде и во все детали и крутить ее как надо, а не купить готовые ядра в формате black box), есть как минимум у Apple, Samsung, Applied Micro, Broadcomm, AMD(да да), Cavium, Huawei, Nvidia.
У Intel есть лицензия на Arm32, есть ли она на Arm64 неизвестно, по крайней мере в открытых источниках я не нашел, но у них в линейке есть процессор Intel Movidius, а он на Arm64. Возможно ядра лицензированы, подробностей о нем мало. Процессор этой линейки ставился в Intel Neural Compute Stick.
Вообще, ARM как системе команд уже хрен знает сколько лет. Весь мобильный рынок на ней. Кое-кто экспериментирует с разработкой процессоров для более серьезных задач (Amazon, к примеру). Но это все совершенно не значит что интел или кто-то еще может пойти, взять эту систему команд и что-то внятное на ней изобразить. Архитектура достаточно удачная сама по себе, да. Но есть и другие, и даже открытые (OpenRISC). Что-то никому это особо не помогает делать какие-то особо быстрые и эффективные процессоры. Равно как и многолетняя разработка процессоров на ARM не помогает той же Qualcomm сделать такой-же быстрый и эффективный процессор, как M1.
RomanKerimov
Дело в наборе команд. RISC при прочих равных всегда уделает CISC. Собственно и у Интела CISC уже давно аппаратно эмулируется поверх RISC-ядра. Убираем слой эмуляции — получаем более холодные камни с большими возможностями для оптимиации компилятором.
sumanai
Вопрос в том, какой оверхед на эту эмуляцию в процентах. Если 5%, то можно и забить на переписывание всего и вся.
RomanKerimov
Так оверхед не только в производительности, но и в энергопотреблении, поскольку этот слой работает на каждом такте процессора. И это сильно понижает максимальную планку быстродействия процессора. А у Apple тот же слой эмуляции сейчас перенесёт в comipile time по сути в виде Rosetta 2.
cepera_ang
Но никаких прочих равных нет :)
Как и нет никакой "эмуляции", которую можно взять и убрать.
RomanKerimov
Да, Intel уже отстал и по техпроцессу, что делает картину ещё более драматичной. В случае с x86, конечно, нельзя убрать, но есть ARM, где уже убрано.
FeNUMe
Intel по техпроцессу отстал только у маркетологов, на деле же их 14нм+++ по плотности не намного хуже 7нм от tsmc.
youtu.be/1kQUXpZpLXI?t=782
cepera_ang
А если в транзисторах на мм^2? :) А то у вас одни маркетологи других перебивают и всё.
FeNUMe
Для 14+++ поищите данные сами.
cepera_ang
На 50% меньше, как и положено. Даже в вашем ролике через 30 секунд этот график есть. А то, что 7нм TSMC и 10нм Интела более-менее эквивалентны — это широко известно.
Только разговор-то у нас о процессоре на 5нм и эти шаги являются существенным прогрессом, несмотря на всю сложность (комплексность) стоящих за ними изменений по разным параметрам, трудно сводимую к одной единственной цифре.
Поэтому сравнивать массовые процессоры Интел на 14+++ (да хоть двадцать плюсов) и 5нм Apple — трудно, между ними пропасть в технологиях, а не только в маркетинге.
ildarz
Мсье теоретик? Где все эти "более холодные камни с большими возможностями по оптимизации" были, пока Интел по техпроцессам не отставал? :) x86 за время своего существования повыбивал самые разные "более эффективные" RISC-процессоры из разных ниш, так что объективная реальность несколько отличается от "сделаем без эмуляции — получим преимущество".
RomanKerimov
В телефонах и планшетах.
При этом с худшим техпроцессом чисто из-за преимуществ x86 архитектуры, наверное. (нет)
ildarz
Вы ещё стиральные машины забыли. Ещё раз — рынок мобильных процессоров, в отличие от рынка настольных и особенно серверных, низкомаржинальный. Есть некоторая разница между "проиграли технологически" и "не захотели сильно вкладываться из-за низкой нормы прибыли".
Разумеется, нет, потому что внешняя архитектура команд с определенного момента вообще перестала играть существенную роль в производительности. О чем я вам и говорю.
RomanKerimov
А я говорю, что играет. Убираем CISC-декодер, работающий на каждом такте > снижаем TDP > получаем возможность сделать более производительный процессор.
khajiit
Не настолько. В CISC-декодер сложнее вносить изменения и он имеет больше пространства для нежелательных сайд-эффектов в силу сложности, но транзисторного бюджета и TDP он в товарных количествах не потребляет.
А вот то, что у него L1I 192kB и L1D 128kB и 12 MB shared L2 — вносит огромный вклад в производительность.
RomanKerimov
Но тогда почему у Intel не получилось в мобильные процессоры даже тогда, когда у них ещё было преимущество по техпроцессу?
Тот же АЛУ может какое-то время не использоваться, и статическая память кеша не потребляет, пока в ней не меняются данные, а вот декодер должен отработать на каждом такте.
Но даже если модифицировать схему: убираем CISC-декодер > снижаем сложность и избавляемся от сайд-эффектов > упрощаем внесение изменений > делаем более производительный процессор.
Всё равно получается, что и таким образом архитектура набора команд играет существенную роль в производительности.
khajiit
У них, как бы, довольно долго вполне получалось.
Тот же Haswell/Broadwell были крайне удачны.
Да и нельзя забывать, что M1 пока не поступили в массово в реальную эксплуатацию, и еще не понятно, какие у них по факту узкие места. Тот же RPi 4 на десктопе — не очень торт, а потребляет наравне с Atom.
Убрать декодер нельзя, ибо совместимость. Можно только добавить еще регистров и завести отдельный набор команд — но это новшество не будет востебовано еще долго и пока оно не будет востребовано, его обслуживание будет стоит транзисторного бюджета и tdp (даже если его немного совсем) которые можно было бы расходовать иначе.
Например, на раширение L1.
Так что это очень сложный вопрос даже на взгляд непрофессионала.
RomanKerimov
Это я про концептуальное «убрать», то есть перейти на RISC ISA, чтобы CISC-декодер не требовался. Понятно, что в самих x86-процессорах декодер не убрать, а вот перейти на ARM можно, который сразу RISC.
khajiit
Ну, собственно, Apple это процесс и запустила. Посмотрим, взлетит или нет.
cepera_ang
Внезапно, с подключением, токи утечки составляют сейчас чуть ли не основную долю потребления процессоров, а кеш, как самая большая часть — потребляет значительную часть их них :)
RomanKerimov
И всё же они пока достаточно малы, по сравнению с затратами на переключение КМОП-схем, иначе уже невозможно было бы уменьшать техпроцесс.
cepera_ang
Половина — это достаточно мало? :)
Хотя все такие картинки закончились лет десять назад, надо полагать тогда что-то произошло, что изменило тренды радикально? Слишком глубоко копать ради спора в комментариях.
RomanKerimov
Это суммарные утечки по всей микросхеме. При этом лишь малая часть вентилей переключается за такт, но они набирают вторую половину. Это значит, что вентиль в момент переключения расходует значительно больше энергии, чем в простое, иначе КМОП-схемотехника была бы не нужна.
cepera_ang
Какой процент транзисторов в среднем переключается за такт? (я правда навскидку не нашёл)
RomanKerimov
Без понятия какой процент, но понятно, что небольшой, иначе процессор бы перегрелся, либо смысла в КМОП бы не было, и можно было бы делать сверхбольшие n-МОП схемы.
И это было бы замечательно, потому что можно делать очень быстрые n-МОП транзисторы на германии, но из-за высокого потребления в статике сверхобольшие интегральные схемы n-МОП увы невозможны.
Декодер работает на каждом такте, если процессор что-то делает. А вот АЛУ уже нужны не всегда. Регистры тоже простаивают, пока в них лежат промежуточные данные вычеслений. Кеш ещё реже работает.
Поэтому и тротлинг работает — уменьшение частоты существенно снижает энергопотребление.
ildarz
А вы не говорите, а маленький расчет сделайте — какую часть чипа занимает декодер и сколько потребляет энергии в сравнении с остальным. Вот тогда будет что-то похожее на предметный разговор.
Я вам уже ответил, но вы проигнорировали — причины маркетинговые, а не технические. С технической точки зрения там всё прекрасно получалось.
RomanKerimov
При этом вы почему-то такой маленький расчёт не сделали, который показал бы, что не влияет.
Так что может влияет, а может и не влияет, но есть ещё одна гипотеза, по которой RISC позволяет сделать более производительные процессоры: habr.com/ru/post/528658/?reply_to=22333998#comment_22333328
Сколько вклад каждой из них посчитать, конечно, возможно, но у меня ресурсов для этого, к сожалению, недостаточно.
DarthVictor
Apple делает ARM процессоры уже 17-лет, причем последние 10 лет на собственной микроархитектуре, так что ни на какую смену набора команд она не шла.
saboteur_kiev
Простите, сотрудникам интел не платят, или что означает «купленными на стороне»?
siziyman
Нельзя просто взять и пересадить инженеров-хардварщиков, которые собаку съели на интеловском х86, на АРМ, и сказать «сделайте конфетку». Это так не работает. Это другие компетенции. Из тракториста не получится сразу сделать гонщика Формулы-1.
cepera_ang
Кроме того, что Эпл им его никогда не отдаст для использования в их процессорах?
quwy
А их никто и просить не будет. Потому что это ARM, который продается всем желающим, и эплу (слава всевышнему) не принадлежит. Или, думаете, у амд не хватит мозгов перевести готовое ядро на новейший техпроцесс и заказать его изготовление у той же TSMC?
cepera_ang
Посмотрите внимательнее что именно продаёт ARM и что именно позволило Эплу добиться производительности своих процессоров — это разные вещи, никаких готовых ядер как у Эпла в продаже нет.
quwy
Ядра продает.
Самое главное, что удалось сделать эплу, — перекупить мощности TSMC по производству камней по лучшему техпроцессу. На 14 нм все было бы заметно грустнее.
lorc
ARM продает много всего. В том числе лицензии на набор команд и на архитектуру.
Тае вот. Ни Apple ни Qualcomm не покупали ядра. Они купили лицензии на архитектуру и разработали свои ядра.
quwy
Отлично. И как из этого следует, что условная AMD не может сделать то же самое, раз набор микрокоманд определяет такую большую разницу, как тут пишут?
cepera_ang
Если и пишут (но я не вижу где), то просто ошибаются, решает реализация микроархитектуры, а набор команд даёт в лучшем случае десяток процентов разницы (и то спорно).
RomanKerimov
Набор команд влияет на возможности реализации микроархитектуры. В Intel уже давно пришли к выводу, что проще сделать RISC-ядро, а поверх него сделать аппаратный эмулятор x86. Так вот использование RISC архитектуры набора команд позволяет выбросить этот эмулятор, который работает на каждом такте, попутно давая больше возможностей для оптимизации компилятором.
picul
Вы не разграничиваете RISC-ядро и RISC-процессор, а зря. Использование RISC архитектуры набора команд процессора раздувает код программы до совершенно избыточных размеров, а этот код нужно загружать из оперативной памяти в процессор в рантайме. И здесь как раз очень желательно, что бы он был покороче. А уже на процессоре декодер превратит его в набор упрощенных команд, которые можно будет исполнить. При этом превращения эти декодер делает асинхронно, и на длиной дистанции на быстродействие не влияет. Не согласны — попробуйте написать frontend-bound код под x86 архитектуру.
khajiit
Это больше похоже на VLIW… где-то попадалась сравнительная диаграмма плотности кода: она для ARM/x86_64/RV64 примерно одинакова, но RISC, как правило, имеет компактную версию.
Ссылка на статью
Если, конечно, не брать за образец MIPS или Freescale.
picul
Во-первых, архитектуру x86-64 не назовешь удачно спроектированной — она вынуждена поддерживать legacy-режимы работы; если я не ошибаюсь, прелести одно-двух байтных команд по большей части недоступны уже даже в 32-битном режиме, про 64-битный нечего и говорить. Во-вторых — знаю, мнение непопулярное, но ИМХО сейчас в ARM от RISC осталось немного больше, чем просто название.
khajiit
Собственно, непонятно как
Армы да, имея RISC-основу они взяли некоторые черты CISC.
picul
Если использовать лишь тривиальные команды, очевидно количество команд, нужных для кодирование алгоритма, будет больше, чем при использовании нетривиальных. При этом мы также будем вынуждены кодировать все команды одинаковым количеством байт, вместо того, что бы использовать меньше байт на популярные команды и больше на экзотические. Поэтому я считаю, что условно идеально спроектированный CISC выиграет у условно идеально спроектированного RISC'а в размере программы.
khajiit
На практике в RISC реализуются разные сокращенные подмножества, а для CISC такое невозможно, так как он уже состоит из подмножеств. Причем, оптимальность изначальной нарезки бит в инструкциях определяет сложность дальнейшего расширения. А самое главное, нельзя просто взять и выкинуть некоторое подмножество (на самом деле иногда можно, но чтобы выкинуть что-то бесполезное сначала надо ввести что-то бесполезное, как было с командами мониторинга в Pentium, емнип, эволюционировавшими в префиксы AMD64).
Отчего CISC обречен пухнуть, а RISC — быть гибким и уменьшаться.
picul
Не очень понял, о чем Вы. Что значит сокращенные подмножества? И почему выкинуть что-либо из CISC проблемнее чем из RISC?
khajiit
Thumb, Thumb-2, RV64C, RV32C — вот это вот все.
Ну вот смотрите: пилите вы свой идеальный передовой 16-битный процессор.
Кроме этого, у вас еще может быть i8/i16 операнд и косвенная адресация — все это должно влезть в инструкцию. А еще надо адресовать регистровый файл. Допустим, он будет состоять из 32 байтовых GPR, которые объединяются попарно для 16-битных операций.
CISC:
Адресуя 32 регистра пятью битами, вы можете реализовать всего 2?=8 команд. Сложение, вычитание и сдвиг вправо и влево в знаковом и беззнаковом вариантах, ротация и условный переход — это уже 10!
Ок, режем количество GPR до 8, освободим аж два бита для команд, потребуется всего три бита для кодирования регистра и можно сделать больше коротких однобайтовых инструкций. Теперь вы реализовали загрузки и сохранение и у вас есть даже задел на будущее в виде еще 16 (для простоты счета) свободных опкодов — круто!
При этом короткие инструкции всегда неявно подразумевают работу с R0/R1R0.
RISC:
Ок, используем два байта для команды. Адресуем Op0 и Op1 младшими 10 бит для команд, требующих два операнда, для остальных используем Op1 как расширение опкода. Immed-операнд размещается следом за командой, расширеный до 16 бит.
16-тибитные команды состоят из флага в 15 бите, 7 бит опкода (даже больше, чем у 8-мибитных) и двух нибблов для Op0 и Op1.
Результат:
Пока что системы команд обоих архитектур достаточно близки, и декодируются простой таблицей.
Какие смешные эти RISC, они на любую инструкцию тратят на байт, а то и три, больше! А ведь его из памяти прочитать еще надо!
CISC
Оукей, у нас в условном переходе используется 4 бита под номер флажка, двойных регистров у нас всего 4 — это всего 8 опкодов.
Черт, нам бы еще пару индексных регистров, а то ворочать массивы будет очень тормозно! Добавим еще опкоды… для всех операций, только теперь индексные… Нам нехватает опкодов — вводим двухбайтовую кодировку, пусть все опкоды 0xCx будут префиксами!
RISC
Вводит два новых опкода в 16-тибитную часть.
Результат
CISC: ладно, я все равно местами быстрее.
CISC
Так, ребята помните, какая жопа у нас случилась в прошлый раз? Давайте теперь не будем маяться дурью и сразу сделаем команды для FPU — префиксными.
RISC
Добавляет еще несколько опкодов.
Результат
На 8-мибитной шине CISC показывает небольшое преимущество, на 16-бит они идут ноздря в ноздрю.
CISC
Окей. Парни, во-первых, давайте расширимся: стыдно в наше-то время со всего 8 GPR ходить, сделаем их 16.
Кроме того, у нас уже большой, сложный декодер, давайте не изобретать велосипед, а просто его переиспользуем. Отпрефиксим новые инструкции, у нас еще этих префиксов полдюжины! За работу!
RISC
Невозмутимо расширяет командное слово до 32 бит. И все GPR. Теперь можно адресовать одновременно 3 GPR одной командой.
Добавляет условное исполнение.
Результаты:
CISC страдает на ветвлениях и переходах, но не подает виду.
ну, вы же уже догадались, да?
picul
Ну да, ну да, давайте спроектируем CISC в точности как x86-64, что бы унаследовать все его косяки. Ни в коем случае не утрамбовываем в один-два байта полезные инструкции, лучше запихнем туда операции над 8-16 битными операндами — вот будет счастье. Я понимаю, что в x86 чего только нет, но уж сферический процессор в вакууме можно же спроектировать хотя бы по современным меркам.
Вообще по этому поводу у меня была мысль ввести механизм эпох. По сути — что бы в специальном регистре можно было задавать разные режимы декодирования команд, и программы могли использовать такую упаковку, которая им по душе. Правда, не уверен, что зависимость декодирования от данных в регистрах может быть реализована без больших накладных расходов. Да и вообще, даже на x86 упереться во фронтенд могут не только лишь все, так что скорее всего оно того просто не стоит.
khajiit
Это истории реальных RISC и CISC )
Во-первых, все свойственное CISC многообразие опкодов, структуры инструкций и регистров, оно не от хорошей жизни, а от кроилова, приводящего к сиюминутной выгоде — и попадалову в будущем.
Во-вторых, по мере развития CISC обратно эволюционирует в сторону RISC (увеличивает регистровый файл, лишает особенные регистры особенного статуса — что дополнительно приводит к росту сложности системы команд) а RISC приобретает некоторые черты CISC (у некоторых GPR появляются выделеные роли).
В результате через лет 20?30 CISC вынужден поддерживать огромным, трудноотлаживаемым и труднооптимизируемым декодером все исторические наслоения наборов команд развесистого префиксного дерева, с самого своего появления — одна и та же ассемблерная мнемоника может быть реализована несколькими ассемблерными кодами, а современные компьютеры до сих пор стартуют в 16-битном режиме; в то время как RISC имеет простые и быстрые табличные декодеры для каждого поддерживаемого набора команд и волен не тащить с собой все легаси.
Идеальная система команд CISC, к которой стремится, например, x86 — это RISC, но отягощенный x86-legacy.
picul
Это истории x86 и ARM (они кстати обе CISC, просто напоминаю).
Опять же, Вы привязываетесь к конкретным архитектурам, а я оцениваю CISC и RISC концептуально. Это не CISC, а x86 тащит легаси из неоптимально спроектированных команд, CISC сам по себе к этому не обязывает. И это в x86 нет упрощенных наборов команд с разными декодерами — в самой концепции CISC я не вижу на это никаких ограничений.
В общем, у Вас аргументация вида «когда-то придумали передавать данные по сети в виде цифрового сигнала, потом появился веб, и вот, спустя 30 лет, он как-то не очень подходит для современных задач — значит надо было передавать сигнал в аналоговом виде».
khajiit
ARM (Advanced RISC Machine)
У них есть одно важное отличие: они выжили и распространились настолько, что стали конкурировать друг с другом.
И это отлично иллюстрирует разницу Complex и Reduced систем: они обе начиная с одного и того же ставят разные цели — и получают разные результаты.
Они были крайне оптимально спроектированы и востребованы на момент разработки.
Сейчас те их фичи не востребованы, но продолжают висеть в legacy.
Вы знаете, техника развивается и требования меняются.
В истории x86 было три поворотных момента, когда можно было все переиграть и сделать как у взрослых.
Один раз — случайность, два раза — совпадение, три — уже система.
И этот выбор делали не комментаторы на хабре отнюдь
Просто вещи так устроены: либо вы делаете complex, но извлекаете прибыль сейчас, чтобы расплачиваться в будущем, либо KISS.
Если вы продумываете march&ISA на два шага вперед — вы делаете RISC, если вы извлекаете профит сейчас — у вас получится CISC. That's all.
а вот это уже лежит на тонкой грани между wishful thinking и подменой…
picul
Только вот x86 распространился на персоналках и серверах, что повлекло за собой проблему обратной совместимости, а ARM — на single-program девайсах и мобилках с JVM. Но проблемы с легаси на x86 разумеется исключительно из-за CISC.
Уже тоже не разграничиваете RISC-ядро и RISC-процессор? Я нигде не говорил, что нужно исполнять CISC-команды в том виде в каком они есть.
А если CISC с разными декодерами и возможностью переключаться от одного к другому?
А натягивание ARM-совы на RISC-глобус — это другое.
khajiit
Знаете
А AVR — тоже не RISC?
Вы заставляете этого цитировать самого себя:
Кроме того, вам всегда, независимо от микроархитектуры, необходимо иметь выделенный command counter, flags и stack pointer (если стек используется), data stack pointer (если есть стек данных, отдельный от стека адресов возврата); если используется сегментная модель памяти или изоляция приложений — то еще и регистры сегментов.
Кроме того, операции с неявным аккумулятором, который еще и может быть физически отдельным, для ускорения таких операций, подсоединенным прямо к ALU, но явно адресуемым как r0, добавляет, как это ни удивительно, производительности.
Разумеется, эти технические ньюансы накладывают свой отпечаток на ISA.
Поэтому какого-то там идеализированного полностью неспециалированного RISC в природе быть не может, так же как и идеально специализированного CISC.
Принципиальные отличия RISC — это большой регистровый файл равноправных регистров и простая регулярная система команд vs малое количество разнородных GPR и специальные регистры со специальными командами для обращения к ним.
И это различие — не догма, не божественное повеление, а условность, показавшаяся достаточно очевидной во время определения терминов.
У вас уже — God Object, в виде декодера. Хотите добавить еще парочку?
Потому что первое C в CISC — это Complex. Сложно. Понимаете?
Complete оно станет тогда и только тогда, когда его перестанут производить.
Потому что тогда его перестанут дополнять.
Потому что полное не дополняется.
Что проще: реализовать пару альтернативных простых таблиц трансляции, или несколько God Objects?
picul
Тут расчет на то, что от того, что God Object'ов несколько, они будут не такие уж и God.
В моем понимании терминологии RISC-процессор с CISC-дополнениями — это уже CISC. То есть был такой строгий и тривиальный RISC, добавили сложные команды, добавили поддержку укороченных команд — все, стал CISC. Но, возможно, это действительно неправильное понимание. Хотя подстраивать термины под хотелки ARM — тоже выглядит странно.
khajiit
Этот говорил об абстрактном RISC. RISCV тут подойдет ничуть не хуже, но у него история короче, и он не настолько известен.
А зачем вообще делать God Object?
Эмм… то есть, даже наивная реализация гарвардской архитектуры и банальная оптимизация r0 — уже делает CISC?
Ну и ну и ну.
Это ж тогда Power и VLIW тогда — тоже CISC. И введение не то что FPU/SIMD, а даже стека и инструкции call/ret тоже делает CISC %)
Поэтому надо подогнать все под x86.
Разве наши слоны уже летают?
picul
Э нет. FPU/SIMD/стек — имеют поддержку на уровне исполнительных блоков (ну или дополнительных кешей в случае со стеком). И команды эти нужны для того, что бы задействовать эти самые аппаратные возможности. А вот введение команд типа SSE-шных dpps и crc32, которые просто транслируются в набор элементарных математических инструкций — это уже CISC-элементы.
Почему подгонять под x86? Он-то очевидно CISC по самое не хочу.
khajiit
Что очень актуально, пока вы работаете с 8-бит внешней шиной, менее актуально с 16 и совершенно неактуально с 32+.
И заодно приводит к проблемам при появлении кэша.
И требует сложного декодера.
Но позволяет урвать немного производительности, пока вы на 8/16-битной внешней шине.
И делается гораздо эффективнее RISC с сохранением всех их преимуществ.
Нет, к кешам стэк не имеет никакого отношения.
А что именно делает объединение часто используемых вместе команд в одну — CISC?
То так, если что, все математические операции эмулируются сложением, инверсией и сдвигом. Запретить RISC'ам MUL и FPU? Они же просто объединение длинной последовательности простых команд — CISC-элемент!
Вы последовательно подгоняете идеологическую (не доказательную) базу под "если в RISC есть хоть какие-то оптимизации, то это CISC". x86 просто характерный успешный представитель, ну и от RISC/CISC уже в глазах рябит. Можете читать как CISC.
picul
Спутал с call/ret — в Intel'ах есть кеш точек возврата, который с ними взаимодействует.
Срочно запретить, если нет аппаратных умножителей чисел с плавающей точкой. Если есть — так же срочно разрешить.
Тут смотря какие оптимизации. Если что-то вроде «ой а тут надо сделать набор инструкций уменьшенного размера» или «ну нарушим разок load/store принцип, и что с того» — то да, подгоняю.
khajiit
Как насчет 15-байтных инструкций? Это почти 4 двойных слова, или почти 8 инструкций RV64C.
Про подгрузку данных в какой-нибудь AVX можно вообще не вспоминать, там объемы будут еще больше.
Это старая оптимизация гарвардских RISC — локальный буфер на несколько точек возврата. Подразумевается, что несколько возвратов подряд невозможны, поэтому небольшой буфер может хранить несколько последних точек, и отлаженно выпихивать их в стек/подтягивать обратно.
Ладно, а с перехватом не реализованных в данной версии инструкций и их эмуляцией что делать? А с микрокодом?
Осталось убедить полмиллиона квалифицированных инжеренеров, разрабатывающих процессорные архитектуры, компиляторы и прочее, что ваше мнение единственно верное, ага.
UPD:
Кстати, а чем альтернативный набор команд отличается от команд FPU/SIMD, которые вы так любезно разрешили? В железе он реализован.
khajiit
Англовики
Рувики
picul
Давайте по пунктам:
Ну то есть с момента появления Thumb ARM RISC'ом не является.В целом ARM соблюдает это правило, но он ведь еще и atomic операции поддерживает, так?
Тут да, хотя по этому правилу многие архитектуры подойдут.
По четвертому ничего сказать не могу, пятое не очень понял — оно предполагает, что, к примеру, TLB должна быть реализована полностью софтварно? Вот это правило уже кандидат на объявление устаревшим.
Вот так, в моем понимании, и получается, что ARM — не RISC. Что я упускаю?
khajiit
С момента появления RV32C и RV64C — RISCV перестал быть RISC?
Сокращенные наборы команд исполняются в отдельном режиме процессора, работающем с одной, отличной от дефолтной, таблицей трансляции команд. Команды из дефолтной таблицы вызывают UB.
В рамках текущего набора команд все струтура командного слова продолжает оставаться регулярной.
Разницы между поведением процессора даже меньше, чем между привилегированным и непривилегированным режимами. Просто другой Instruction Set.
Если про распихивание immed в случайные дырки, то это в Thumb артефакт, решающийся банальным ремультиплексированием, возможно хардварным.
Некоторые вещи обязаны быть atomic.
Скажем, рестартовать загрузку/выгрузку может быть непросто, если речь идет о прерывании, а не об исключении обработки виртуальной памяти.
Это пример для DEC Alpha.
Там еще везде используются "характерно", "типично", и т.д.
То есть, ни один из этих признаков не является обязательным.
Это ж аппаратный буфер. Вот обработчик исключений может быть реализован не закрытым микрокодом, а открытым кодом, использующим дефолтный набор команд.
Англовики немного более точна:
Регулярный формат машинного слова
Все GPR доступны любой команде.
Тут не совсем понятно, насколько простые режимы имеются ввиду. Возможно base + disp, без множителя и без двойной косвенной адресации.
В любом случае, это проблема компилятора, программист даже на C не будет видеть тонкостей адресации.
AAA, AAD, AAM, REPSB и прочий зверинец.
Как-то так.
cepera_ang
Блин, да чего вы спорите-то? Разделение RISC/CISC во многом политическое, оно придумано авторами RISC, чтобы позиционировать себя отдельно (и выше), дескать, вот у нас какая продуманная архитектура, идеализированная, из первых принципов и поэтому лучше вашей переусложнённой традиционной.
Но это разделение было актуально 35 лет назад и практически сразу же начало трещать по швам. С тех пор и от строго одинакового размера инструкций отказались (тот самый Thumb) и от "радикально" упрощённого набора инструкций (сколько там сотен мнемоник? Меньше 500 или больше? Как насчёт инструкций по выполнению раунда AES или SHA? So much reducing) и прямой доступ к памяти давно забыт, а команды внезапно транслируются в микрооперации, с другой стороны CISC обзавёлся упрощёнными ядрами под капотом, реализующими часть из принципов RISC.
В дополнение, сабжевый процессор Apple вообще оснащён и целым спектром собственных инструкций (для ускорения МЛ например) и GPU и DSP и нейросетевыми ускорителями и без них теряет значительную часть своей привлекательности. Так близко к дизайн-философии рисков :)
Короче, сводить невероятно обширное пространство параметров и решений современных процессоров к одной расплывчатой характеристике, актуальной давно и созданой чтобы создать отличие, там где его больше и нет — совершенно невозможно и не нужно.
khajiit
Ну так, об этом каджит сказал уже пару раз, только другими словами )
UPD:
Не совсем.
В спецификации Thumb — одинаковые регулярные инструкции. Ткните пальцем, где там по вашему что-то не так.
Это OISC, вырожденный случай.
А теперь читаем определение в вики. Ссылки были выше.
В остальном да, вы примерно правы.
RomanKerimov
Не до совершенно избыточных, а лишь незначительно, и не раздувает, а сокращает.
khajiit
Ну, там все сложно, но скорее да, чем нет.
cepera_ang
ARM ядра продаёт, но почему-то эти ядра не побеждают процессоры Интел направо и налево, а используются во всяких "энергоэффективных" (читай медленных) устройствах.
5нм АМД конечно купит в следующем году, но производить там будет совсем не арм-процессоры. Потому что в быстрых процессорах Apple от ARM'a только система команд (да и то с собственными расширениями), а всё остальное придумано на месте и повторить это — тоже самое, что самому процессор с нуля разработать, готовые ядра арма там не конкурируют или расскажите почему другие 5нм процессоры не такие быстрые :)
quwy
А зачем тогда ARM вообще?
Это какие?
cepera_ang
У арма можно купить:
Snapdragon 875, Exynos 1080
Eskimo
У Apple лицензия на ARM почти безграничная, они там все переделать могут. Не забывайте что это apple соучредила с acorn на двоих саму ARM
Coverbacker
Там показаны мобильные, в том числе очень близкие к десктопным, так ещё и XEON в случае iMac, которые уже в буквальном смысле десктопные. А на многих сайтах уже были сравнения, в том числе с Ryzen 5600X, который потребляет 65W, а мощности даёт в лучшем случае на 40% больше.
site6893
с каких єто пор XEON стал десктопным?
Coverbacker
Ну, это серверный X86, однако, их часто даже под игры собирают. В рамках контекста это именно десктопный чип.
sumanai
Разве что сильно Б/У, когда денег нет.
opxocc
Нет, я в своё время «с нуля» под игры собирал систему на новом e1230 v2 т.к. он был чуть ли не в 2 раза дешевле i7 3770 при аналогичных характеристиках
sumanai
И в каком году это было?
opxocc
В 2015м дело было.
Знаю что с тех пор intel «закрутили гайки» и запретили тем же E3-12** v5 работать на desktop чипсетах, однако выпускают и «игровые» материнки под эти процессоры, так что собирают и современные системы на новых Xeon.
sumanai
Тогда уже 3770 не был актуальным процессором.
Это не имеет особого смысла. В играх себя лучше показывают процы на 6 ядер, для игр NUMA это смертный приговор.
opxocc
Это я всё к тому, что собирают же, на новом железе, я в том числе, насколько это целесообразно — другой вопрос :)
А речь про «двуголовые» материнки и не идет, обычные, с одним сокетом, так что как минимум чисто экономически определенный смысл есть.
FeNUMe
e5-2620v3 — 6ядер/12 потоков, 3.2ггц стоит сейчас 15-20$, новая материнка к нему 65-80$. Единственный минус это что память ddr4 работает на 1866, зато можно брать любые самые дешевые плашки по 22-25$ за 8гб и ставить в 4х канал для компенсации низкой частоты. Производительности этой системы за глаза для 1080р гейминга на видюхах уровня 1070.
JerleShannara
Он ещё и мобильный есть.
Am0ralist
FeNUMe
С тех пор как китайцы наладили массовую продажу бу зеонов и производство дешевых материнок к ним. Сейчас в плане цена/производительность у платформы 2011v3 просто нет конкурентов.
Но речь естественно была о архитектуре.
czz
Как с качеством у этих материнок?
FeNUMe
У «топовых» хуананов на уровне основных брендовых среднего ценового диапазона, ну а модели попроще на уровне нижнего ценового. Во времена x79(lga2011) сначала было довольно много болячек, но их быстро правили и у текущих x99(lga2011-3) почти все хорошо. Из неприятных багов пожалуй остался только баг с датчиком температуры на некоторых платах. Но в любом случае эти комплекты того стоят, например 12ядерный/24поточный проц e5-2678v3 покупается за 80-90$, материнка тоже в районе 100. Может работать и с копеечной серверной ддр3 и с обычной ддр4 в четырехканале. Также есть двухпроцессорные мамки — в общем для рабочих задач можно собрать монстра за дешево.
Если тема интересует то могу посоветовать изучить тему на overclockers и пару ютуб каналов 1, 2
czz
Спасибо!
JerleShannara
Топовые камни только не ставьте. =)
bm13kk
почему?
JerleShannara
Подсистема питания там весьма паршивая и из паршивых (есть у меня весьма серьёзные подозрения, что даже поддельные там мосфеты стоят) комплектующих стоит. Может в 20 году что-то они и поменяли, но раньше там питание было на грани.
nidalee
В общем и целом эти материнские платы собираются из говна и палок, никакой реальной гарантии на них нет и быть не может, а значит сильно заморачиваться с надежностью китайцам не интересно. Там, как правило, нет никакого намеренного обмана, но и QA хромает на обе ноги.
С другой стороны, если уделить достаточно времени на исследование рынка этих материнских плат, то можно найти что-то подходящее и для топовых камней. Лично у меня 2680v2 на 10 ядер и 20 потоков уже два с половиной года работает на китайской материнской плате без каких-либо нареканий. Но это, конечно, не гарантирует, что у вас через год работы из области VRM не повалит дым. Впрочем, никто не застрахован, косяки вполне бывают и у классических десктопных производителей.
Нужно понимать, что любая затея с китайскими xeon-ами — это про соотношение цена\производительность, не цена\качество. Чем-то в итоге придется жертвовать.
Лично я планирую собирать переносную машинку для хранения и конвертации видео, и вполне буду снова рассматривать китайские железки для этих целей.
bm13kk
Я хочу собрать отцу рабочию станцию для фотошопа/нас/медиа сервак. Плюс удаленный докер сервер для себя. Никакого разгона, может даже наоборот понижения вольтажа. Сможет ли оно потянуть e5 2678 v3? Для меня 24 потока — главное достоинство в этой цене.
nidalee
От себя могу добавить, что фотошоп любит быстрые ядра, а не большое их количество, поэтому в зависимости от искушенности пользователя могут быть проблемы. И играться с вольтажом вроде как нельзя на китайских платах, ни в какую сторону.
FeNUMe
Можно, но только не напрямую из биоса, а через его модификацию(весьма простую). Я например юзаю андервольтинг на -70mV на 2620v3, причем вместе с анлоком турбобуста, что позволяет процу постоянно под нагрузкой держать 3.2ггц по всем ядрам.
DaemonGloom
Стоит ли оно того, если какой-нибудь ryzen 7 2700 при 16 потоках будет быстрее вашего процессора, при этом доступен локально и с гарантией? Да, оно слегка дороже будет — но при этом экономичнее и тише в повседневной жизни.
FeNUMe
Разница в цене минимум в 2 раза. Производительность на ядро у райзена выше, а в мультипотоке зависит от задач, tdp близкий и обоим процам с головой бесшумного и дешевого snowman mt6
FeNUMe
Для топовых камней просто нужно брать не самые дешевые материнки, иначе будет перегреваться зона VRM и придется либо колхозить доп. обдув, либо довольствоваться стоковой производительностью проца и повышенным шансом смерти материнки. Посмотрите ютуб каналы с моего коммента выше, там есть тесты практически всех комбинацый процов-мамок.
nixxa
del
CampoT1P
А вы относитесь к меньшинству, которое успешно утилизирует >90% ресурсов десктопного x86, или просто любите в душевой терафлопсами меряться?
psycha0s
Намекаете на то, что большинству пользователей десктоп не нужен? Тут я согласен, но речь вроде бы о том, насколько процессор от Apple подобрался близко к продукции Intel и AMD.
И да, для моих задач высокая производительность весьма желательна.
CampoT1P
Судя по текущим данным, в энергоэффективном сегменте m1 обошел и intel и amd, а в десктопном сегменте (imac, imac pro, mac pro) он еще не представлен.
По задачам, требующим высокой производительности — лично мне выгоднее переносить их в облака. Это снижает как саму стоимость вычислений так и временные затраты на администрирование.
Chamie
Mac Mini вы в из десктопов выписали?
Firz
Я бы сказал что их «слабенький» начальный процессор на 15W очень так не слабо подобрался к продукции двух гигантов. И это начальный процессор, а обещали еще полноценный процессор, для тех, кому не только видео в браузере смотреть с ультрабука. Если они запихнут туда 12-16 своих мощных ядер вместо 4 в текущем чипе, и сделают нормальное количество оперативки, вот это будет мощно.
Antervis
Am0ralist
Это хорошо, только транзисторный бюджет текущего 4бига+4смала уже сравним с 8/16 + крутой видик в комплекте. Это означает, что нарастить ядра то можно, но чип получится ещё крупнее и дороже, плюс проблемы оптимизации доступа к кешу и т.д., и т.п.
Вон, интелы уже тоже согласились, что чиплеты сейчас самое оптимальное и готовят свои серверные чиплеты.
Antervis
Текущий транзисторный бюджет тратится на: 4 big/4 little ядра, 8 GPU ядер, neural engine, и то, что раньше выносилось в T1 (secure enclave, encryption, вот это вот всё). Little ядра имеют смысл только в носимой электронике (кажется, их добавили в mac mini просто чтобы не делать два разных чипа), дублировать T1 смысла нет, хз насчет NE. С GPU не понятно — либо apple будут прикручивать AMD-шные дискретки (тогда транзисторный бюджет они не тратят; плюс бонусом eGPU), либо будут масштабировать свою видюху. Видюхи, кстати, тоже масштабируются линейно, пока не упираются в тот же TDP или шину/кеш. Думаю, что если apple выберут вариант масштабировать свою видюху, им рано или поздно придется выносить её в отдельную микросхему, даже если внутри того же SoC. Думаю, до чиплетов дойдет уже ближе к mac pro-ншым процам, которые вероятно будут представлены последними.
Am0ralist
или на 8 больших ядер с потоками, контроллер памяти и 45% на видик в коробке, из основных.
Ничего не замечаете? Да, энергопотребление скорей всего там выше, но и производительность видика — не сравнима.
И это уже в продаже и дешевле есть, жаль не в качестве ПК — я б взял.
Хотя сливы про «Windows Mode» для коробки ходили, это был бы сильный ответный ход от МС)
Так у амд основная проблема уже давно в оперативке для видика, в коробке они скоростную и рядом распаяли не просто так. Если б можно было легко продать производителям распайку дорогих чипов у проца с заметным удорожанием всех чипов — они б так и сделали. Но ведь не купят. Хотя может Эпл изменит тренд, ведь скорость до памяти сейчас одно из узких мест и за счёт этого считай прирост нехилый можно получить.
Antervis
еще раз — консоли продаются в минус и окупаются за счет подписок и наценок, суммарная стоимость для среднего пользователя получается порядка $1000, если не больше. По крайней мере сравнимый ПК вы даже за $1000 не соберете
в M1 графика 2.6 tflops с 8 ядрами, в коробке — 12 tflops на 52 ядрах.
Кстати вот здесь видно как они интересно спаковали чип. Кажется, проблем расширения памяти быть не должно.
Am0ralist
Увеличьте количество бигядер в 2 раза и нарастите видик до уровня амд.
выше 20 млрд только ради видика, выше 25 — если ещё 4 бигядра?
Почти в два раза кристалл больше размером, больше брака, больше цены.
процессор сравнительно легко наращивается вширь? Ну да, только вот у интелов не получается, у амд за несколько заходов получилось. Там же мелочь, всего лишь примитивная шина общения всего этого между собой...
То есть под все эпловские девайсы подписки будут стоить 0 и наценки в эплсторе будут 0%? )))
тут проблема не в расширении, а что производители типа асуса или hp могли не пойти на покупку таких вариантов. сейчас могут пойти повторяя эпл.
в этом плане эпл молодцы
Antervis
я же не утверждаю что им не придется перенимать чиплетный подход
кажется, intel сейчас уперся в TDP а не в число ядер.
ну да, в 2017, в сотрудничестве с той же foundry что и apple…
FeNUMe
Intel с вами не согласен, потому свои будущие десктопные процы пилит с little ядрами.
Am0ralist
да нет, именно что в ядра на своих 10нм процах. 4/8 могут, а выше — нет. Они могли бы как zen1 склеить декстопы и выкатить, нооооо
фандури печёт чипы. а вот разработку оных делают сами. теперь поглядите отличия чипов зен, зен+, зен2 и зен3.
PS. суммарная стоимость консоли Xbox series X — 1400 баксов с подпиской на 5 лет, как вы посчитали.
Макмини с 16 гигами и 1 тб без подписки с играми и мощного видика для игр — 1300$
У вас отлично получается наглядно показывать почему макмини это прорыв )))
Antervis
даже если они уперлись в ядра, TDP до 265 Вт для десктопного проца это тоже многовато, не находите?
а я и не говорил что mini — прорыв, лишь M1 как таковой, да и то больше в мобильном сегменте. Более того, это был бы скорее плохой продукт, если бы мобильный чип apple не оказался настолько хорошим (в некоторых типовых задачах), чтобы комплектовать им стационарник. А утверждаю я лишь то, что обладая технологией производства M1 apple вполне способны представить достойные решения и в других сегментах.
А дальше вы цепляетесь абсолютно за всё за что можете. И mini с консолью по цене сравнили, и air с игровым ноутом, и до числа транзисторов докопались, и до нейронки, и терафлопсов в GPU мало, и тип памяти не тот — абсолютно до всего. Только конечно же опустили пару совершенно незначительных нюансов — десятикратная разница в энергопотреблении, фиктивность цены, разный сегмент у продуктов… но это же не важно, верно? Как там быстро коробка видосы монтирует да код компилит?
Am0ralist
на 14+++.
А вам про 10 нм, которые у них мобильные. И i7 там — максимум 4/8, а не 8/16, как у конкурентов. Но тдп и скорость отличные.
О, вы ж сверху утверждали, что в декстопах это не важно?
Я уже вам отвечал, что если будет windows mode (да, даже если это будет через подписку на игры за 15$) — то коробка станет вообще отличным решением и заодно узнаем, как быстро она код компилит и видосы монтирует
Antervis
не такие уж и отличные, но это и не принципиально. Мы, кажется, по второму кругу идем. Если бы у intel не было проблем с yield'ом на 10nm, мы бы эти 10nm во всей линейке процов увидели еще несколько лет назад.
так вас это и применимо к ноутбуку не смутило. Там, правда, «всего» в 5 раз.
чтобы ввести windows mode майкам придется поменять модель распространения xbox.
Iv38
Что здесь удивительного? Производить несколько разных процессоров дорого.
Am0ralist
Эм, их 10 нм процы вполне себе на ядро уделывали же свои декстопные, о чем вы? с ноутным тдп.
правда не в пять, а в два когда коробка при этом свой видик на полную гоняет, а макмини не могёт в подобную видео производительность. Ну то есть 160-165 у xbox series x при игре в Dirt 5 в режиме 120 Гц при 4K. макмини в 33 уложится или у вас опять половина ядер в голове отвалилась?
Или вы про то, что в процессорах тдп проца в ноуте в 20 ватт в 5 раз ниже тдп 25 или даже 45 ватт?
Antervis
1185G7 разгоняется примерно до 50 Вт.
… а в 10, у M1 TDP 10-18W, а у коробки 200 Вт.
это маркетинговое название режима «нет ограничения в 60 FPS», на самом деле даже 60 не гарантируется. Спору нет, это всё еще круто, в сравнении с mini, я и не говорю и не говорил что mini так может. Я утверждал лишь что apple могли бы сделать сопоставимый продукт, а сравнивать коробку с air'ом, а потом с mini начали вы.
18 Вт против 45 в 4800H плюс 50 в 1650. Заметьте: я предлагал сравнивать с ноутами на мобильном 4800U, на 4800H с dgpu переключились вы.
Как вы там сказали? «Ворота едут»?
Am0ralist
Браво. это уже днище аргументов
Люди играли в игру и получили потребление. Тут вы начинаете рассказывать, что они играют не правильно и вообще не могли таких цифр получить?
Не могли. При цене в 3 коробки продать получится только вам. Правда за цену в 3 коробки будет всего 8 гигов и 256 ссд, но это же не важно!
и я вам даже ответил почему, только вы раз за разом отказываетесь читать что вам пишут, что ж с этим поделать.
у вас — постоянно. Вон, чип с всем девайсом сравниваете.
Или отсылаете на ТДП «Board Design».
Так «номинальная мощность» нового макмини 150 заявлена. Эпл врут?
Antervis
я лишь для вашей просвещенности привел факт, подтверждающий, что консоли в очередной раз делают ровно то же самое, что они делают уже десятилетиями — выдают примерно половину заявленной производительности.
это ваши личные спекуляции, основанные на едва релевантных данных. Которые вы пытаетесь выдать за факты, попутно подменяя все понятия, которые вам неудобны в рамках спора.
— давайте сравнивать устройства на мобильных чипах между собой
— я же написал что я буду сравнивать что хочу и с чем хочу, но вы же не читаете что вам пишут! А коробка дешевле air'а, ололо
Как с вами аргументированно спорить вообще?
потому что она у intel версии 150 Вт
Am0ralist
Это вы написали по анализу ТДП?
Это уже не лопата, вы на дно экскаватор доставили...
Хм, макмини с текущим чипом и дешевой оперативкой, а так же меньшим объемом этой самой оперативы и четвертью по объему ссдшником — в два раза дороже коробки. Макмини с куртым чипом, опупенным видиком, 16 гигами гддр6x и терабайтным ссд — дешевле коробки будет, по любому, я так и понял
Да-да, 90 тысяч дешевле 45. 8 гигов и 256 жесткий лучше 16 и терабайта, видик в 2,4 порвёт 12 терфоповый, и стоить это будет по любому дешевле аналогов-<которых>-нет
onlinehead
А какой смысл сравнивать стоимость с устройством, себестоимости стоимость которого даже не известна, но по косвенным данным (правда кое что есть только по соньке, которая +- на том же железе) она практически равна продажной стоимости, а по совокупным расходам консоли вообще в минус продаются (что подтверждает анализ отчетов от той же Sony для предыдущих консолей)?
Цель продажи консоли — заработать не на ней, а на комиссиях с подписок и продажи игр. Если бы у Apple была такая же структура дохода, то макбук бы стоил 299 долларов, но заставлял вас покупать приложения на каждый чих. И браузер был бы платным, да. И софт сторонний тоже запускать было бы нельзя вот прям совсем. В общем — экономика несколько по другому работает.
iproger
Это для кого они столько стоят?
Am0ralist
это он исходил из 15$ подписки на 5 лет)
RomanKerimov
Или, быть может, они пойдут по пути установки нескольких M1. По крайней мере с экономической точки зрения это выглядит весьма заманчиво.
Да доступ к памяти соседнего чипа будет медленнее, но вряд ли медленнее, чем доступ к отдельной оперативке v Intel-маках.
Am0ralist
Это ужасное решение. Либо надо как у амд — отдельный котроллер общения с оперативкой для двух чиплетов. Но это сожрёт процентов 10 производительности. В вашем варианте сожрутся все 30.
Посмотрите разницу 4800H, у которого чип монолитный, но он задушен по tdp и имеет меньший кэш, и 3700x у которого чип вынесенный при том, что архитектура самих ядер zen2 — десять процентов в пользу декстопного, и то не везде…
i_Max2
Как вариант в мощных маках ставить мощный проц «типа M2», где вся поверхность чипа это только процы и ставить «Mg», где только графическая подсистема, даже можно со своей RAM а не общей как в M1…
Но это просто мысли в слух
Am0ralist
Ну вариантов много, но в этом и косяк. Когда те же интел или амд выпускают по сути дела одно и тоже, сортируя по «браку» и «качеству» ядер, эпл себя поставила в ситуацию, когда их M2 должен быть совершенно другим продуктом, то есть им нужно всё переделать, чтоб выпустить что-то большее…
i_Max2
Ну вроде в Air за 999$ на одно графическое ядро меньше чем в Air pf 1249$.
То есть какое то разнооьразие все же присутствует. Правда в названии чипа у Apple это не как не отражается, может позже добавят типа M1.1 M1.2
RomanKerimov
30 % по сравнению с чем и почему?
Но даже если так, то это ж всё равно позволит наращивать производительность, при этом выпуская один и тот же чип, а не делая совершенно другой продукт.
Am0ralist
Почему — потому что вы просто делаете по сути двухсокетную мамку, просто распаянную и близко друг от друга. Данные между кэшами и оперативкой как будут бегать между двумя кристаллами? вот нужно процессу не 16, а 20 гигов и?
khajiit
Надо лицензировать IF?
Am0ralist
Так она ж между CCD и контроллером памяти находится. А тут её как без изменения чипов добавить?
А если переделывать чип, то тогда да, что-то подобное придумывать придётся для увеличения всего.
khajiit
Ну да, логично.
С другой стороны, для пробного комочка — результат вполне впечатляющий. А дальше, если пойдет, можно будет уже и сделать все как у взрослых, имея базу-то.
RomanKerimov
Ну концептуально я это представляю так, что один процессор может обращаться к памяти другого примерно так же, как если бы процессор обращался просто к чипу памяти. При этом чип сразу сможет и актуальные данные из кеша отправить.
Понятно, что здесь есть накладные издержки по сравнению с просто большим по площади аналогичным кристаллом. Но выпуск кристалла с большей площадью тоже связан с издержками и проблемами.
И тут же дело в том, что всё необходимое вполне может быть уже добавлено в чип.
sumanai
Это так не работает. Тут будет что-то типа NUMA, то есть обращение к соседней памяти через другой процессор. Там мноо подводных камней, как с задержками, так и с общей пропускной способностью связующей шины.
И я не думаю, что у M1 вообще есть шина для межпроцессорного взаимодействия.
RomanKerimov
Вот именно это я и имел в виду. Вот прям неизбежно будет медленнее, чем обращение просто к чипу памяти на таком же расстоянии? Или от реализации зависит?
Может нет, а может и есть. Документации к M1 у нас то нет.
sumanai
Конечно. Встаёт вопрос о синхронизации, так как у нас теперь есть два контроллера памяти.
Такая шина это куча неиспользуемых на текущих устройствах контактов, потраченный впустую транзисторный бюджет. Никто такое не делает «про запас».
RomanKerimov
А куча разных процессоров — это потраченный долларовый бюджет. Когда бракованное ядро отключается, то тоже вроде как впустую потраченный транзисторный бюджет выходит, но так дешевле получается.
sumanai
Отключение бракованных ядер как раз в плюс, иначе пришлось бы кристалл выкидывать вообще. А тут фигня, которая вообще не будет использоваться ближайшие пару лет.
RomanKerimov
Почему через пару лет? Следующие компьютеры или весной, или осенью покажут.
sumanai
Выкатят небось средний сегмент, топы и рабочие станции выйдут нескоро, там ещё софт адаптировать нужно.
RomanKerimov
Ну так и средний сегмент должен быть более производительный и с бо?льшим объёмом оперативной памяти, чтобы он мог конкурировать с младшим сегментом.
sumanai
Ну так там и будет M2 какой-нибудь, или M1+. Уверен на 100% в отсутствии интерфейса для межпроцессорного взаимодействия у M1.
RomanKerimov
Может быть. Не так долго осталось ждать, чтобы узнать как там у Apple задумано.
khajiit
А он и не нужен. M1 для того, чтобы объединить платформы и запустить процесс переползания на новую платформу пользователей буков и десктопов.
Как появится интерес менее массовых пользователей — так будет повод выкатить новое.
0xd34df00d
И автор процесса пишет NUMA-aware-код. Процессоры с разными латентностями доступа к памяти в зависимости от ядра доступны на рынке уже лет 10 для десктопа и лет 20 (если не больше — смотря как считать) для серверов.
goldrobot
Что-то я реальной задачи не увидел ни одной кроме времени компиляции, которая тестировалась непонятно как.
Где кодирование видео? Производительность на ватт в различных задачах? Тепловыделение реальное? Да хотя бы игры в конце концов?
Chamie
С кодированием видео слишком печально будет для десктопов. Оно же там у Apple аппаратное.
Am0ralist
Так и на декстопах в видках кодирование давно есть. Не устраивает качество, кодируют на процах.
Декодировать то на встроенных понятно, что лучше.
BlackSCORPION
не только у Apple, у меня не новый телефон на эксинос, пробовал монтировать видео 4k 60fps HDR10 на нем, и был впечатлен как он легко с этим справляется, в том числе с конвертацией в другое разрешение и формат, с эффектами.
Это и понятно, все смартфоны сейчас ориентированы на медиа контент, и процессоры у них соответствующие. В тех же мессенджерах когда видео передаешь оно на лету конвертируется, сжимается. Запись 4к 60FPS HDR тоже надо кодировать на лету чтобы место сэкономить
i_Max2
У ARM процов колличество регистров больше чем у x86.
По данным Wiki (Целочисленных регистров/FP регистров):
x86-64 — 16/16
ARM 64-bit — 31/32
Кстате именно по этому эмуляция x86 на ARM проходит более хорошо (быстро) нежели наоборот.
cepera_ang
А ещё все SSE/AVX регистры посчитайте, да ещё переименование регистров и тому подобное. Если бы было достаточно просто накидать регистров, чтобы увеличить производительность — что мешало бы так сделать интелу и амд? :)
khajiit
Переименование регистров не позволяет адресовать больше регистров.
FPU/MMX/SSE/AVX ? GPR
Все это есть и у ARM.
cepera_ang
Всё так, но и чего? У x86 меньше регистров и поэтому ARM работает быстрее? Это чрезвычайно упрощённый и потому неверный подход к микроархитектуре :)
Забавно, как все с умным видом бросились обсуждать (да и всегда это делают в таких разговорах) видимые и поэтому понятные простому программисту аспекты — сколько регистров лучше, какая система команд совершеннее. При этом совершенно игнорируя все важные детали реализации — ни одного упоминания бранч предикторов например (а для широкого ядра и медленной памяти даже 1% промахов может давать десяток процентов производительности разницы), ни префетчеров, ни того, что там там кеша L1 в четыре раза больше, чем у топового интела (а L2 — в 24!) и память быстрее в полтора раза. Но нет, всё дело в том, что в микроархитектуре регистров общего назначения вдвое больше.
khajiit
Это вы бросились считать регистры, смешав в кучу коней и людей.
nrndda
Тогда для чего же нужно переименование, если не для этого?) Оно как раз заменяет архитектурные регистры на микроархитектурные и позволяет адресовать больше, чем доступно архитектурных. На линейный участок это не повлияет, а вот на независимые вычисления — ещё как.
khajiit
Разница как между линейной ram и переключаемыми банками.
У вас на современной архитектуре всегда есть регистровый файл. Часть его доступна явно: это архитектурные регистры. Их количество влияет на возможности оптимизации использования памяти компилятором, некоторые вычисления при малом количестве доступных регистров или недостаточной их разрядности потребуют сохранения промежуточных результатов в память. И сохранить, в общем случае, GPR в SIMD вы не можете, потому что SIMD делает свои вычисления, возможно даже завязанные на другой поток — а это penalty.
Теневые регистры — остаток регистрового файла — менее быстры в обращении, потому как их использование предполагает смену маппинга и, фактически, работает через аппаратный хук.
То есть, при недостатке регистров в общем случае вы должны еще где-то найти регистр или два свободных, чтобы загрузить в них адрес ячейки памяти для сохранения временного значения, что лишает компилятор уже трех регистров в сумме.
И даже если запушить регистр в стек (лучше чтобы при этом был отдельный data-stack, но это еще минус один GPR), это обращение к медленной внешней памяти, которое, в общем случае, непредсказуемо по penalty.
С большим количеством адресуемых регистров эта проблема возникает существенно реже.
А теперь если еще вспомнить, что половина x86-GPR сохраняет специализацию (у ARM их, на самом деле, примерно столько же) то увеличение адресуемой части в два раза дает компилятору втрое больше регистров для маневра.
saege5b
Лишьбы маньячило не захотел >1 прохода, с перекрученными настройками.
или, спецверсию кодека, типа для аниме :)
cepera_ang
Да оно у всех уже аппаратное, в типичном десктопе так ещё и с запасом кодеров/декодеров: и в процессоре есть (всякое intel quick sync), и в видеокартах дополнительных (причём и отдельные чипы и на основных ядрах ускорять можно)
nidalee
Никто не мешает задействовать тот же NVENC, и оставить аппаратный кодировщик Apple далеко позади. Страдает качество, чего на телефонах, конечно, не видно, но для профессиональной работы аппаратные кодировщики не годятся.
FeNUMe
NVEnc заметно уступает в качестве кодирования обычным процам, было бы весьма интересно увидеть сравнение с яблочным решением.
nidalee
MaximRV
Справедливости ради, стоит сказать что одно ядро zen3 ест до 20 ватт при одиночной нагрузке, и ватт 6 в 16 ядернике при многопоточной нагрузке, ну т.е. не сильно большей ядра ARM процессоров.
Dioxin
Цифры уж слишком хороши, арм при эмуляции х86 не отстает, а местам и опережает оный.
Чудеса.
DoubleW
Да нет там никаких чудес, есть быстрая память 4666/5000 на чипе, против 2400/2666 у интела.
И есть кучка специализированных чипов через которые бенч гоняет свою логику типа брура картинки или детектирования лица, единственный реальный тест компиляция маленького проекта, как только перестанет влазить в быстрые 16гиг памяти на чипе то будет беда.
В общем то тупой маркетинг и показуха, ну и возможно струдничество с авторами бенчмарка, чтобы завернуть вызовы на спец модули ЦПУ вместо обычных молотилок влоб.
Интересно бы было увидеть результаты того же самого х265 кодирования софтом на кастомных настройках чтобы встроенный екнодер/декодер отпал, или компиляцию огромного проекта где надо 64гиг озу, вот это было бы релевантно.
euroUK
Так есть же цайнбенч же, и там в РАЗЫ хуже.
Viknet
Не знаю, где вы там нашли "в РАЗЫ хуже". Вполне на уровне и с Intel и AMD. (UPD: в том же классе устройств, конечно)
Комментарии о самом Cinebench написал ниже
sakamoto-san
этап первый: отрицание
Jogger
Пока под эти процессоры не будет windows — это нишевый продукт, Intel и AMD могут вообще не беспокоится. Вы может и не ярый фанат (хотя по-моему таки да), но ваши потребности явно весьма специфичны, и отличаются от потребностей среднестатистического пользователя ПК.
Покупатель в любом случае проиграет.
MUTbKA98
Беспокоиться лучше все же заранее, потому что потом будет просто поздно. Телефонный рынок в Интел упустили полностью, потому что не побеспокоились заранее.
И с системой команд x86 надо все же что-то делать, ведь даже Интель внутри уже давно не x86, а стоимость хардварной поддержки старины все выше и выше, и вот сейчас яблочные демонстрируют, насколько. Если очень надо запускать винду — уже имеет смысл делать это в виртуалке под софтварным транслятором. И очень скоро так будут делать вообще все.
Coverbacker
Они ещё годами сливали на него 20-30 миллионов и продавали в убыток, пока не утомились кота за уши тянуть. Там лет шесть подряд был убыток, но они каждый год писали, что вот сегодня эффективнее на 15% и быстрее аж на 5%. Так победим!
WoZ Автор
Кстати, Windows 10 уже заранили в Parallels под M1.
FreeNickname
Копьями что ли?
quwy
Я еще два года назад «заранил» Windows 10 на ARM в qemu ради интереса. И знаете, не очень как-то…
V1tol
На каком железе? Тут у нас M1 чуть ли не самый быстрый ARM процессор на сегодняшний день. Да и Rosetta тоже выглядит как не самый медленный транслятор.
RomanKerimov
Самый быстрый ARM-процессор, и чуть ли не самый быстрый процессор.
Скорость трасляции в общем-то не важна, а вот скорость эмуляции ещё как. Поэтому QEMU и не годится.
V1tol
Кстати в голову пришёл безумный тест — запустить Windows 10 в qemu для х86 (чтобы запустилась через Rosetta) и сравнить с Windows 10 при эмуляции х86 с помощью самого qemu. Конечно, если такой финт с Rosetta прокатит вообще )
WoZ Автор
Мои конкретно потребности: 2 внешних экрана (тут M1 сливает пока), возможность монтировать видео (мой MBP 13 2015 после цветокора выдает 2-3 fps, для примера, а 4К без цветокора в Premier Pro 7-9 fps), пару IDE от Jetbrains с тяжелыми проектами (5+ Гб), всякие Azure Studio, немного Atom, Chrome табов на 50, месенджеры, зум, скайп, excel, word, powerpoint. Docker иногда ранится локально. Потому под мои нужды M1 подошел бы, если бы поддержка нескольких мониторов…
mimohodom
Докеру ещё вроде много пилить под Apple Silicon…
anonymous
Быть может в будущем. М1 больше про экономию заряда сохраняя относительно нормальную производительность. 2 экрана, монт видео, пара IDE, хром и мессенджеры это скорее более проф направление и для него выкатят другой чип с большим количеством производительных ядер. Однако даже М1 очень крут для первого поколения и для тех кому нужна лайтовая машинка для повседневных задач.
Massacre
Более того, не только Windows, а ещё и весь сторонний софт портировать. Да, тот, что с закрытыми исходниками.
onlinehead
Учитывая запас по скорости и энергопотреблению, портировать то по сути не обязательно. Даже с потерями на трансляцию все работает достаточно быстро, что собственно показал M1.
Сам Windows давно портирован, собирается и выпускается под ARM.
Динамическая трансляция для x86 приложений в активной разработке и выкатывается уже в ноябре по Windows Insider:
zlo1
anonymous
тут кючевое слово emulation . Подход отлчается от эплского translation. Я не спец, но скорее всего разница в том что Майкрософт эмулируют х86 коммандами арм, а эпл транслируют код самого приложения из х86\х64 в арм и из за этого меньше потеря производительностиОшибся, вот тут говорят что они берут куски кода(скорее инструкций) и компилируют их в арм х64
docs.microsoft.com/en-us/windows/uwp/porting/apps-on-arm-x86-emulation
Скорее вы имели ввиду x64, ибо эмуляция х86 работает с первого Surface Pro X (Хотя пользователи жалуются на проблемы с производительностью того же фотошопа)
khajiit
Это проблемы закрытого софта. Открытый никуда не нужно портировать, он и так собирается под полдюжины архитектур.
sumanai
Деньги даёт закрытый софт.
khajiit
Так если у открытого софта есть деньги на компиляцию в несколько архитектур, то у закрытого, по идее, и подавно найдутся?
Вот знает ли такое слово конечный выгодоприобретатель — тот еще вопрос…
cepera_ang
А у покупателей найдутся покупать и оплачивать новые версии софта? Куча людей/компаний покупает нужный им софт один раз и пользуется потом годами.
khajiit
Ну на новый мак-то вместо б/у E495 с двумя батареями по втрое меньшей цене — нашлись же.
cepera_ang
Нашлись, но это не значит, что это одни и те же деньги/люди/рынки.
khajiit
Стоп-стоп-стоп.
Покупать бука на M1 и покупатель софта для него — разные люди? %)
Если да — то это уже чертов сюр.
Если нет — то коли купил себе трехтонную тачилу с V12 — изволь и сорок литров на сотню оплатить.
onlinehead
Довольно странный посыл. «Среднестатическому» пользователю ПК по сути ПК и не нужен, телефона\планшета (чаще всего iPad) хватит.
Все, что делает «среднестатистический» пользователь — браузер, социалочки, документики, игрушки казуальные — новый чип делает лучше, чем существующие. Лучше — это всмысле так же быстро или быстрее и при этом компьютер меньше просит розетку.
То есть сам по себе ПК — уже давно именно что нишевый продукт. Большинство людей пользуются другими устройствами.
Какими-то «специфичными» потребностями относительно общего рынка обладают не так много категорий пользователей — программисты, инженеры различные, ученые. Процент их от общего количества пользователей при этом ничтожен.
Просто для понимания — количество программистов в мире оценивается в менее чем в 28 миллионов на текущий момент с ростом до 30 миллионов к 25 году и до 45 миллионов к 30-му.
Количество же проданных только ноутбуков в 2019 году оценивается в 261.2 миллиона с тенденцией к падению.
Даже если представить, что ученых и инженеров, которые реально работают со специфичным софтом на ноутбуках (что совершенно нетипичный кейс, для этого есть рабочие станции), столько же, сколько и вообще всех в мире программистов (то есть 56 миллионов всего) и если представить что все эти «специфичные» люди покупают ноутбук каждый год (что конечно же не так), то все равно они будут составлять лишь 20% от ежегодных покупателей ноутбуков.
Вот только ученых (вообще всех) в мире меньше чем программистов, ученых в RnD по оценкам WorldBank вообще только полтора миллиона, так что с шансом процентик еще и поменьше будет. А если вспомнить, что ноутбук покупается обычно на 2-3 года, то процент покупателей с «особенными» запросами, которые теоретически не может реализовать маубук на arm — упадет менее чем до 7%.
Далеко не все инженеры в CADах сидят, а python и прочее популярное в научно-инженерной среде и на arm прекрасно работает.
В общем — думается вы ошибаетесь.
Потребности «среднестатического» пользователя закрываются машинками от Apple на ARM более чем, даже с избытком. По сути, именно проблемы там сейчас только с одной категорией софта — виртуализацией x86, которая нужна по сути ничтожному проценту пользователей.
Ага, бедный-несчастный, у него ноутбук начал уверенно жить под нагрузкой дольше рабочего дня, за него начали просить меньше, чем раньше, новый виток конкуренции начался, который приведет к «быстрее, выше, дешевле», а он все равно проиграет.
P.S. Кстати — Windows под Arm уже давно есть. Surface не первый год на рынке, процессоры там от Qualcomm. Главная его проблема в том, что там нет аналога Rosetta, а значит количество софта ограничено. Вот только ее аналог обещают выкатить вот вот, что очень сильно поменяет картину. Так что беспокоиться еще как стоит. Я не думаю что Qualcomm не сможет сделать процессор, по скорости равный M1, который в свою очередь даже в режиме трансляции в x86 и пенальти по производительности порядка 30% из-за этого все равно быстрее low/middle линеек мобильных процов от Intel и AMD.
CampoT1P
Этот если считать, что «особыми» потребностями обладают все пользователи из этих категорий. Большей части разработчиков для работы достаточно браузера, текстового редактора и ssh клиента.
Massacre
Подразумевается, что «большая часть» — веб?
burzooom
вспомнилось «физики затратные, вечно дорогое оборудование просят, математики вот зато какие молодцы, просят только бумагу, карандаши и ластики. А философы еще экономнее, им даже ластики не нужны»
0xd34df00d
Удаленная разработка очень болезненной получается лично в моей практике. Всякие IDE удобнее на локальной же машине держать.
remzalp
Под эти процессоры уже есть MacOS, если я правильно понимаю. Так что первый шаг уже сделан. Всё-таки экосистема не карликовая.
Paskin
Wndows для ARM давно уже есть
quwy
Вот только без доступа к winapi смысла в ней — ноль. Запускать электроноподобные поделки из маркета можно на чем угодно, ядро windows тут не является чем-то незаменимым.
Am0ralist
x86 под арм уже научились запускать. x64 пообещали, хотя я не понял, как они с интелом и его трясущими патентами юристами договорились…
quwy
Дело не в наборе команд CPU, а в том, что на Windows/ARM у пользователя нет возможности скомпилировать и запустить нормальный нейтивный EXE. Только убогие поделки, распространяемые через их маркет.
Am0ralist
18 год, начало…
quwy
Почитайте свою ссылку.
Am0ralist
quwy
Да, устарел
Am0ralist
Ну, мс с 10-кой и единой системой долго кота за хвост тянули, это да, про то, что они уже и 64 хотят эмулировать я тоже ещё месяц назад не знал, на хабре глаза открыли) я то думал, что интел этой инициативе кислород перекрыл…
Am0ralist
Знаете, я тут ещё узнал, что на форумах уже есть инструкции как вроде бы даже Windows RT 8.1 в сюрфейсах пользователи обновляют до Windows 10 ARM32 15035.
А я ещё тогда считал, что майковцы ошиблись, надо было в своё время сделать так, чтоб их винду можно было ставить на любые андроидные девайсы (не обязательно лицензионно, просто что бы пользователи могли), это могло бы им помочь с удержанием и захватом доли и сейчас бы они имели куда лучший прогресс на рынке…
Antervis
cepera_ang
Не забывайте, что речь идёт о компании с 1.6Трлн долларов капитализации и возможно они каждую "упущенную возможность" чем-то другим компенсировали. Или, если перефразировать, возможно, что займись они "упущенными возможностями" у них не хватало бы ресурсов на то, что сейчас является "схваченными" возможностями :)
Am0ralist
10-ка на миллиарде устройств. МС раз за разом всё ошибается и ошибается, а вендекопец,
о неизбежности которого так долго говорили большевикитак никак и не происходит…RomanKerimov
И сейчас у Microsoft почти всё готово, так что вендекапец опять отменяется. Ну разве что потеряют долю на пару десятков процентов, пока Qualcomm будет осиливать процессор, аналогичный M-линейке от Apple.
А вот интелокапец уже буквально перед глазами.
quwy
Э, как лихо! А драйвера где брать? Если бы все было так просто…
Am0ralist
Возможность поставить != возможность на ней работать полноценно.
На андроиды сообщество тоже ставило новые не всегда имея драйверы. Желающие то оставались. Сейчас вот на некоторые винфоны тоже вон 10-ку умудряются накатить…
quwy
Так неполноценно тоже не выйдет. Даже подсветку экрана (не говоря уже про само изображение) включить нечем будет.
Одно дело выковырять ko-файлы из родной прошивки и просто подбросить их в свою, и совсем другое — написать с нуля драйвер для windows, не имея ничего, кроме бинарного модуля ядра linux.
Это возможно именно потому, что уже есть драйвера для ядра windows, которые можно взять из стокового rom и просто подбросить новой системе.
Короче, сравнительно простой «фанатский» апгрейд возможен только в пределах одного семейства ОС.
Am0ralist
так делались же винфоны на тех же процах и с теми же чипами, что и андроидные.
quwy
Делались, конечно, но с другой стороны даже один и тот же андроидный девайс запросто мог идти в нескольких ревизиях с несовместимыми железками (сам сталкивался с неработающим экраном другого типа на казалось бы такой же модели).
Да и количество винфонов было слишком мало, даже если расколупать все существующие прошивки, то комплект драйверов будет очень уж неполным.
khajiit
Она же со всем совместимая и драйвера всегда подо все есть? ;)
Paskin
Вы не путаете WinAPI с чем-то другим? По ссылке первая же статья — «как скомпилировать ваше C++ Win32 приложение под ARM».
quwy
Ну, может быть…
Если так, то все нормально, вернули, наконец, то, что было еще Windows CE :)
И, кстати, интересно, а бинарники, собранные для WinCE/WinMo заработают?
lorc
Неа. Там и набор инструкций другой и системный API. И вообще все другое кроме PE заголовка, наверное.
quwy
Как же? Тот же ARM, тогда, правда, он был без hf, но его наличие в современных процессорах ничем не должно помешать.
То есть Win32API таки зарубили? Или как еще это понимать? Ведь WinCE работал с подмножеством обычного winapi.
lorc
Ну я не думаю что девайсы с winCE выпускались на armv8. Конечно, в режиме aarch32 оно должно заработать, если ядро его поддерживает и будут все нужные либы для aarch32.
Мне вот что-то кажется что winapi на winCE был не подмножеством, а скорее сделан по образу и подобию. Но могу ошибаться, конечно.
quwy
ИМХО это единственное, что может серьезно помешать. По командам совместимость должна быть полной.
Я написал пару программ под WinMo в свое время. Весь API не проверял, но писал ровно с теми же знаниями, что и под x86. Помню, не нашел функцию WaitMessage. Ну и полное отсутствие однобайтовых A-функций, само собой. В остальном код, полный api-вызовов, собрался и заработал без правок.
anonymous
Ну, думаю как раз среднестатистический пользователь ПК будет доволен. Большенство приложений работают и запускаются через розетту(тот же офис), браузер оптимизирован под проц и проблем быть не должно, батарейка держит долго. Для обычных пользователей (к примеру моим родителям, друзьям которые далеки от техники)этого более чем достаточно и метод «Plug & Play» для них как раз что нужно. Тут можно сказать что есть альтернативы дешевле на винде просто для доков и браузинга, но это спорно, ибо очень возможно что там будет компромис, типа корпус из пластика или просто тяжелее, будет греться больше, будет меньше заряд держать и т.д. А ведь для обычных пользователей важна компактность, долгий заряд и чтобы запускались базовые приложения
lasc
А surface X по вашему на чем работает?
Viknet
В Surface Pro X совсем другие чипы от Qualcomm. У них с M1 общая только базовая система команд.
lasc
И там есть видовс, уже на той же системе комманд что и эпл.
Viknet
А всё остальное — другое. Прям начиная с загрузчика, NVMe контроллера совмещённого с Secure Enclave и системы управления питанием, через свой собственный GPU к уникальным сопроцессорам для ML и Image processing.
Для всего этого кто-то должен сесть и написать драйвера, и я почему-то уверен, что эппл этим заниматься не будет.
capt_Rimmer
ИМХО, глобально мир точно не рухнет. Пока у Intel и AMD нет конкуренции на уровне обычной домохозяйки-школьника и на уровне серверных решений. У Intel забрали то, что до этого сами же и дали.
WoZ Автор
Я оцениваю долгосрочные риски. У Intel сегмент Client Computing превышает на 50% сегмент Datacenters. В сегменте Client и DC активно долю отжирал AMD, а теперь отжирать будет с ARM Apple, а когда остальные присоединяться для low-end segment, то станет совсем туго. При этом у Intel нет технологий на данный момент конкурентносопосбных.
Вот распределение доли Intel/AMD.
А вот наглядное сравнение как и в серверном железе они проигрывают сражение.
Между прочим, мы сами в закупках перешли на сервера на базе AMD, потому что они производительнее и дешевле. Отказываемся от Xeon.
onlinehead
Если за серверные решения я с вами согласен, то на счет школьников и домохозяек не особо.
Совсем дешевых устройств мало (пожалуй только хромбуки могут составить конкуренцию дешевым x86 ноутбукам), но вот в средней и высокой ценовой категории все сильно неоднозначно. Мало того, что весьма большая доля пользователей вообще пользуется телефоном\планшетом как основным устройством, так еще и их задачи прекрасно ложатся на ноутбук с очень долгим временем жизни, где браузер, офис и условный фотошоп прекрасно работают. И казуальные игрушки для домохозяек, и даже фортнайт для школьников.
При стоимости базового эира (которого с избытком хватит для их задач) на M1 для школьника в 900 долларов и для домохозяки в тысячу — это весьма неплохое предложение. Ноутов с таким времением жизни за эти деньги практически нет (что важно для школьника\студента), равно как и сама платформа Apple удобна для домохозяйки, если у нее уже есть iPhone (а он с большой вероятностью у нее есть). Тут еще и приложения универсальные подвезли, через полгодика на маках будет доступно все то, что доступно как минимум на iPad.
Ну то есть да, в дешевом нискомаржинальном сегменте властвует AMD/Intel, но вот в самый вкусный сегмент — middle/high зашла Apple со своим «за те же деньги, но лучше, 20 часов работы, единая подписка, привычные приложения, а еще можно в один клик фоточку перенести с айфона на комп».
Alex_ME
Ну это при условии, что школьнику (ну, почему сразу школьнику) не нужен комп (десктоп с достаточной производительностью GPU), чтобы играть в игрушки (не проводил статистических исследований, но, кажется, большинство хотят игровые компы и играть в игрушки).
onlinehead
Статистика продаж игр говорит, что главная игровая платформа сейчас — мобилки, а главная игровая ниша — разнообразные мобильные
дрочильнимногопользовательские игры вроде фортнайта и ему подобных.Я кстати без осуждения говорю, просто статистика.
Вот в целом данные по рынку игр:
Так что судя по всему не особо нужен, а если даже и нужен (представим, что доля у школьников между платформами такая же, как и общая, что не так, т.к. денег у них меньше, а значит покупать дорогие игровые компы, которые стоят как топовый iPhone + консолька последнего поколения на сдачу возможностей у них меньше), то только каждому четвертому.
Am0ralist
Ах да, текущий мак мини за 90к при этом в играх примерно получается сравним с коробкой серии S, которая стоит 27к и уж точно проиграет топовым приставкам…
onlinehead
Так никто же не говорил что макмини — игровая машинка. Речь шла вообще о PC-гейминге в любом его проявлении, ну то есть между выбором купить условный макбук и играть на других платформах и купить десктоп\игровой ноут с нормальной мощной карточкой и играть на нем в варианте школьника.
В целом, если ты взрослый дяденька\тетенька с деньгами, или школьник с состоятельными родителями, никто не мешает тебе одновременно иметь и мак для документов, и игровой комп с 3080, и пару приставок для эксклюзивов. Вопрос то именно в приоритетах.
Сугубо по моим ощущениям и наблюдением за нынешними школьниками, игровой комп им не особо и нужен. Хитовый мультиплеер на мобилках, остальное есть на консоли. Статистика вроде +- об этом и говорит.
Am0ralist
да нет, она про деньги обычно. Где зарабатывают больше. Ну в мобилках за счёт доения денег больше. А вот по количеству игроков речи нет
onlinehead
"- А зачем им два телевизора?"
Задачи у них разные. У меня вот два личных компа. Жирный десктоп с 64 гб памяти, парой ТБ SSDшек, стареньким, но вполне еще бодреньким зионом и 2070 для игрушек и тяжелой работы с Linux+Windows in KVM и старенький MacBook Pro 13" 15 года, который я беру тогда, когда мне нужен терминал с браузером и я не за рабочим столом или еду куда-то. Просто разные задачи и оптимальный под них инструмент.
Ну тут статистика весьма мутная, я в целом согласен. Вот инфа от PC Gamers по рынку США:
IGN пишет несколько иначе:
FreeNickname
Так вы уж определитесь,
дрочильниили Фортнайт. Потому что естьдрочильни, а есть фортнайт, и это как бы разные игровые ниши.JerleShannara
А в чём разница? Повсеместный pay2win кажись там везде почти.
DirectoriX
В ПК-нише p2w распространён разве что в корейских MMO, в большинстве же других игр (хотя могут быть и исключения) за деньги покупается лишь косметика всякая, да бустеры опыта, чтоб качаться быстрее (не «лучше/больше», а именно «быстрее»)…
JerleShannara
Так я про мобильные, там во всяких фри либо покупай кристалы/голду/выдохи пэжэ, либо задрачивайся по 12 часов в сутки, чтобы тебя выносили не все «донателлы», а только самые нищие.
FreeNickname
Так, ну давайте пример pay2win в Fortnite, раз разницы нет)
JerleShannara
Это всё косметика?
DirectoriX
Да
FreeNickname
А за что минус человеку? Да, это всё косметика. То, что JerleShannara об этом спрашивает, показывает только, что, как и ожидалось, в вопросе он не разбирается.
mig126
Ну минусы тут за что только не прилетают, но этот вероятно за отсутствие подробностей, конкретики, оснований, слишком краткий ответ.
FreeNickname
Я понимаю, что это действительно может быть мотивацией человека, поставившего минус, но тогда этот человек не очень умный. Каких подробностей? Каких оснований? Это был простой вопрос: всё ли в списке является косметикой. Ответ: да. Чтобы доказать всеобщность, нужно найти ссылки на описания всех перечисленных вещей и написать обоснование, почему каждая из них является косметикой. Чтобы доказать обратное – нужно найти всего лишь один элемент, который косметикой не является. Вы серьёзно думаете, что нужно делать первое, а не второе? Потому что я первым заниматься точно не буду, и никому не советую.
В общем, тут классическое «я Пастернака не читал, но осуждаю». Это как говорить, что Хабр – экстремистский ресурс. На вопрос, почему – привести список 100 статей с вопросом: «Они все неэкстремистские?». Вместо того, чтобы указать на конкретные признаки экстремизма в конкретной статье. И что, по абзацам их разбирать?
mig126
Тут есть даже категории «минусовщиков»: «не понимаю, потому минус» и «не знаю что ответить, потому вот тебе», «ты не именитый учёный, чтобы такое говорить, держи -».
Так что я ничему не удивляюсь, а лишь написал о самых вероятных причинах.
FreeNickname
Безусловно, не имел цели спорить лично с Вами («Вы серьёзно думаете...» – не самая удачная формулировка, извиняюсь) :) Скорее просто выказываю негодование. Такое, увы, действительно сплошь и рядом.
mig126
А обсуждение отрицательных оценок ведёт к их появлению у спорщиков. Это тоже сплошь и рядом. :-)
FreeNickname
Это да :) Но, во-первых, я не просто обсуждаю оценку. Я, собственно, гласно делаю то, что кто-то негласно пытался сделать минусом – вызываю на диалог противоположную сторону, указывая на некорректную мотивацию их действий. Человеку не просто поставили минус. Человеку поставили минус за правильный ответ. И кто-то (возможно, тот же человек) поставил плюс за некорректный вопрос.
Ну а во-вторых, не переживать же из-за виртуальных плюсиков :)
mig126
Вызов бесполезен и тоже ведёт к затыканию рта. Мне уже прилетело, теперь один коммент в 5 минут.
Если и напишут в ответ то с доп. аккаунта, чтобы не потерять возможность ставить другим оценки, сказав какую нибудь дикую глупость.
По карме и её кривости не проехался только ленивый.
iproger
Вы конечно сильно срезали углы беря в расчет американскую цену без налогов. С налогами и другими сборами (в РФ еще курс валюты) выходит что цена базового air ~1300. За такие деньги можно собрать хороший игровой пк или 2 неплохих ноута.
RomanKerimov
А за цену Tesla можно купить БелАЗ или два неплохих Камаза.
iproger
Или 2 хороших BMW, да.
RomanKerimov
Два хороших Мерседеса: auto.ru/artic/used/sale/mercedes/actros_t/16587318-aa1d2b83/?from=searchline
onlinehead
Ну, если говорить и том, что происходит в РФ, калькуляция выйдет еще веселее, но давайте.
Нет и нет. 1300 долларов — это 100.000 рублей. 2 неплохихи ноута даже близко не стоят по 50к каждый.
Более того, хоть как-то стравнимая по качеству материалов и эксплуатационным характеристикам машинка от Lenovo серии Thinkpad по стоимости легко перешагивает сотку. И еще и фиг достанешь, я не так давно пробовал, как раз в РФ. Есть исключение в виде L серии, которая дешевле, но лучше никогда не сравнивать ее и макбук 1к1 на столе. Они просто из разных миров по качеству «всего». За 50к сейчас в России можно купить или кучку пластика, которая будет работать без розетки часа два и греться как утюг, или где-то за 70 «игровой» ноут от Asus или того же Lenovo в средних комплектациях в варианте «замена стационарнику». При том, что там тоже проблемы со временем жизни от батарейки, общим качеством и т.д. Они кстати все тоже не про апгрейд, а для такой машинки это важно. Можно с уверенностью сказать, что эир будет делать все то же самое, что он делает сейчас, еще года 3-4 как минимум. А вот «игровые» ноутбуки обычно за пару лет превращаются в тыкву. Хотя кому как, если для киберспортивных игрушек, то и подольше проживет, там требования обычно ниже. Если система охлождения не деградирует и оно само по себе не развалится по какой-то причине, а то есть у меня нехороший опыт с дешевыми ноутами про чисто механический износ.
А на счет хорошего игрового компа за сотку… это будет сложно. Но давайте попробуем прикинуть сколько обойдется именно системник, который потащит QHD на high/ultra хотя бы сейчас и в ближайшие пару лет без переферии вроде монитора. Про 4к за сотку можно смело забыть. Ну то есть что-то будет работать, что-то нет, но в целом целевым разрешением это назвать нельзя.
25к за Ryzen 3700x (пятой серии в продаже в РФ еще нет, но не думаю что 5600 будет стоить дешевле);
54к за RTX 3070 (представим что его можно купить по этой цене);
11к за материнку на B550, по низу рынка фактически;
10к за две плашки хорошей памяти, если быстрой — то 2х8, если средненькой, то 2х16;
4к за обычный дешманский корпус, но черт с ним;
5к за блок питания, тоже не самый топовый, но от приличной фирмы;
10к за 1tb SSD, тоже почти по низу рынка, что маловато по объему, но минимально для игрового компа сойдет.
Итого — 119к. И ужиматься толком некуда. В сотку по сути поместится только апгрейд-комплект проц+память+видюшка+мать, и то при большом везении. Ну или это будет уже не «хороший игровой комп», а комп из рекламы эльдорадо, кажется, которые «два ядра, два гига», а на выходе пшик:)
euroUK
Так-то да, но вот в отличии от приставки или ноута, в комп можно добить еще 2 плашки памяти. Или поменять видеокарту. Грубо говоря, проц-мать-память легко переживает 2-3 поколения видеокарт.
Am0ralist
DoubleW
За 160 можно взять ноут с 3700x и 2070 (https://eurocom.com/ec/configure(2,463,0)NightskyARX15)
Наверняка игровой системник должен быть прилично дешевле
Б.у. ноут на вторичке тоже будет дешево — правда это лотерея, с везением насколько его ушатали.
onlinehead
Ну не все так просто. Там B450 чипсет, 2 тысячи долларов стоит комплектация с одноканальной 8Гб памятью и HDD, да и 2070 это все таки предыдущее поколение. Если с такими расчетами то да, будет дешевле. Хотя вот у меня 2070 и не сказать чтобы она прям уж быстрая, 4к вообще чаще всего не может на настройках выше среднего, 1080 на ультах всегда, да. 1440p да, скорее всего будет достаточно хорошо, но у меня 4к дисплей, так что или 4к, или 1080.
Am0ralist
4800h с 16гб/512гб, 1650ti/4 гб.
с 2060s/6гб пока чего-то в районе сотки, конечно. но их и недовезли считай пока.
парочку xiaomi c 4500U. 4600u недалеко ушли.
в начальном эире 16 или даже более того 32 гигов и 1 тб ссд?
а то срезаем мать до 520 или 450 чипсета и 512 ссд и ещё тысяч до 7 экономим. Берём за 4к не дешманский корпус, а нормальный.
Потом по какой-нибудь акции, которые периодически в сетевых проходят, берём со скидкой часть железа и экономим ещё процентов так 5 — при условии что бежать надо не прямо сейчас) В итоге получаем плюс-минус 100-110к с возможностью нарастить в любой момент…
onlinehead
Найдете хороший удобный корпус не из полумиллиметрового силюмина и мгновенно царапающейся плексовой крышкой за 40 баксов — дайте ссылочку пожалуйста, я такого не видел уже лет 10.
Нет. Так и не надо.
Я хочу заметить, что это вы же изначально начали сравнивать ультрапортатив (хороший, топовый ультропортатив) с «хорошим игровым компьютером» и «хорошим ноутбуком». В рамках класса эир очень хорош. Задачи, которые решает он, за эти деньги с тем же качеством не решает практически никто, есть только дороже.
Сравнивать имеет смысл только в рамках ниши, причем я изначально об этом говорил, но в итоге написал вам ответ с ценами, пойдя по вашему же пути сравнения.
Я в целом понимаю вашу позицию. Почти всегда можно вымутить варианты подешевле любого предложенного, пойдя на компромисы. Но если реально сужать рамки и конкретизирвать представление о «хорошем ноутбуке» или «игровом компьютере» то по сути результат сравнения будет напрямую зависить от интерпретации.
Лично я себе просто не возьму ноутбук, который работает меньше 6-7 часов без розетки, с дисплеем ощутимо хуже чем макбуковский, в пластиковом корпусе без гарантированно хорошей механической прочности, с гигантским блоком питания, плохим тачпадом и дюймовкой больше 15. При этом мне терафлопсы в вакууме нафиг не нужны, все реально тяжелое у меня CI собирает на облачных машинах, а всякая мелочевка дольше зависимости качает и распаковывет, чем реально компилирует. И в этом кстати опять мак выиграет, там обычно очень быстрые диски, и чем дальше — тем быстрее.
Это важно для меня, все эти вещи мне нужны на практике. В этих рамках что продукция Apple, что Lenovo, что Dell по стоимости особо не отличаются, а новые эиры вот еще и дешевле на круг. И это я не говорю о том, что просто надежность тоже важна. В маке я уверен, так же как в XPS, и в Thinkpad. Я знаю что для них есть куча сервисов в любой точке мира где мне их починят, я знаю что я двумя кнопками смогу в случае любых проблем откатить софт на машине, а если с ноутом что-то фатальное случиться, то мне нужен новый любой макбук и часок времени, чтобы развернуть бэкап из time machine и получить машину 1в1 с утраченой. И я знаю, что если я его потеряю или у меня его украдут, то данные из него не вытащат (хотя тут bitlocker тоже поможет). В общем много у этого плюсов. Равно как и у альтернативных решений.
В категории терафлопс на доллар вообще скорее всего победят китайские зионы с алика вкупе с китайской материнкой и БУшной памятью. Но для меня такое решение просто не приемлимо, наковырялся. Я хочу предсказумости, удобства и ощущаемого качества. И ноут одной рукой открывать, да:)
khajiit
Define 7. Выглядит классно, но многое можно было бы сделать лучше, в том числе крепления дисков (как в 5), например.
И шлейф не доложили.
Нихарашо, ниудобна!
А так, до 4500 вместе с более приличным, чем low-levew, БП вписывается, например, InWin, который давно стандарт де-факто для "дешево и сердито".
onlinehead
Мне кажется вы давно цены не смотрели, ну или в России очень осбенные цены.
Я в Польше, так что приведу местные цены, но в рубли перевести легко (20 рублей 1 злотый) — Define 7 обойдется в 739 злотых, или почти в 15 тысяч рублей.
Единственная доступная (из 3) модель этой ценовой категории от InWin mATX вот эта. Без БП. Она да, где-то около 3500. Но там ни удобства, ни качества.
Где вы в 2020 году нашли за 4500 корпус с «более приличным чем low level БП» — ума не приложу. Даже беглый поиск по рунету дал младшенькую модель InWin EFS052 без БП за 3940р по скидке при стандартной цене почти в пять тысяч. Вариант с совершенно убогим блоком питания на 400 заявленных ватт (и хз сколько фактических), стоит уже как раз 5 тысяч. Вот только ничего более-менее мощного и современного в такой корпус просто не упаковать. Да и он тоже ну никак не тянет на «качественный и удобный».
khajiit
Нет, про цены второй абзац. Первый — это пример того, что неформализуемые критерии удовлетворить невозможно по определению.
У инвинов — поверманы, примерно уровня FSP БП'шки. Не Q'Dion, старого FSP.
0xd34df00d
О, кстати, для не собиравших машины лет семь. Чего там по БП сейчас адекватного? Я готов переплатить, чтобы оно мне следующие 5-7 лет проработало 24/7.
cepera_ang
Corsair, EVGA — из того, что сам использовал. Бери всякий титан/платинум, с запасом по мощности, тогда он будет подавляющее большинство времени работать с пассивном режиме, без лишнего шума.
0xd34df00d
О, спасибо, про EVGA я слышал очень много позитива. Значит, не зря!
cepera_ang
750w GQ например, очень приятный БП. 1000w G3 внезапно оказались сильно шумнее на той же нагрузке.
Но это я три года назад покупал и тогда был пик криптолихорадки (ничего толком не было мощного доступно и всё дорого), может с тех пор всё поменялось и какие новые модели вышли.
sumanai
Сисоники норм, KCAS стоит брать, если хочется дискотеки с косплеем пожарных ))
khajiit
Каджит собирает от случая к случаю, но пока осечек не было )
SuperFlower/Chieftec хорошо себя показывают, можно смело брать с загрузкой под 75-80% от номинала. Конструктивно они идентичны.
Seasonic тоже неплохи.
Из коплектных к корпусам — «beQuiet!», Inwin-Powerman и, на удивление, Exegate.
Новые дешовые чифтеки — 2 года в эксплуатации, пока без жалоб.
Вообще, если электричество не прыгает, то лет 5-7 протянет даже какой-нибудь китаец — но их надо брать с запасом по мощности раза 2?3 — что-то вроде 600?700W на шестиядерник + 2060 + диск.
Chamie
Kobalt_x
btw, qdion уже не fsp.
А powerman — все тот же перекрашенный cwt только в профиль.
khajiit
Раньше как-то легко нагугливались форумы ремонтников, Можно было практически вживую узнать, кто кого перекупил, и кому это пошло на пользу, а кому поплохело.
С новыми вещами еще какая засада: они слишком новые, чтобы по ним была заслуживающая статистика.
Am0ralist
в данном случае — не я
Xiaomi RedmiBook 14" II Ryzen Edition, 16гб/512гб. 52к в яндексмаркете.
Бгг, берите ноут выше, по отзывам там хуже не то, что вы указали (кроме экрана и тачпада)
onlinehead
Это пожалуй две самых важных вещи из того, что я перечислил, потому что я в ноутбук обычно смотрю и работаю на нем без мышки.
Кроме того, судя по реддиту и характеристикам:
1. Нет вебки. Она нужна обязательно, 2020 год, удаленка, куча митингов. Да и до этого весьма активно ей пользовался. Вообще не представляю как можно сейчас ноут без вебки выпускать.
2. Действительно так себе экран (говорят в старшей модели лучше, но она уже перешагивает за тысячу долларов, что как по мне дороговато за сяомишный ноут, тем более остальные замечания остаются).
3. Проблемы с охлаждением. Пропилы снизу — беда. Еще и большие. Мусора там будет ой-ей. И надо обязательно на твердую поверхность ставить. У макбуков кстати такого нет, там конструкция такая, что если охлаждение активное, то он дует и забирает воздух сзади.
4. Медленный SSD.
5. Не поставляется официально за пределы Индии и Китая. Гарантия прощай.
Вообще вот тут есть обзорчик полный, правда на 16 дюймовую версию — www.notebookcheck.net/Xiaomi-RedmiBook-16-Ryzen-5-4500U-laptop-review-attractive-price-warrior-from-the-Far-East.482604.0.html
Если предположить что 14 дюймовая +- такая же, то как-то не однозначно. С одной стороны — в 2 раза дешевле. С другой стороны — SATA SSD в 2020 году. Ну то есть за свои деньги он топ (внезапно, как обычно сяоми), но с большими оговорками и все-таки не конкурент эиру, слишком уж много всего набирается, даже если не считать качество материалов и гарантии.
Все бы ничего, но тут (в Польше) он стоит где-то 4300 на рубли и он microATX. Это эм… весьма специфичный формат. Хотя в целом, если надо именно мелкий-мелкий корпус, то наверно пойдет, спасибо за инфу.
Am0ralist
И да, в рф сейчас предлагают покупать на сайте эпла только 8 гб версии что эира, что макмини. к вопросу про официальные продажи...
PS
Не знаю, я его вообще за 2300 брал год назад в рублях если. Отличный корпус, и видик даже большой влез.
С учетом, что преимуществ от полного атх для меня мало, зато положение лежачее выгоднее для охлаждения — по мне так отличный корпус. Да и мамка вышла на тысячи полторы-две тогда дешевле к моему 3600
khajiit
Кому-то нужна причина, а кому-то — повод… )
onlinehead
Нет, объем накопителя и оперативки выбирается на втором шаге, когда вы выбрали первичную конфигурацию. Все конфигурации официально продаются везде.
Это кстати весьма себе неправда. Разница чувствуется, в первую очередь по IOPS. Вот прям физически чувствуется. Поиск к примеру быстрее работает, всякие копирования документиков пачками и т.д.
Ну и проблема то не только в SSD. Остальное пожалуй даже более важно, чем собственно тип SSD. Считайте мое высказывание про диск просто фигурой речи:)
Вот кстати удивительно, но у меня есть прошка 15 года ровно в такой конфигурации. Она все еще достаточно бодро шевелится, причем именно потому, что там из коробки распаян весьма быстрый SSD (ну, по тем временам), который ощутимо быстрее SATAвского, что прилично ускоряет своп, а значит — не так страшно если память кончится.
Ну то есть да, лично мне уже некомфортно на нем работать, но жена к примеру меня не понимает, говорит что «все быстро же, что ты придумываешь». А я вижу эти полусекундные задержки, когда он в своп уходит и они мне кажутся вечностью. С другой стороны, если чисто серфить и документики править, то все еще вполне теплится, не смотря на весьма дохлый i5 и большинство затупов все таки связано с тем, что процессор в полку уходит, а не с тем, что памяти не хватает.
DoubleW
Приорал аж, спасибо)
А еще Эпл очень жадные ребятки и норовят дешевую оперативку(2400/2666) продать раз в 5-8 дороже чем она стоит на рынке. Да и ссд тоже больше чем в три-дорога толкают.
onlinehead
О, это вы еще не смотрели цены на оперативку для серверов HP и Cisco :)
Да и «стоимость на рынке» — это же условно, она все равно распаяна, так что разделение скорее маркетинговое.
0xd34df00d
А как вы локальную разработку этого реально тяжёлого ведёте?
У моих знакомых с time machine поверх synology NAS очень негативный опыт (уровня «оно ломается, не бекапится и непонятно, как починить»).
Лично меня больше устраивает маленький шелл-скрипт, делающий rsync'ом бекап моих данных (музыки, книг, всякого такого) на три разных географически разнесённых системы, плюс конфиг машины и окружения в гите.
anonymous
Time Machine на сетевой NAS (FreeNAS/TrueNAS), по Sambe, с двух Mac-ноутбуков делаю постоянно.
Бекап спасал уже несколько раз, в том числе и от внезапного выхода из строя встроенного SSD (который поменяли по гарантии).
У Synology DSM, которым пользовался некоторое время ранее, иногда бывали проблемы с TM. В самых тяжелых случаях лечились созданием новой копии Time Machine «с нуля». Предыдущая копия при этом или переименовывается или удаляется (через web или через командную строку).
С самой Time Machine тоже бывают «приколы», но со стороны операционной системы. Один раз по логам долго искал из за чего внезапно перестал работать бекап. Оказалось — из за файла с очень «кривым» названием. На файловой системы файл существовал и открывался, а вот TimeMachine не могла его скопировать и аварийно прерывала бекап.
Иногда TimeMachine прекращает работать, если на файловой системе остается мало места для создания локального Snapshot.
Обычно по логам можно найти причины проблем. Команда для вывода в консоль логов, параллельно работе TM:
log stream --style syslog --predicate 'senderImagePath contains[cd] "TimeMachine"' --info
iproger
Вы забываете что все сравнения производите с полным стоком макбука. Это никакая не прошка, а ноут с 8гб памяти и тротлящим процессором. Новые с м1 примерно то же самое. В противовес вы ставите какую-то дорогущую игровую машину. Как-то не правильно. Не хочу считать, да и не знаю рублевых цен, но думаю что за цену не базы, а нормальной комплектации air можно собрать 3070 + 8 ядер + все остальное на хорошем уровне.
На счет ноута, это не по ценам РФ, конечно, взял пол года назад LG gram 17, 16/256 по цене базового air мака. Это более чем альтернатива. Где он и где 17-дюймовый ноут еще и меньший по весу, лол.
Viknet
Он весит всё-таки больше Air (совсем немного 2.98lbs/1.35kg vs. 2.8lbs/1.3kg), меньше работает от батареи и очень проигрывает в производительности как CPU, так и GPU. Плюс хуже корпус, тачпад, спикеры.
Компенсируется ли это большим по размеру экраном, портами и наличием Windows? Кажется, это больше о личных предпочтениях, чем об объективном сравнении.
Про цены мне сложно судить из-за границы, но я вижу $1500+ по скидкам в крупных магазинах (за 16Гб/1Тб).
iproger
Ладно, можем тогда взять за сравнение модель на 15 дюймов, а там есть еще меньше и с меньшим весом.
По начинке не уверен, мне кажется примерный паритет по cpu (с i7 8565u) и отставание графики, ок. Держат ноуты lg 8-10 часов или больше.
Корпус сделали специально такой, чтобы максимально снизить массу. Чувствуется не как пластик, а что-то напоминающее металл.
Сейчас все непонятно с ценами, но можно было взять хороший вариант за недорого.
Если сравнивать с предыдущим поколением air то там проигрыш был бы по всем фронтам, кроме может алюминиевого корпуса (кому надо) и звука. У граммов конечно все печально со звуком.
Viknet
Если сравнивать с предыдущим поколением, то как раз примерный паритет производительности и автономной работы. С новым же выглядит как избиение лежачего.
Я смотрел вот эти обзоры, там выдерживают примерно один набор тестов и бенчмарков, так что можно хоть какие-то цифры напрямую сравнить:
LG Gram 17 (2020)
Macbook Air (Early 2020) — Intel
Macbook Air (Late 2020) — M1
iproger
В кучу смешались кони, люди.
Я открыл сайт Эпл и взял из сравнения параметры cpu макбука air 2020 retina (не m1):
Вы точно уверены что базовый air early 2020 с 2 ядрами и 4 потоками может составить конкуренцию граммам даже с i5?
И старший air не быстрее, а на том же уровне: www.cpu-monkey.com/en/compare_cpu-intel_core_i7_1060ng7-1327-vs-intel_core_i7_8565u-893
Что до M1. В графике 100% быстрее, как и лучше в энергопотреблении.
Тесты в ваших статьях (особенно гикбенч) — это тесты чего угодно, но не точной производительности.
Нормальный бенчмарк — это, например, cinebench. Пока что оба процессора не протестированы в одной версии, но давайте все равно посмотрим в разных версиях через косвенное сравнение с райзеном:
Viknet
И после этого вы набросали каких-то рандомных фактов, сравнивая произвольные версии процессоров в неизвестно каких устройствах по непонятно каким критериям.
Мы начали со сравнения конкретных ноутбуков, кажется.
Я и привёл обзоры последней модели LG Gram, Intel-версии и M1-версии макбуков, в которых даны результаты запуска Cinebench (который вы почему-то считаете единственным нормальным бенчмарком CPU) и нескольких других тестов, включая время проигрывания видео.
По результатам, Intel-версия макбука и LG Gram близки как по производительности, так и по автономной работе.
Macbook Air M1 при этом выдаёт намного большую производительность (даже через Rosetta), и работает в 2 раза дольше от батареи.
По поводу сравнения с Ryzen — это даже не смешно. 12 Вт против 4 Вт, и всё равно проигрыш в производительности. Intel, если что, в однопотоке с турбо-бустом ещё больше потребляет.
И да, M1 в Air с пассивным охлаждением действительно троттлится при полной многопоточной загрузке (15 Вт) дольше 7-8 минут. При этом энергопотребление падает до 8 Вт, а производительность просаживается до 85% от максимума и остаётся такой неограниченно долго.
Если бы Intel или AMD завтра представили такой процессор, весь мир бы сходил с ума, а конкуренты вешались. Ноутбуки на других процессорах было бы просто бессмысленно делать.
iproger
Да, я тоже немного намешал, привычка сравнения с ноутом 2019 года.
Вы привели 3 ноутбука с разными ценами.Раз изначально шла речь о цене, предлагаю ее и взять и посмотреть на выбор моделей в начале 2020. Что можно было купить за:
$1000
macbook air 13.3" с i3
lg gram 15.6" с i5
$1300
macbook air 13.3" с i5
lg gram 15.6" с i7
Не буду дальше продолжать т.к. сложно искать цены старых маков. И на счет msrp на грамм, смысла смотреть на нее особо нет, т.к. в отличии от ноутбуков Эпл другие производители почти всегда ставят скидки на постоянной основе.
Получается вот что, на любую модель air (кроме самой топовой) всегда будет ответ с более старшей моделью cpu и опционально большим количеством оперативной памяти и диска. И младенцем здесь оказывается не грамм. Смысла, кроме академического, в сравнении моделей за условные $1000 и $2000 нет, разные сегменты.
Я надеюсь мой посыл понятен.
Вы так напираете на энергоэффективность потому что оцениваете ультрабуки по трехчасовому рендеру?
M1 безусловно эффективнее по потреблению, только в обычной работе оба едва будут тротлить и оба покажут результат близкий к своему максимальному.
Viknet
Так в обзорах как раз и сравниваются модели LG Gram с i7 и macbook air с i5.
И более медленным SSD, хуже тачпадом, корпусом, динамиками… Это один и тот же сегмент. Был до недавнего времени.
Но эти модели Air уже и не производятся, а с M1 сравнивать цены вообще сложно, потому что конкурентов с такими характеристиками нет.
Потому что без энергоэффективности ноутбук греется, шумит, тормозит и часто требует розетки. Меня вот очень печалит, что запуск IDEA сокращает время работы ноутбука с 12 часов до 4, при том что процессор едва загружен.
Пиковая производительность у i7-1065G7 и M1 отличается в 2 раза в многопотоке и в полтора раза в однопотоке.
iproger
Вы кстати не забыли что изначально в топике обсуждался именно базовый air? Я понимаю удобно брать модель с i5 зная что та что шла с i3 сливала в ноль со своими 2 ядрами.
Медленее ssd ок, тачпад не думаю, динамики хуже, да. Про корпус я же писал выше:Да, с i5 vs i7 разница не сильно большая, но она была. Сюда же троттлинг от отсутствия плстины на кулер в air.
Раз опять зашла речь за корпус, у макбуков до сих пор уродские рамки из 2016. Для вас это скорее всего достоинство, ведь конструкция жестче. Но это пока, когда Эпл сделает их тонкими в следующим году или позже, тогда уже тонкие рамки станут достоинством.
Это не на долго, ждем ответа Интела и Амд. Пока Rosetta 2 актуальна у них есть время.
Viknet
Ну да, поэтому модель с i3 — невыгодная покупка, и её никому бы не посоветовал.
Там разница на уровне погрешности, а троттлинг в тестах уже учтён. LG Gram не сильно лучше охлаждается.
Лично меня они не волнуют вообще, но можете записать в недостатки.
Боюсь, ждать долго придётся, судя по планам компаний на 1-2 года, а макбуком уже сейчас можно пользоваться.
Я не очень понимаю, как "актуальность Rosetta" что-то решает для Intel и AMD. Во-первых, приложения под ней в большинстве работают лучше, чем на предыдущих Intel моделях. Во-вторых, этих моделей маков на x86 мы больше не увидим, вне зависимости от "ответов".
Наверное, в первом моём посте в этой ветке я неправильно расставил акценты. Мой ответ был связан конкретно с фразой "Новые с м1 примерно то же самое", и сравнение там, конечно с новым Macbook Air.
Если сравнивать предыдущие модели ровно в тех ценах, которые вы приводите, я склонен с вашими доводами согласиться, если отбросить предпочтения по корпусу и ОС.
iproger
M1 все равно останется самым энергоэффективным, хотя бы потому что он сделан по технологии 5нм.
У интела уже готовы новые процессоры на 10нм, если бы их сейчас ставили в маки, результаты были бы намного лучше (Intel Core i5-1030NG7 vs Intel Core i5-1130G7), хоть и проигрывая m1.
Амд выпустит мобильные процессоры с zen3, возможно, на 7нм. Это не даст буста производительности на ватт, но +15-20% производительности ядер будет.
Пока есть Rosetta 2 есть неоптимизированное ПО которое в любом случае будет работать со штрафом к производительности, насколько помню, ~30%. И еще на новых маках винду не запустить (пока) что тоже не плюс к арм.
Am0ralist
iproger
Неправильно выразился, дают, конечно.
Имел ввиду что потреблять меньше не станут, а просто станут производительнее.
Viknet
Тех.процесс 5FF у TSMC в сравнении с 7FF (который используется сейчас в мобильных AMD) даёт выигрыш по потреблению не больше 20%.
https://www.anandtech.com/show/12727/tsmc-details-5-nm-process-tech-aggressive-scaling-but-thin-power-and-performance-gains
Этого явно недостаточно, чтобы сократить текущую разницу между потреблением ядер M1 и Zen2.
Tiger Lake тоже не показывает выдающихся результатов. При нагрузке на одно ядро ограничение по потреблению до 15 Вт приводит к падению производительности: https://www.anandtech.com/show/16084/intel-tiger-lake-review-deep-dive-core-11th-gen/8
Для большинства популярных задач Rosetta или уже неактуальна, или станет в ближайшие месяцы.
И всё-таки, как это относится к Intel и AMD?
Может и к счастью :)
iproger
Ну вот, 20% энергоэффективности здесь, 10% производительности там и вот уже достойный конкурент. А то что х86 не сможет победить по потреблению арм это вроде очевидно.
Это вы загнули. Пока что даже докер не работает. Вряд ли месяцев хватит чтобы адаптировать весь софт, разве что самое популярное ПО.Люди не побегут покупать арм пока есть проблемы совместимости, это не упрек, а просто факт. Много читал комментов типа будем ждать вторую версию что в принципе логично. И пока она не вышла, Амд и Интел могут готовить свой ответ. Так я это вижу.
Кстати, у меня вот лежит айпад про 2020 с a12z, а до этого был еще с a12x. Так вот, несмотря на то что по однопотоку эти чипы рядом с i9 я все таки предпочитаю писать комментарии в этой статье именно с i9 потому что на айпаде каждая буква вставляется с задержкой в пол секунды, тогда как на компе даже не замечаю что пишу текст на странице с сотнями комментариев.
cepera_ang
Это какой-то баг в сафари поди, потому что там реально тормозит, а на компе вообще не видно, чтобы значительно использовался процессор.
Chamie
Может, у вас браузеры разные? Была же проблема с Хромом (Вебкитом?) в комментариях Хабра, которой не было в ФФ.
iproger
Ниже ответил, пользуюсь Хромом на компе. На ios так-то один браузер и это Safari, остальные только используют его.
Viknet
Сейчас разница perf/W в 3-4 раза, что эти проценты дадут?
Запуск докера — это не популярная задача для среднего владельца MBa. Напомню, в мире много профессий, кроме программистов.
Вы читаете комментарии гиков, делайте поправку.
Этот ответ никак не повлияет на тех, кому нужна/хочется macOS, а на новых пользователей не повлияет несовместимость с редким софтом.
Вангую, у вас firefox на компе.
Хабровские скрипты как-то отвратительно работают в webkit/blink браузерах.
У меня на этой статье терпимо ещё всё, как раз с айпада печатаю.
cepera_ang
А если замедлить топовые процессоры до частоты M1 — они станут в полтора раза медленнее, а потреблять будут те же самые 5-7 ватт на ядро, нет? И вот уже каждые десятки процентов начинают выглядеть значимыми.
Кривые потребления выглядят как-то так и Apple отлично побеждает на плоском участке и просто не лезет на область клюшки. Вот когда будут такие кривые для их процессоров доступны, чтобы сравнить с другими, тогда и можно будет делать выводы, насколько разница в производительности по всему диапазону (и насколько она сожрётся новым техпроцессом. Кстати, вы в курсе, что техпроцессы тоже бывают с упором на потребление и производительность? Не удивлюсь, если мобильные процессоры той же АМД выйдут на low power техпроцессе и окажутся существенно холоднее)
Viknet
Станут медленнее примерно в 2, и эту разницу будет так же сложно нагнать.
Если они используют N5P, то будет интереснее, конечно.
cepera_ang
Почему в два раза? Ryzen 5950X на одном потоке имеет частоту 4.9 и быстрее M1, при этом жрёт кучу энергии. На 16 потоках, частота всех ядер при этом 3775, всего на 25% ниже, при этом энергопотребление каждого ядра ~6.5w, что сравнимо с тем, что потребляет эпловский чип. И это 7nm, не пять.
Или я где-то ошибаюсь с расчётами?
Viknet
Да, признаю, кажется я поторопился с оценкой в 2 раза, держа в уме Zen 2. Для Zen 3 не нахожу одноядерной производительности даже на 3.7 ГГц, поэтому пока предлагаю подождать выхода мобильных версий.
Am0ralist
Antervis
не вдвое. Производительность растет нелинейно от частоты CPU, т.к. она не влияет на латентность памяти. Но на частоте в 3 гига они конечно же к M1 не приблизятся.
DoubleW
Почему это не приблизятся? воткнут такую же самую 4666 память рядышком с чипом, натюнапают тайминги, ранги, каналы, структуру TLB и тд и тп.
Я вот лично хотел бы увидеть тест на м1 сжатия/распаковки 7зипом какого нить архива гиг на 80, или кодирование в av1 каких нить 12 бит 4:4:4.
cepera_ang
Я смотрю на Анандтеке, там под нагрузкой до 27Вт натестировали, что даёт 6.75Вт. на ядро.
Viknet
Anandtech в статье замерял потребление от розетки, не самым точным прибором, о чём говорится в начале статьи.
Вот это максимум, что удалось выжать из CPU в синтетической нагрузке: https://twitter.com/andreif7/status/1328777333512278020
А вот полное максимальное потребление всего пакета:
https://twitter.com/andreif7/status/1328820823877095425
iproger
Давайте подождем пока выйдут и посмотрим.
На компе пользуюсь Хромом. Вот ради интереса проверил в Firefox и тоже ничего не тормозит. И с ноута писал и все было норм, а на планшете и айфоне невозможно печатать.
Am0ralist
vaslobas
everymac.com
Существует кучу лет, вся инфа как на ладони.
iproger
Буду знать, спасибо!
bm13kk
Мак идеальная проблема для девелопера, если бы не одна проблема — виртуализация. У мака большие пробемы с докером. Пока не покажут сколько средних контейнеров крутит машинка — еще рано говорить про смерть x86.
Боюсь нарваться на холивар. Но имхо докер используется у девелоперов чаще, чем компиляция.
hunroll
Не очень понимаю, как машина с 16 гигами оперативы может называться рабочей. И какой там вообще может быть докер? Хром, ide, пару имейджей, уже на компиляцию не хватит… Свопать всё остальное? ну тогда уже и результаты тестов будут поинтереснее. А так — синтетика на чистой системе — такое себе…
tema_sun
Мне любопытна мотивация людей, которые минусанули этот коммент.
У меня как-раз 16гб, запущен Докер на минималках с ограничением памяти в 4гб (наче сожрет всю), запускаешь ide, открываешь Фигму и всё, ты уже страдаешь. Объясните, как вы работаете на 16гб так, чтобы вам хватало?
deseven
У меня 24Гб сейчас и схожие задачи, правда вместо докера пара виртуалок в Parallels. Не страдаю ни разу и не видел чтобы память реально кончалась, обычно как раз болтается в районе 16Гб. Да, конечно, хотелось бы видеть варианты с 32Гб, но я думаю они в любом случае появятся, а пока 16Гб и очень быстрые SSD должны покрыть основные юзкейсы без особых проблем.
Не надо просто в крайности впадать, я думаю люди в основном не согласны с утверждением «Не очень понимаю, как машина с 16 гигами оперативы может называться рабочей».
bm13kk
Я не минуовал, но моя мотивация ниже.
Подчеркну самое главное — тут важны детали. Станция способная переварить любую брошеную в нее работу не может быть мобильной. Поэтому важно выбрать самую полезную часть работы лично для себя и оптимизировать ноут под нее.
Alexmaru
ну, 16Гб проблема будет исправлена в условном M1X, а вот проблема интела так быстро не исправится.
mig126
Ну, может у них есть решение, но не хотели создавать конкуренции своим же процессорам.
И во вторых когда до руководства доходят реальные размеры проблемы, «эффективные» менеджеры и прочие протиратели штанов быстро вылетает пинком под зад.
Имея их бабки и видя перед собой работающее решение, они могут быстро закрыть брешь, особенно если сбросят балласт.
Alexmaru
30% производительности интел-процессора уходит на всякие мелтдауны. ТПД давно рисуют кукурузный, не соответствующий реальности. Техпроцесс огромный.
Интел расслабился резко после того момента, как на него перешла Эппл с PPC
cepera_ang
Да-да, тогда как раз NetBurst был на излёте и Интелу прочили скорый закат.
0xd34df00d
Я добавил в строку загруки своего ядра
mitigations=off
, и никуда 30% не тратится.Chamie
Это «игнорировать уязвимость и отключить защиту»?
cepera_ang
Да. Оценивайте риски разумно — какой шанс, что у вас будет выполняться зловредный код, который выберет сложный и хрупкий путь атаки, а не какой-нибудь незакрытый эксплоит в другом софте?
Другое дело, если вы провайдер облачный с миллионами машин и клиентов — тут уже рисковать не стоит.
0xd34df00d
Да. Ну и ещё отключил соответствующие опции в конфиге ядра (я гентушник, так что по должности обязан) и убедился, что компилятор не добавляет соответствующие проверки или воркэраунды.
Виртуальные машины с чужим кодом я не гоняю, в браузерах хожу на ограниченный круг сайтов, и нагрузку на процессор замечу быстро. Векторы атак, от которых это всё защищает, для меня по большому счёту нерелевантны.
anonymous
bm13kk
Завасит от задач. С одной стороны — я согласен. Я сейчас собираю себе рабочию станцию для домашнего офиса, 12 ядер 64 памяти и прочее.
С другой стороны, чем дальше растет моя зарплата, тем больше у меня бумажной работы. И мобильность тут гораздо важнее. В то же время есть куча небольших тасков (пар часов) где надо запустить проект+дебаг. Без дебага оно может занять и день. Так вот, прошка застявляет выбрать проект или все окошки бумажной работы. Иначе оно заметно тормозит. И проблема нифига не в памяти, а в плохой поддежке докера эплом. Хотя еще раз, я полностью разделяю критику, что опция 32гб появилась на 5 лет поже, чем должна была.
Для м1 надо меньше памяти, чем остальным. За счет скорости, потому что ддр чипы прямо над кристалом и память сразу шарится. Я это назову де факто кеш 4го уровня.
Однако проблема в эпловской реализации виртуализации. Во всех ее проявлениях. И особенно плачевном состоянии для докера. Каким бы классным железо не было, с текущими багами для докер стека — мак становится неподходящим для большей части разработчиков.
И это ужастно обидно. Сейчас основное направление работы эпла — как раз виртуализация x86. Если совсем немного расширить скоп работ — и это будет лучшая машинка для любой дев задачи. Лучшая машинка, которая тянет любую виртуализацию.
WoZ Автор
Докер тим уже заявление сделал, что скоро будет шоколад. www.docker.com/blog/apple-silicon-m1-chips-and-docker
bm13kk
Я прочитал. Я не верю в результаты. Для меня что докер не стартанул с первого дня — показатель, что баги будут чинить не быстее, чем раньше.
Смотрите. Докер на маке есть около 5 лет. И там все плохо. Именно баги, а не железо, не дают запускать несколько проектов на ноуте. Что в вин машинах WSL2 уже не проблема. А теперь смотрим. Если команда докер-мак не смогла за 5 лет довести до ума. Теперь эта команда делится на две: довер-мак-х86 и докер-мак-арм. Шансов у них довести до ума стек на новой для всех архетиктуре еще меньше.
Я буду очень счастлив ошибаться и через год получить на макбуках больше запущеных контейнеров, чем на вин ноутбуках.
Zada
О каких проблемах (багах) вы тут заявляете?
Интересно просто. Ибо в своей практике с багами не сталкивался. Если не считать таковыми некоторые особенности, вытекающие от виртуалки с линуксом, в котором он собственно работает.
bm13kk
Баги не уровня "крашится", а уровня "не можем реализовать фичу от макоси"
Например https://github.com/docker/for-mac/issues/1592.
darthmaul
Ладно М1 (и то, уверен что его "чудеса" — следствие низкоуровневой оптимизации под бенчмарки и потребности "домохозяек"), но чем мак на интеле лучше обычного ультрабука то?
Iv38
Ну не знаю. У меня четыре десятка контейнеров работают, браузер, несколько окон IDE, ну и всякие консоли и чатики. Занято 12 гигов из 16. Своп практически пуст. Нормально работаю, в общем.
Paskin
Вопрос — что вы в докере запускаете? Потому что под Линуксом 6 контейнеров (один из которых содержит X и Chromium) нормально работают даже на RPi 3.
bm13kk
Как я уже пару раз написал в других комментариях. Проблема не в железе, а програмных багах. У докер стека на маке есть многолетние непофикшеные баги, которые рубят производительность.
Винда, как платформа для разработки, существенно обогнала мак, выпустив WSL2.
advan20092
В чем проблема на маке использовать докер в виртуалке под линукосм? Я так делаю уже года 3 и никаких проблем с тех пор не возникало. По сути WSL — это ровно тоже самое, только менее гибкое
bm13kk
Разница в том, что в винде и фряхе запускается больше контейнеров на том-же железе.
WSL отличается рядом оптимизация для производительности.
sumanai
WSL 2 вы хотели сказать.
lorc
Докер на маках — это виртуалка с линуксом, в котором уже и бегает docker. Т.е. это далеко не те легковесные контейнеры, к которым привыкли пользователи линукса.
bm13kk
Однако
1 Винда смогла это существенно ускорить с WSL2.
2 Там виртуализация из фряяхи. Которая во фряхе (на похожем стеке) работает гораздо быстрее.
То есть мое мнение, эпл должна была вложистя в оптимизацию имено докер-стека. И текущая производительность, в первую очередь вина эпла.
house2008
Тесты по unzip 30 Гб Xcode тоже появились
andrew8712
Прочитав это, я осознал, насколько убогие мы, iOS разработчики. 30 Гб глючащего дерьма…
Afterk
Стоить упомянуть что M1 сделан на 5нм техпроцессе TSMC, а интелевские — на ихнем 14нм. И по многопоточной производительности эти интелевские не отстают даже на таком отсталом техпроцессе, а AMD с 7нм Ryzen-ами куда впереди :
Но надо дать должное Apple — чип M1 хорош.
dsrk_dev
А с многопоточностью не совсем честно сравнивать. У интела все ядра жирные, а у эпла толко половина. С другой стороны у интела ещё и гипертрединг есть
DirectoriX
А смысл сравнивать однопоточный режим, когда подавляющее большинство тяжёлых приложений имеет гораздо больше одного потока — начиная от браузеров и заканчивая системами сборки?
WraithOW
Вот это кстати интересный вопрос. Я как-то решил узнать, на чем быстрее под андроид нынче компилировать — на интеле или на amd с 64 ядра, и что-то не нашел ничьих рассказов о том, как они получили кратный прирост производительности на тредриппере. Так что я совсем не уверен, что хотя бы большая часть систем сборки умеет полноценно утилизировать больше 4-6 ядер.
khajiit
Ну, типичный график дефолтной сборки для CI выглядит так: 5 минут качаем, 1-2 молотим CPU.
Так что утилизовыватель-то утилизует, только толку немного.
cepera_ang
Прекрасно утилизирует все ядра даже банальный
make
. То, что рассказов нет — это может быть по многим причинам, может ещё мало кто озаботился обновлением железа (компании помельче не меняют каждый год рабочие станции девелоперам, а по-больше, как гугл, собирают за секунды на тысяче-машинных билд-кластерах), может просто не пишут об этом и т.д. А отдельные тесты сборки разных проектов — линукс, хром и т.д. есть на профильных ресурсах и ускорение там замечательное.WraithOW
Ну в общем-то чем банальней система, тем её проще параллелить. Компиляция с прогонами оптимизаторов и так далее, кажется, к таким не относится — иначе где мои GPU-компиляторы?
Линукс, хром и так далее не написаны на джаве, например, и не компилируются андроид-тулчейном. В мире есть не только c/c++ разработчики, если что.
cepera_ang
Не любой параллельный код ложится на GPU-архитектуры с одной стороны. С другой стороны, код может прекрасно параллелиться до десятков-сотен потоков, но не до тысяч-десятков тысяч нужных для GPU :)
Чем принципиально отличается компиляция джава кода? Почему там нельзя раскидать по отдельным ядрам отдельные файлы?
WraithOW
Принципиально ничем, но в реальности есть определенный порог, при котором зависимости между классами (Foo использует Bar) начинают мешать одновременному исполнению. Собственно
Взято отсюда.
6 ядер против 16, а результат почти тот же, потому что на 6 ядер процесс нормально дробится, а не 16 — уже нет, и большую часть времени ядра тупят.
0xd34df00d
За джаву не скажу, скажу за хаскель — потому, что между разными файлами есть зависимости. Если файл B импортирует (не
#include
ит, а именно импортирует) файл A, то надо сначала протайпчекать файл A, сделать все нужные прогоны оптимизаций, собрать интерфейсный файл (что-то типа высокоуровневого хаскель-специфичного.o
), и только потом собирать B. Разделения на хедеры и реализацию нет, поэтому параллелить тут нечего.В принципе, нет никаких преград для топологической сортировки дерева зависимостей и параллелизации независящих компонентов, но почему-то этого не происходит.
0xd34df00d
Так
make
запускает по N копий (однопоточных) компиляторов.Сочувствую.
Хотя год назад я писал много кода на плюсах, включая пет-проекты, и думал покупать тредриппер, чтобы был как раз желаемый вами кратный прирост, а сейчас вот заметил, что код на плюсах почти не пишу, а у хаскеля параллелится только сборка зависимостей проекта (которая выполняется редко), а у агды вообще ничего не параллелится. Так что не нужны мне 64 потока больше, можно деньги сэкономить.
beezy92
Думаю здесь стоит еще уточнить, что у М1 SoC — System on the Chip, думаю такая компановка проц + ДДР память дает преимущество.
Также, патчи безопасности от Spectre и Meltdown должны были снизить производительность x86.
anonymous
Мы просто видим, что яблоко заставит зашевелиться х86 и достать из лабораторий то, что было запланировано к выпуску маркетологами в 2024 году. Вот и все, что случится. Сложно выбить стул у компании, которая десятилетиями вкладывала в исследования миллиарды долларов и покупала лучших инженеров. Но всем нам эти движения на руку! :)
WoZ Автор
Ниже мысли касаются теории менеджмента. У каждой компании есть свои стадии развития и заката. У компании флагманской, под номером 1, очень много ресурсов тратится на предотвращение и препятствие конкурентам, чтоб номер 2, 3, 4 и т.п. не заняли место лидера. Но при этом почти всегда не выделяются должные ресурсы для исследований и развития новых ниш. Вот тут и приходят компании, которые убивают лидера. Это происходит примерно следующим образом: сперва молодая компания, с высокой скоростью принятия решений, малыми обязательствами и с высоким риском находит нишу и начинает с очень высокой скоростью в ней развиваться, затем подключается эффект спиннера Безоса и она все больше растет, пока не выдавит прежний номер 1. Так будет новая ниша создана.
Со временем умрет и эта новая компания, когда првретится в бюрократическую машину, которая защищает свою позицию и тратит на это ресурсы.
Intel много денег и усилий тратил на борьбу с конкурентами, поставил во главу финансиста, а не инженера, вот и получили этот эффект.
anonymous
А эпл все это не касается? По моему у них тоже инновации не блещут, но маркетинг гениальный.
WoZ Автор
Если сравнивать весь Apple, со всеми устройствами, маркетплейсом, in-app покупками, вендор локом, то они как раз развитие показывают. Застоя не так много. Я не по iPhone едиому сужу, который уже много релизов подряд инноваций не показывает.
tropico
Это конечно сильное заявление, учитывая таймлайны что у кого когда вышло и кто еще не смог догнать яблоко с 2017 года в плане отсутствия "бороды" и Face ID. А если вспомнить какой фурор был в гиковском комьюнити, когда яблоко засунуло NVMe в 6S...
nidalee
sumanai
Сейчас вроде дырки в моде, разве нет?
ildarz
А кто тут "молодая компания"-то из вашего примера? Эппл или АМД? :D На рынке в лоб столкнулись три кита, и еще парочка плавает рядом.
Да и в целом посмотрите на историю микропроцессорных войн. Интелу в тяжелых ситуациях бывать не привыкать, в конце 90х-начале 2000х была отчасти схожая картина (с теми же конкурентами, что характерно). Сейчас, конечно, иная коньюнктура, но "закат/не закат" — это гадание на кофейной гуще в чистом виде.
RomanKerimov
Если интел сумеет выкрутиться из этой тяжёлой ситуации, то респект им будет, конечно.
Mes
Хорошо написано, но какая из компаний в списке — AMD, Apple — молодая?
K0styan
«Компания» здесь — необязательно компания в целом. Одно крупное подразделение может уже дать достаточно момента, чтобы провернуть этот механизм.
Примерно так же в 70-х сделала сама Intel, резко разогнав отдел процессоров и оставив отдел, занимающийся памятью, потихоньку отставать от конкурентов.
tropico
Nokia покинула чат.
Alexrook
Или не заставит. По идее новый чип, каким бы он не был хорошим, не заставит толпы потребителей бежать менять свои старые лэптопы на интеле и виндах на макбуки. И даже при выборе нового лэптопа покупатель, всю жизнь просидевший на винде, вряд ли решит перейти на мак лишь потому, что он стал несколько быстрее и энергоэффективнее. А почему? А потому, что у Эппл нет дешевых массовых решений. Даже сравнительно слабый Макбук эйр стоит порядочных денег. Все, кто готов был купить мак, его давно купили. Кто был не готов, навряд ли решится на это лишь благодаря новому процессору. Более того, есть столько хейтеров Эппл, что только по этой причине им будет трудно переманить значительную часть потребителей с решений на интел/амд.
Я бы и сам не против купить какие-то новые решения от Эппл (пользуюсь айром 2015 года), но цены реально кусаются. Хотел на днях глянуть Макбук про для работы — 200 штук. Да ну на… Вот если бы вместе с новыми процами и цены стали более приятными. Но мечты, мечты…
Iv38
Так цены и стали более приятными. Переход на новую архитектуру для Эппла большой риск (а тем более второй раз), и видно, что они очень подготовились. Процессоры кажется действитеьно удалось сделать одновременно и энергоэффективнее и производительнее, чем текущие. Так они ещё и снизили цены. Это очень хороший ход. Я хоть и вообще не яблочник, но проникся, так сказать, массивностью этой атаки.
Alexrook
Не знаю. Специально зашел на яндекс маркет, вдруг чего-то упустил… Макбук айр — от сотки. На прошки даже смотреть страшно. Я брал в свое время в районе 70, если правильно помню. Ну да, тогда курс доллара был немного поменьше, но не настолько. Даже если они снизят цену на 10% это никак не повлияет на мое желание приобрести новый макбук. Ну а цены в 50-60 тысяч мы вообще навряд ли когда-либо увидим, тем более учитывая перспективы рубля. А это сейчас для меня тот порог цены, когда я могу рассмотреть покупку.
В развитых странах, конечно, полегче к этому всему относятся. Но даже там не спешат переплачивать за технику эппл. Есть знакомые там (в штатах, например), которые могут купить хоть 2-3 средних мака с одной зарплаты, но они этого не делают. Сидят в частности на Dell’ах и их все устраивает. И что-то я сомневаюсь, что они вообще обратят внимание, что у Эппл теперь новые зашибательные процы и цены стали чуть-чуть ниже.
Am0ralist
У эира экран и размеры конечно интересные.
Но себе б рассматривал а-ля LENOVO IP Gaming 3 за 70к с 1650TI/4гб, 4800h, 16 гигами (до 32 вроде как апается) и 500 ссд (m2 PCIe + возможно место под сата диск есть). Или подождал бы пока модели с 2060/6гб доехали бы, но там уже наверно под ту же сотку встало бы.
Iv38
Эппл в принципе работает в верхнем ценовом сегменте. Но в своём сегменте они цены снизили. Новый эир стоит 900 баксов при заявленной производительности выше, чем у предыдущего MacBook Pro с i7. Важнее всего перетащить на новую архитектуру уже имеющихся пользователей и желательно поскорее.
onlinehead
Дело то в том, что техника от Apple стоит совершенно не дороже своих одноклассников, у них просто нижней линейки нет. Вообще, никто из моих знакомых оттуда (я работаю во вполне себе американской компании, почти вся моя команда сидит в США, общаемся и вообще видно кто чем пользуется), да и я сам не считаем, что Apple — это прям переплата. Просто все выбирают соответственно своим вкусам и потребностям.
Корректно сравнивать Apple девайсы по поддержке, материалам и гарантии с моделями вроде Dell XPS или Lenovo Thinkpad начиная с T серии, а если уж совсем честно, то с X серии. И вот там разницы в цене уже нет. Более того, купить качественную долгоиграющую и достаточно производительную машинку за тысячу-полторы долларов (ниша новых Air-ов) практически невозможно, там кругом будут компромисы и непонятный срок жизни.
Из практики вот что скажу. Месяц назад мне надо было купить в России (я живу уже не там, но ноут был нужен там) хороший надежный живучий ноут, при этом достаточно мощный, с возможностью получения хотя бы 3 летней гарантии и собственно примерно таким же предсказуемым сроком службы. По сути, в этих рамках продукция Apple более чем конкурента.
В итоге выбор пал на Thinkpad T14 AMD на Ryzen 4800 Pro, 16Гб памяти и 512 ssd. Видео — встройка в проц, экран обычный FullHD, 3 года гарантии из коробки. Стоимость — 118 200р, или чуть больше 1500 долларов на тот момент. За отсутствие дискретки, за так себе дисплей, но за материалы, общую надежность, предсказуемость и гарантию.
В то же время, Air на M1 с теми же 512/16 стоит +- те же 1500 долларов. При сильно лучшем дисплее и сильно дольшем времени автономной работы. Если не нужна винда и виртуалки, то это более чем оправданный выбор, потому что машинки с такими дисплеями, качеством и сроком жизни вкупе с мощностью от того-же Lenovo стоят уже больше 2 килобаксов.
В общем, вы просто смотрите с другим набором критериев и запросов, а так то у всего этого вполне есть своя ниша, и у Air-ов за 1500, и у Dell XPS за 2800 долларов, и у MacBook Pro 16 за 3500.
Antervis
Mac mini подешевел на $100, правда в нем теперь память не расширяется.
Во-первых, в долларах M1-macbook'и стоят так же как предшественники. Во-вторых, за последние пару лет рубль относительно доллара как раз «настолько» и упал — почти в полтора раза.
Alexrook
Я брал в начале 2016 года, тогда курс был немногим ниже, в районе 70. Это никак не в 1.5 раза. Но спорить не буду. За рынком не слежу постоянно. Может дешевле обошелся, так как модель была 2015 года, хотя вроде они так быстро не дешевеют. Сути это не меняет, дорого для меня и для большей части населения земного шара )))
JerleShannara
Ну вот смотрите, я сейчас ищу себе ноутбук с несколькими параметрами:
1) Мощный процессор и так, чтобы под 100% загрузкой он не уходил в троттлинг/не сбрасывал частоты через 5 минут (а то и через 15 секунд)
2) Много памяти — 32 Гб это вообще самый минимум, 64 очень хочется, ну а 128 это идеально будет
3) 13-14" в идеале, 15" терпимо, ну 16" ещё вытяну, но никак не больше
4) Дискретное видео — вообще без него, ну может быть вытерплю какой-нибудь мусор уровня десктопной затычки GT1030
5) Нормальная клавиатура, а не то дерьмо, которое сейчас ставят Dell и HP
6) Возможность поставить линукс.
7) Чтобы под полной загрузкой он смог от аккума 1-2 часа протянуть.
И тут, что удивительно, уже «старый» макбук про 2019 вполне себе проходил (единственное, что мне абсолютно не нравилось — это тачбар), только ценник не радовал. Новые решения на ARMе мне абсолютно не подойдут, т.к. нужный мне софт есть только под x86-64 Win/Lin и он в бинарниках.
khajiit
Вот дискретное видео должно быть или мощным, и тогда у него будет своя термотрубка-другая, или не должно быть вообще. Варианты вроде 1030 — хуже нет, видеочип сидит посредине единственной термотрубки, которая представляет из себя горячий и холодный конец. Соответственно, идет в лес функционирование всей системы охлаждения (и без того удешевленной).
А если видюшка сколько-нибудь интенсивно используется, то привет отвал шаров.
Нафиг-нафиг, есть только одно видео для бука, и это вега.
JerleShannara
Самое активное использование видюшки у меня — это отрисовка интерфейса кед.
khajiit
Тем более, нафиг эту лишнюю железку. 5-7 Вт в простое просто так ей кормить…
JerleShannara
Так вот беда получается, такое сочетание памяти и процессора либо у мощных игровых ноутов (но там идёт в комплекте какой-нибудь около-топовый жираф), либо у дизайнерских (а тут идёт проф. ускоритель типа квадры, зато можно взять аж с мобильным Xeon-ом). Остаётся ещё какой-то мизерный пласт ноутбуков, в который попал MBP 2019.
beezy92
А зачем столько Оперативной Памяти? Тесты показывают, что Macbook pro 16, где частота 2666 МГц, проигрывает Macbook pro 13 с частотой 3733 МГц.
И если брать память выше 32 Гига, то ресурс будет уходить на их синхронизацию. Просто от объема памяти толка не будет.
JerleShannara
Intel Quartus 20.3 Recommended Physical RAM. Скажем так: Cyclone 10 GX — 18 Гб, Intel Arria 10 (10AX115) — 48 Гб, Stratix 10 (1ST280E) — 64 Гб. С 32 Гб я себя очень сильно ещё и ограничивать буду, к примеру на стратиксе смогу нормально собирать проекты где-то с 20-30% утилизацией ресурсов. Да и на практике, когда идёт сборка под Арию с очень сильной утилизацией ресурсов, потребление памяти ниже 32 Гб вообще не опускается, порой прыгая на 20-30 минут даже за 64 Гб.
0xd34df00d
Процесс компилятора плюсов спокойно сжирает два гига. 16 ядер? 32 гига на компиляцию получите-распишитесь.
А ещё при этом открыты IDE, браузер и тому подобные вещи. Мне на десктопе 64 гигов не всегда хватает со старым уже 12-ядерным процессором?
А что за ресурс на синхронизацию выше 32 гигов?
Am0ralist
А такой вариант как?
JerleShannara
Вот выкинуть оттуда жирафа и найти вариант с 64гб — будет идеальная машинка.
Ну а зачем — она вообще не нужна, но ведь блин почти никто не делает так, чтобы мощный проц и памяти много, но видюшка — интегрированная. Мне блин для задач хватило бы даже GMA950 или кто там FullHD у интела научился отображать первый.
Am0ralist
Видимо за тем, что вариант для работы менее популярен, чем варианты для игр.
64 — это ещё нужно, чтоб была планка, а не распаяна память…
JerleShannara
Да я даже на распаянную согласен, если гарантию можно на 3-5 лет прикупить. Но блин везде вылезает очередная геймерская/проф. видеокарта.
khajiit
XMG Apex 15 Видео
Правда, с видюхой — R9 3900X своей не имеет.
Lenovo E495 — 2 SO-DIMM, но проц максимум 4 ядра. В руках не держал, про лимиты теплопакета сложно сказать, 3500U может быть как на 12Вт сконфижен так и на 25… Зато amdgpu в ядре.
Lenovo T14 на AMD только с одним слотом, вроде.
Am0ralist
khajiit
Ну, у HP — их любимая дочка вместо вафли, у Dell тоже свои причуды по железу, ASUS/MSI больше геймерские (свитч amd/nvidia — как это будет под линуксами?), и вообще, производители стали зажимать слоты памяти, отчего три четверти буков сразу можно отправлять в помойку.
А насколько этот понял, 64ГБ — mission critical.
JerleShannara
Именно, с 32 я условно смогу на таком работать и слабенькие проекты собирать, с 16 я смогу их только смотреть (что я сейчас успешно делаю вообще на Core 2 Extreme с 8гб памяти). А HP и Dell не умеют делать нормальные клавиатуры, /me очень избалован классической IBMовской ноутбучной клавиатурой.
Am0ralist
MSI Modern 14 — до 64 гигов, правда Ryzen 7 4700U (хотя вроде зарубежом говорили про 4800U)
Но только с учётом что планка на 8 в базе и 256 ссд, а цена уже под 60, то выйдет столько же, сколько взять с видиком дискретным.
Кстати, в Lenovo Legion 5 — два слота, то есть возможно и 64 заработают, 32 то заявлены производителем, а это не всегда верно
khajiit
Да, задачка.
На сайте Lenovo практически все — soldered, 4/8/16 ГБ, и еще 32 можно добавить.
Кмк, остается только типа такого: 2 слота (до 64 ГБ), 4 ядра, память 2400.
dunaldo
Взял себе lenovo legion 5 15 за 87т.р.(докупил планку 8гб за 2800), в моей версии ryzen 5 4600h 6/12, 8/512(еще свободный слот озу и один m.2/nvme, без радиатора), аккум 80(насчет:«при полной нагрузке 2 часа», не уверен, просто не тестил). В качестве видео стоит 2060, однако легко отрубается в биосе и работает на встроенной. Поддерживает 32гб(проверено в интернетах), версия с ryzen 7 4800h может 64 если верить сайту амд, не искал. Установлена manjaro 20.1.2, работает практически всё(да да, тачпад не работает совсем, точнее он определяется, реагирует на кнопки, но, не управляет курсором о_О, issue висит, пытаются чинить, ждёмс). На мой взгляд, одна из лучших связок железа, удобная клавиатура, одна из лучших систем охлаждения в сегменте(если не лучшая), после первого запуска и проверки сразу кинул бенч, ушел в троттлинг, разобрал и сменил пасту с заводского цемента на мх4(кстати на кристалле видео была отметинка, но вроде все ок), предел 90 с бустом, не троттлит, стабильно фигарит на 4ггц(пишет 3.996, но кто считает), для себя буст отключил, пока что хватает с головой, в простое ниже 37, пока печатаю температура 39, куллеры иногда включаются, но там непонятно, их не слышно. Включил ютуб 4к, прогрело до 43… В игрушках тестил в control, с включенными всякими dlss и raytracing были просадки до 70 фпс(без буста, на 3ггц, температура проца до 60, видео до 65 доходила в сложных сценах), в гта онлайн около 70 на ультра/высоких(такой фпс держится только с бустом, температуры до 65). Охлаждающие поставки не использую, однако ноут приподнят на книжке, планирую взять с али стенд(стоит копейки, 1500), хочу поднять на уровень глаз, заодно освободится место на столе. Ах да, дисплей 1080р, 60гц, брал ради охвата 99% sRGB, есть backlight bleeding(я не помню как перевести) и странный контраст(после dell 2419h), но тут ничего не поделать=)
Пару фоток докину, думаю корпус вполне ищется в интернетах, надеюсь помог.
ShashkovS
В продолжение.
Я тоже взял lenovo legion 5 15 с amd ryzen 4800h и GTX 1650 (и без винды!). Поставил 32Гб.
Железяка волшебная. Два-три браузера на 40+ вкладок каждый, десяток открытых проектов на 300К строчек в сумме (python, js, sql), 4К монитор 60Hz, всё летает.
Вот только после thinkpad'а очень не хватает кнопок PgUp, PgDw рядом со стрелочками. Ну и по мелочи: сканера отпечатков и хард-кнопок на тачпаде, очень к ним привык.
khajiit
Больше всего не хватает ощущения ноутбука-девочки — для выделения текста они просто незаменимы )
После них бесполые клавиатуры
не возбуждаюткажутся беспомощными от слова совсем.0xd34df00d
А я не осилил кли… трекпоинт. Какой-то он резкий и непредсказуемый.
JerleShannara
Ммм, на трекпоинте при желании можно неплохо и в Quake резаться.
khajiit
Ну, с эти все просто: нужен ноутбук с кли… трекпонтом, поллитра вискаря и три-пять друзей для партии в контр-страйк 1.6…
За каждую смерть — 10мл.
Вообще, если серьезно, на блютусной клаве его резкость регулируется Fn + Up/Down Arrow.
На T440s похоже тоже, но диапазон регулировок поуже. Или это аутоиммунное…
Am0ralist
DoubleW
Вам сюда https://eurocom.com/ec/main()ec
khajiit
Крутые штуки. Нехватает только TrackPoint
JerleShannara
Красота, еслиб они ещё в продаже в РФ были, вообще было бы шикарно.
bozman
А эти процессоры точно выйдут куда-то за пределы «экосистемы Apple»?
vakhramov
Экосистема Эппл может выйти за свои пределы, уже на десктоп пытается. Когда на ней будут работать другие ОС для других нужд-тогда и можно будет говорить о начале вероятной победы, но ноша слишком большая для Эппл сейчас. Роадмап бы...
pOmelchenko
Чем и куда она пытается выйти на десктопах? Я правда не в теме
vakhramov
Статью читать надо перед тем, как читать каменты и постить на них ответы :) Я очень хорошо представляю себе многие вычислительные процессы в жизни физлиц и предприятий, так что если вдруг это был сарказм, то он не принят (ввиду того, что вы, вероятно, эти процессы представляете менее глубоко)
krabdb
Просто экосистема Apple проглотит всех. Я уже несколько лет не видел людей с win-ноутами или не iPad планшетами в реальной жизни.
cepera_ang
Это на какой планете так? :)
krabdb
На третьей от Солнца :)
tropico
США, Кремниевая Долина, там даже в гугле iPhone выдают как рабочий смартфон на выбор, ну или пиксель, для фанатов.
cepera_ang
Всё так, но надо же понимать, что на весь мир это не экстраполируется ну никак :)
anonymous
У меня опыт другой. Многие покупают ноуты за 250$-400$ потому что нет денег/не видят смысла тратить больше, даже если использование будет менее удобным. Если эпл сделают что-то для этого сегмента, то да, шанс большой. (Я тут не про проф инструменты для особой работы типа прог-ние, монтаж видео, редактирование фото, а про классический браузинг + оффисные доки)
onlinehead
Для Apple нет никакого смысла лезть в низкомаржинальный сегмент, по крайней мере сейчас.
Не стоит забывать, что все, что делают коммерческие компании, делается для получения прибыли.
Кроме того, для тех, у кого есть только $400 и задачки вокруг браузинга и офиса, они выпускают iPad, который со всем этим прекрасно справляется. Разве что офис там конечно ограничен, даже MS Office, но для бытового применения его более чем хватит. Да и фото и видеоредакторы там тоже отлично работают.
anonymous
Согласен, при нынешней динамике доходов им комфортнее продавать технику по дороже, да и меньше проблем с поставками в эти времена
krabdb
basilbasilbasil
то есть браузинг и работа с доками на ipad происходит быстрее?
а за счёт чего?
и сколько стоит такой ipad?
а клавиатура к нему?
а 1с на нём работает?
krabdb
как вы и заказывали, 400 usd = 29 990 рублей.
Цены на родные клавы есть на сайте Apple. А вообще работает любая BT с Али за 15$-20$, если что.
Что за новые вводные? А почему не сразу VSC, WebStorm и Postgres? Вы в изначальном посте не обозначали такие требования.
RomanKerimov
Смысл в захвате рынка десктопных ОС, пока нет аналогичных ARM-процессоров под Windows.
Iv38
Мне кажется, им и там у себя неплохо. Можно позахватывать рынок в своём сегменте. Пытатьтся захватить весь рынок очень сложно, надо решать противоречивые задачи, плодить зоопарк оборудования, конкурировать вообще со всеми. Оно им надо? Эппл и так зарабатывает лучше всех.
RomanKerimov
Ну расширение аудитории пусть и в низком ценовом сегменте — это потенциально большее число разработчиков в будущем, больше софта, больше игр, больше рынок для этого софта.
Но им виднее, конечно.
darthslider
Всё так, недавно продал mbp 2013, добавил 5к и купил honor magicbook 14.
И я скажу, что ноут за 450 баксов, конечно, в плане шашечек уступает макам, но это офигенно крутое устройство за свои деньги.
unwrecker
В моём круге общения нет эпловодов. Вообще. И что?
Am0ralist
Даже с айфонами?
PS. спрашиваю, так как знаю одного электрика на
курятнептицефабрике с айфоном, причём не из-за яблока, а вполне себе осознанно из-за камеры…unwrecker
даже с айфонами
unwrecker
Добавка про электрика звучит так как будто айфон — это удел каких-то элит, но вот встречаются случаи, что даже у обычного нищеброда-электрика… Нет… По крайней мере в
РоссииМоскве нет релевантности благосостояния с владением айфонами. И уж точно есть обратная зависимость от компьютерных навыков: программисты или сисадмины с айфонами мне встречались крайне редко. Конторы в которых работал — с зарплатами выше средних по Москве по шкале Хабра.Am0ralist
Весьма высокие, просто человек больше любит руками работать. Что не помешало ему учиться отлично по ИБ…
MaximRV
Есть знакомый комм дир алкогольной компании, очень небедный чел, но все телефоны у него китайские, и ноут на али он себе заказал, даже клава без русских букв. Впрочем и у меня также
Am0ralist
Я просто к тому, что айоны иногда можно встретить вообще где угодно у любого человека, так что иметь круг знакомых без единого айфона и уверенно про это говорить — это прям по мне очень странно)
sumanai
Мне вчера окно ставили, у мастера айфон, даже сири пользовался для вызова.
sumanai
Страшный сон прям таки.
cijic
У вас мир оканчивается на планшетах и ноутбуках?
За ноутами вижу в большем числе случаев коллег-программистов, в основном да, Apple, Desktop же за Win/Lin. Планшеты чаще вижу не iPad. Что же по статистике о планшетах, то Apple-планшеты на первом месте, но даже не лидеры в общем массе.
А вот и по ноутбукам статистика. Там, как видите, Apple, даже в 3-ку не входит.
Не забывайте, что ваш личный опыт и человечества — это несколько разные вещи.
SovGVD
"Если сойдутся звезды, то и MS присоединиться к гонке."
Да что же творится то такое последнее время, винда (не RT) уже года 3 или больше на qualcomm чипах работает (и даже на Raspberry Pi), 20+ часов с постоянным подключением к LTE и тачскрин в подарок. Тут скорее не присоедениться, а наконец то активнее пилить начнет девайсы и софт, судя по новостям x86_64 прослойка подъехала (было 32bit), линукса в винде грузится (и да, докер тоже говорят работает).
mimohodom
Итак, жду от Apple моего идеального ноутбука в 2021:
* — 14.1" с тонкими рамками
* — 1080р камера
* — М2 или М1х чип с достойным iGPU
* — цена в базе за 16Гб/512Гб до 1800 у.е. Как у конкурентов в виде Dell XPS 9310 или Razer Book 13
* — большой пул приложений оптимизированных под Apple Silicon
krabdb
Забыли OLED экран. Это реально то, чего все ждут в маках и айпэдах.
mimohodom
Да, Mini-LED вроде ещё одна эволюция. Хотя если честно сказать меня экран в прошках устраивает. Разве только рамки конечно позорно большие. А вот камера, троттлинг у Intel моделей это уже проблема.
Ilyasyakubov
OLED вчерашний день. Ждем Micro LED (не путать с Mini LED) в течение 2–3 лет. В списке mimohodom не хватает Face ID, вот уж чего я жду больше всего!
lasc
фейсИД не надо если на руке часы, думаю поэтому и не добавляют
artemshitov
OLED на ноутбуках и планшетах, на мой вкус, не очень удачная идея. У OLED фундаментально есть проблема выгорания, что будет очень заметно в ноутбуках и планшетах, которые вполне могут часами показывать статическую картинку и иметь работающий экран почти 24/7.
basilbasilbasil
и цену забыли
deseven
Anandtech сделали обзор на M1 (в виде мак мини) с очень подробным разобором буквально всего, включая даже игровые тесты через розетту, советую глянуть кому реально интересны практические задачи вместо синтетики.
TLDR — очень достойные результаты, местами даже революционные для своего класса, однопоточная производительность практически вне конкуренции, многопоточная на очень хорошем уровне, GPU нечто уровня Radeon RX 560X или GeForce GTX 1650.
Am0ralist
Итого, у амд ответ видится простой: или чип из иксбокса достать, или условный 4800hs апнуть до zen3, добавить кэша и придумать что-нибудь с памятью для встроенного видео, если не вообще распаивать всю память у проца.
Только это увеличит стоимость чипа.
А интелы пока сами выше 4/8 на 10 нм не могут прыгнуть и тут вообще нужно непонятно куда танцевать. Молодцы, 10 лет доминирования сделали своё дело…
homocomputeris
Ну, может, Интел и Амд сподобятся выкинуть 300 неиспользуемых инструкций и всякое легаси, чтоб остался только современный x64-остов.
bm13kk
Это не возможно. Те есть сделать — конечно возможно, но не взлетит из-за легаси. Можно посмотреть на истоию интеловского IA64.
Имеет смысл делать то, что интел уже делает. Длает почти декаду делает и обещает выпустить в 11 поколении — смешанные ядра. АМД явно готовится к такому варианты.
В идеале было бы пара ядер x86-128 с выброшенным легаси, полным переходом на 128 битную адресацию*, шифрованием всего без исключений и, может быть, HT4. Половина ядер x86-64 для переходного периода. И остальное x86-32 для микро задач и энергопотребления уровня телефонов. Конечно хардварная компиляция устаревших инструкций.
Am0ralist
Почему не возможно?
Проблему совместимости можно перекинуть на ОС, более того, МС уже к этому готовы вполне — если уж у них приложения с x86 работают на ARM, то главное интелу не трясти своими патентами с угрозами засудить всех вокруг и всё получится.
Более того, мс это поддержит обеими руками, чтоб убить сегмент любителей ОС ниже 10-ки.
bm13kk
Есть два исторических примера, которые показывают, что не взлетело. IA64 и винда на арме.
Последняя очень медленная (кроме нескольких нативных программ и то не во всех случаях) и плохо продается. Хотя думаю сейчас они увеличат команду в несколько раз и начнут подтягивать. Я сильно надеялся на проект зеро (переход на микроядро). Но судя по тому, что они подпроект (win X для двухэкранников) распотрошили и начали внедрять в основную ветку — думаю это направление прикрыли.
Am0ralist
Винда на арме в 8-ке была чиста под планшетное направление. к 10-ке они хотели слиться в едином экстазе все направления в одно (винда на планшеты с армами, винда на телефонах и винда на x86). В итоге, мобильная 10-ка опоздала на год и потом её новый глава пришиб. Винда на арм вышла через пару лет. Но сейчас она уже умеет работать с x86 и обещали x64 приложения, хотя до этого интел тряс патентами и грозил всех засудить, но обошли как-то. Собственно первая попытка на армы и убедили, что винда без стандартных приложух не нужна. Реши это и так же пойдёт в народ.
Теперь вопрос только в том, что сам интел может угробить себя стремясь законсервировать статус кво, дабы не делить рынок винды ещё и с армами.
nin-jin
А какой прок от 128 бит адресации? Тут и 64-то некуда девать.
DirectoriX
Чтоб было некуда девать то же «лишнее» количество бит адреса + ещё 64, судя по всему…
nixtonixto
Через пару десятков лет начнёт не хватать, и будет как с FAT, HDD и SD-картами — куча расширений с разной адресацией, и новые девайсы полностью не поддерживаются старыми устройствами. Прощё сразу сделать заведомо избыточный вариант, чем потом тянуть за собой груз обратной совместимости. Тем более что в программах абсолютная адресация используется очень редко — Go to вообще считается дурным тоном, относительная (счётчик циклов) может быть вообще хоть однобайтной, а косвенная в любом варианте кратна слову, и, если размер слова 128 бит, то использование менее 128 бит потребует дополнительной команды по обнулению старших незначащих бит регистра.
bm13kk
У 128 бит адресации есть качественное преимущество над 64. 128 бит — больше чем атомов во вселенной. Тем самым, больше никогда не должно понадобится. В теории. Поэтому ZFS 128 битная.
Но сейчас это позволяет создать единое поле всех (без исключений) физических и виртуальных адресов во всем дата центре. Всех типов железа и разновидностей мамяти. От лент в архиве до кеша вспомогательных чипов на материнке.
Я не железный архитектор. И могу много чего не понимать. Но как программист я вижу, что большая часть моего кода 16 битная и еще значительный кусок 8 битный. Почему нельзя сделать из 4х 16 битных программ 4 треда на 64 битном ядре?
Но если нельзя, не будет ли эффективно добавить 16\32 битные сопроцессоры для мелких задач?
Я даже скажу, что подавляющее число программ 32 битные или меньше. Особенно, если понять, что большинство 64 битных интов используется не как математическое число, а как строка-бит\индификатор.
nixtonixto
Многобитные АЛУ и регистры позволяет делать некоторые трюки, например, одной командой производить сложение четырёх 32-битных чисел, или умножение двух чисел, тем самым делая количество операций за такт больше 1. Производители процессоров давно упёрлись в ограничение 5 ГГц, поэтому дальнейшее ускорение делается за счёт многоядерности и увеличения количества операций за такт, и последнее дешевле, чем рисовать в 2 раза больше полноценных ядер.
nin-jin
В отдельно взятом процессоре какой смысл адресовать 16 более чем эксибайт? Он к ним всё равно прямого доступа иметь не будет. А для непрямого доступа битность процессора не важна. Тут разве что может быть польза в точных вычислениях с плавающей запятой или большем диапазоне в случае фиксированной запятой. Но это весьма специфические области.
bm13kk
power10 и PCIe5. Прямой доступ к памяти соседних серверов и всего, что подключено в pci всех этих серверов. Это уже порядка петабата ддр/hbm памяти.
Как мы понимаем, от момента "ну что пора делать 128битные процы" до фактического внедрения в стойки пройдет минимум декада. За декаду помять легко может увеличится в 256-512 раз.
crea7or
Вы думаете, что каждая лишняя команда отнимает время у других? Или узлы обработки этих команд ну может жрут энергию как не в себя пока не используются?
Am0ralist
Каждая лишняя команда всё равно будет жрать транзисторный бюджет * кол-во ядер, разве нет?
Эпл 15,5 млрд трназисторов на 5нм сделал чтоб догнать. На минуточку, в коробке серии Х — их 16 млрд на 7нм. Но там процентов 45 видик чисто и при этом 8 полноценных x86 ядра с HT…
cepera_ang
Выше вообще рассуждают о том, как замечательно у Эпла работает трансляция х86 в ARM — люди даже с этим готовы мириться, лишь бы работало, что уж там транзисторный бюджет? Сколько там эти "лишние" команды процентов декодера занимают? А сколько декодер процентов ядра занимает? А сколько ядро процентов от всего чипа? :)
Am0ralist
Ну так, если выкинуть всё x86 и улучшить x64, напихать декодеров побольше, а рядом встроенный видик из иксбокса положить, то может получиться ещё лучше, чем с армом)
cepera_ang
Да не в декодерах там боттлнек :) С другой стороны, сходу сказать где там боттлнек тоже нереально — слишком сложное это железо, чтобы можно было просто выкрутить какие-то ручки на 11 и получить самое быстрое ядро в природе, там миллион крутилок и всё в шатком балансе — одно добавляешь, другое ломается. Опять же, для интела (и амд) чрезвычайно важно, чтобы ускорялся весь код, даже который ещё 30 лет назад написан, потому что за это и их ценят и покупают, если бы можно было сказать "а давайте мы всё легаси выкинем, а вы просто перекомпилируйте весь свой софт, зато будет в два раза быстрее" — давно бы так уже и сделали.
И тут у Эпла преимущество конечно, они могут так сделать, а недовольные просто могут идти лесом. Но это консюмерский рынок, совсем другое дело...
Am0ralist
так наглядно же: объем кэша и взаимодействие с ним (вся история zen->zen3), оперативка далеко и медленно (хотя бы ддр5 нужно срочно), видик встроенный не имеет своей оперативки (амд даже не стали встройку улучшать — ибо бесполезно при таком подходе, и так всё выжали плюс/минус).
Но решения — удорожание кристаллов, а значит дороже железки. Это эпл может свой макмини выкинуть за 90 с характеристиками хуже xbox series X…
Вот как раз не факт. Главное, чтоб 30 лет назад написанный код работал. А это может проще эмуляцией в винде сделать (у тех, кстати, опыта эмуляции — одним местом жуй, вроде ж в прошлой коробке эмулировали 360-ую коробку достаточно удачно). А вот чтоб x64 бегал шустрее — это да.
Alex_ME
Я, конечно, понимаю, что Apple — лучшая компания с лучшим железом, а MacOS — лучшая ОС, экосистема, юзабилити и все такое, но можно мне нативный линукс + винду в дуал-буте? Боюсь, тут дела на ARM будут обстоять куда хуже, чем с х86-64, даже когда подтянутся другие вендоры, потому что (вангование):
WoZ Автор
Я тоже за то чтоб такое подвезли. Может кто в опенсорс транслятор выкинет.
Alex_ME
Или переползать на Gentoo и собирать все из исходников :)
SovGVD
Box86?
krabdb
lorc
Ну они как минимум могли бы не мешать. Дайте техническую возможность (не блокируйте загрузчик) и чуть документации — сообщество сделает все остальное.
tropico
То есть должны ставить палки в колеса собственному бизнесу, это слишком наивно.
DirectoriX
Знаете, если кому-то нравится железо в макбуке, но нужна именно и только винда — могли бы купить макбук-тушку и установить свою винду, Apple всё равно бы получила пачку денег за сам аппарат. Но поскольку винду нормально поставить нельзя — Apple не получает ни копейки. Будь у них хоть трижды распрекрасное железо в ноутубке — если туда невозможно поставить нужную мне ОС, я куплю не его, а ноутбук другого производителя. То же самое и с десктопами, только в этом случае я и вовсе могу из компонентов собрать.
nixtonixto
Если дать возможность поставить кривую винду на макбук, и эту винду будет в нём кривить — пользователи скажут, что это не винда версии хх скомпилированная пользователем уу лажает, а скажут, что лажает макбук.
И это принесёт бизнесу Apple гораздо бОльшие убытки, чем та незначительная прибыль от любителей натягивать сову на глобус. Потому что компания славится своим хорошо работающим железом и софтом. За исключением некоторых моментов в прошлом, связанных со спешкой.
DirectoriX
Если выйдет официальный макбук с поддержкой сторонних ОС, то уж Microsoft точно озаботится выпуском официальной винды, они ведь тоже получат свою прибыль.
boootloader
В случае винды пока что камень преткновения — сама Microsoft: был ответ от них, что aarch64-версия Windows будет распространяться только в предустановленном виде. Если только не считать «палками в колеса» от Apple нежелание продавать маки с виндой на борту.
RomanKerimov
О, это значит, что и в Parallels Windows в перспективе не установить.
При таком раскладе, как мне кажется, Apple тем более стоило бы выйти с маками в бюджетный сегмент, чтобы существенно потеснить Microsoft.
Alex_ME
Обо всем этом должна позоботиться индустрия и другие вендоры, которые, как предсказывают многие, подтянуться. Ну, не должны, кончено же, но очень-очень хотелось бы
svanichkin
Переход Apple на собственные процессоры… Ok.
Покупка по бросовой цене заводов Intel… Wait.
cepera_ang
Apple — fabless компания :)
C_21
Я смотрю х86 уже закапывают в комментариях. Но как по мне слишком рано. Никто в здравом умен не забьёт болт на совместимость софта под win и linux. Скорей всего параллельно будет развиваться arm решения, так что вот прям сразу музыку заказывать и начинать отпевать Интел или АМД, я бы не стал.
RomanKerimov
Бинарная трансляция x86 > ARM рулит, как мы видим. По сути в целом она уделывает аппаратный интерперетатор CISC > RISC, что используется в x86 процессорах. Ну а всякие JVM и браузеры с JIT таки осилят портировать, если ещё нет.
C_21
Я в бинарной трансляции кода не селен, но не верю, что железяка на аппаратном уровне может работать хуже, чем код выполняемый на этой же железяке.
Viknet
Сильно зависит от систем команд, между которыми трансляция происходит, и механизма. AOT-трансляция с оптимизациями в теории может давать код, более оптимальный, чем исходный, исполняющийся нативно.
Другое дело, что в данном случае выглядит так, что у M1 просто есть запас производительности, достаточный, чтобы неидеально оттранслированный код исполнялся достаточно быстро.
RomanKerimov
А запас производительности как раз появился, потому что:
• RISC-процессоры проще оптимизировать
• не требуется CISC-декодер, то есть появляется некоторая экономия как по площади, так и по TDP.
• ARM доступен для лицензирования, что в конечном итоге позволяет использовать более совершенный техпроцесс TSMC.
cepera_ang
Вы просто повторяете рекламные мантры, без понимания что за ними стоит. Проще оптимизировать — почему? Не требуется CISC-декодер, зато требуется RISC-декодер, или думаете там всё ещё 1985 год и процессор выполняет в чистом виде по порядку инструкции, которые читает из памяти по одной?
RomanKerimov
Какие ещё рекламные мантры?! Вы несёте какую-то дичь.
Потому инструкции имеют фиксированную длину, потому что они более простые, потому что их меньше.
Так он и в x86-процессорах требуется, потому что в Intel уже давно поняли, что проще и эффективнее сделать RISC-ядро, поверх которого будет эмулироваться CISC.
Исходя из чего вы сделали такой вывод?
cepera_ang
И? Любой современный процессор читает инструкции из памяти, декодирует, кладёт в кеш, переупорядочивает, сразу сотни инструкций могут быть в полёте одновременно. ARM делает тоже самое. Есть какие глубинные причины почему побить поток байтов на инструкции так принципиально проще, когда они одинаковой длины (и то, это уже не так для современных ARM'ов), что это не будет узким местом в арме, но будет в x86?
Настолько простые, что их тоже надо их дробить на микрооперации, чтобы накормить "настоящее" RISC-ядро внутри :) Как насчёт "простых" инструкций, таких как раунд AES или вычисление SHA? Может быть такая инструкция раскрывает всю полноту простоты и изящества RISCов?
Javascript-style double->int convert (FJCVTZS)
Готов поспорить, что вы даже не знаете порядок цифр количества инструкций в ARM и x86.
Исходя из того, как вы цепляетесь за вещи лежащие на поверхности, без понимания, насколько сложно оно всё внутри устроено.
RomanKerimov
Найдите поиском комменты khajiit. Он довольно подробно расписал про отличия RISC и CISC. Повторяться смысла нет.
RISC не подразумевает, что в нём не может быть АЛУ для чисел с плавающей точкой или ускорителей для AES.
0xd34df00d
Для того, чтобы их побить, их нужно уже немного декодировать, чтобы понять, где инструкция кончается. А если вы хотите за один цикл обработать больше одной инструкции, то у вас вообще начинается веселуха, потому что для того, чтобы начать декодировать следующую инструкцию, вам надо узнать, где кончается предыдущая. А чтобы начать декодировать четвёртую, скажем, инструкцию за такт, нужно знать, где закончилась третья, для чего нужно знать, где закончилась вторая, для чего нужно знать, где закончилась первая.
В итоге всё это жрёт транзисторы и электричество.
cepera_ang
Жрёт конечно, но не принципиально, на фоне того, сколько машинерии нужно, чтобы накормить все исполнительные устройства — кроме декодеров там и переупорядочивание инструкций нужно обеспечить и целые очереди запросов к памяти/кешу и бранч-предикторы и спекулятивное исполнение и т.д. и т.п.
Навскидку гуглится, что декодер занимает 3-10% в синтетической нагрузке, когда они специально вымывают кеш микроопераций. Тут нужно спросить — реалистично ли, что декодер арма занимает существенно меньше и может ли это в принципе дать принципиальную разницу? Пусть даже у x86 декодер и правда всегда 10% жрёт, а у арма — 0%, разница максимум 10%, а не в разы, как тут пытаются представить.
Если интересно, можно пройтись по референсам и цитатам этой статьи и посмотреть чего говорит реальный ресёрч про эту разницу, а не диванные размышления фанатов той или иной архитектуры.
0xd34df00d
Именно сложность с декодированием вроде как является причиной того, что в Zen 3 декодер даёт максимум 4 макроинструкции за такт, а не восемь, например.
Насколько ?op-кэш это нивелирует — хрен его знает.
Тут дело не в том, жрёт ли декодер, а в том, мешает ли он сделать широкую архитектуру. Если я правильно представляю железо на физическом уровне (что, впрочем, вряд ли), то там сложность — экспонента от ширины.
cepera_ang
Возможно, нужен специалист, это уже глубже, чем у меня есть желание закапываться :)
RomanKerimov
Так а 10 %, это мало что ли? Плюс возможность выполнять больше инструкций за такт, плюс больше воможностей для оптимизации компилятором, плюс более совершенный техпроцесс, плюс более быстрая память. И всё это вместе вполне объясняет впечатляющий результат процессора Apple.
khajiit
Имхо, тут решающий фактор — время. Будь хоть 10 суперуниверсальных конвейров — нельзя загрузить работой второй пока не декодируете первую инструкцию. Разбивать ее на µops можно уже потом, но чтобы фронтенд декодера мог что-то съесть, он должен знать, что и где начинать есть.
Увеличили время парсинга фронтом до 4T — можно поставить 4 декодера в надежде на то, что пока один фронт уже определился с длиной но еще приводит инструкцию к пригодному для спуска в конвейер виду, можно будет занять соседний декодер.
В то время как RISC может начать одновременно декодировать хоть всю строку кэша в параллель — хватило бы фронтендов.
Viknet
Потому что Apple потратила миллиарды долларов и десяток лет, чтобы сделать ядро с 8 параллельными декодерами команд и реордер буффером в районе 630. Ни один другой дизайнер RISC чипов на такое не решился, имея перечисленные вами преимущества.
А это вообще глупость. Любая компания, разрабатывающая свой чип на любой архитектуре может сделать заказ хоть на TSMC, хоть на Globalfoundries, хоть на Samsung, если договорится. Лицензии на архитектуру или систему команд вообще никак не связаны с заказами на производство.
cepera_ang
Но… но… но… RISC?!
khajiit
А шо RISC, шо RISC-то?
Это только у некоторых невежд RISC — вовсе не то, чем он является.
Большое количество декодеров нужно чтобы загрузить большое количество Execution Units.
Система команд (.ISC) здесь вообще ни на что не влияет.
cepera_ang
А самое забавное, что даже такие кратные приросты по разным показателям (реордер буфев два-три раза от обычного для x86, кешей в разы, декодеров в разы и т.д.) даёт всего-лишь сравнимую производительность, позволяет подтянуться до топового уровня, но никаких кратных преимуществ не даёт — практически весь instruction level parallelism уже выжали.
Viknet
Ну как сравнимую… При частоте 3.2ГГц (M1) выдавать производительность как у 4.9ГГц (Zen3) на ядро.
Для десктопов сейчас есть запас по энергопотреблению и на повышение частоты, и на увеличение количества ядер, даже если никаких улучшений микроархитектуры не предвидится.
cepera_ang
Ну то есть компромисс такой — или в ширину 2x сделать или "в длину", частоту повысить 1.5х.
И опять же — память, не забывайте насколько память у эпла быстрее.
sumanai
Не факт что частота так просто поднимется.
cepera_ang
Я об этом и говорю — там тонкий баланс, не зря самые широкие архитектуры (всякие GPU и DSP) имеют частоту гораздо ниже.
Viknet
Мы пока не видели, компромисс ли это, или сознательное ограничение частоты, чтобы вписаться в ноутбук без кулера.
А насколько она быстрее? Я видел только вот такие картинки latency M1 и Zen3, и из них сложно сделать однозначный вывод. Пропускная способность памяти влияет на очень небольшое количество тестов из того же пакета SPEC.
DoubleW
Внезапно многие игры очень хорошо на это реагируют
20%+ на ровном месте только за счет частоты внешней памяти, если у АМД все будет с таким же приростом, то внезапно М1 может оказаться и позади зен 15ватного.
Кроме того обычно на это хорошо реагируют встроенные видяхи, и мы ничего еще не знаем ни о ранговости, ни о канальности этой памяти, и прочих низкоуровневых вещах, которые эпл могли подтюнить «под себя».
Там же из комментариев
CPU - Intel core i5 9600k OC 4.9ghz all core speed (six cores)
Motherboard - Gigabyte Z370 Hd3p
RAM 1 - Corsair vengeance 8GBx2 DDR4 2666 CL16 (15-16-16-36)
...
RAM 4 - Gskill sniper x 8GBx2 DDR4 3600 CL18 (18-18-18-37)
1. A.C. Odyssey:
60 vs 88 FPS, Delta = 28 FPS = 28/60 = 46.67%.
2. Project Cars 2:
65 vs 92 FPS, Delta = 27 FPS = 27/65 = 41.54%.
Угарно будет если через полгода мобильные зен 5 поколения будут тоже с распаянной памятью, и при этом все начнут критиковать их за «непрактичность».
RomanKerimov
Но Интел так почему-то не делает. И чтобы у Apple появилась возможность так сделать, им пришлось перейти на ARM.
Am0ralist
Угу. На эльбрусы. Ну, раз по вашему на TSMC можно заказывать только то, что там уже делают, то эпл мог перейти или на арм, или на эльбрусы (которые таки именно TSMC выпускает).
Так что вам ещё раз стоит перечитать ответ предыдущий, желательно раз 20, пока не дойдёт:
И никакого отношения к ARM это не имеет
RomanKerimov
Ну вот пока у Intel только разговоры, Apple уже выпустили свой процессор на передовом техпроцессе с тем GPU и нейроускорителем, которые нужны Apple, а не которые Intel соизволит поставить.
Не надо придумывать какие-то глупости и приписывать их мне.
Am0ralist
RomanKerimov
Просто не нужно врать. Я не говорил, что у TSMC можно заказывать только то, что там уже делают.
Am0ralist
Ага, то есть чтоб эплу использовать более совершенный техпроцесс арм был совсем не нужен, а значит глупость вы заявили в первой цитате?
RomanKerimov
Нужен, конечно, потому что x86-чипы могут проектировать и производить/заказывть Intel, AMD, VIA, и может ещё кто-то, но Apple в их число не входит.
Am0ralist
И, как это мешало Эплу использовать любую другую архитектуру или даже накатать свою (Эльбрус передаёт вам привет)?
Да даже лицензировать архитектуру у АМД, забацав совместную контору для разработки и заказа процов, например?
RomanKerimov
А зачем им любая другая или своя, если у них уже есть наработки по ARM, и эта ISA полностью их устраивает?
Зачем им Эльбрус с VLIW, если эта ISA хуже абстрагирована от микроархитектуры?
Зачем, если ARM лучше и по другим параметрам, которые я перечислил?
Viknet
В мире очень много разных ISA придумано, и ещё больше не придумано.
ARM там сейчас просто по историческим причинам, которые уходят корнями в первые чипы на iPhone, которые дизайнил ещё Самсунг.
sumanai
Я вам секрет открою, Ryzen делается там же.
RomanKerimov
Но у Apple использовались процессоры Intel.
sumanai
Они вроде тоже рассматривают заказ у TSMC из-за проблем со своими 10 нанометрами.
RomanKerimov
Кажется, непросто теперь им будет перекупить мощности TSMC у Apple. AMD вон только в 22 году 5 nm для десктопа планирует.
Am0ralist
Правильно, накой АМД дорогой новый техпроцесс, когда они на 7 нм нормально себя чувствуют, а тут им отладят производство.
Так и интел планирует закупать 7 нм у внешних.
RomanKerimov
Ну вот и будет x86 планомерно отставать и из-за техпроцесса, и из-за кривой архитектуры набора команд, которая ограничивает возможности оптимизации микроархитектуры.
sumanai
Где отставание то? 7 против 5, и всё на одной фабрике.
RomanKerimov
saboteur_kiev
вы 7 против 5 в чем меряете?
Вы в курсе, что там если мерять правильно, то совсем другие цифры получаются по разным физическим причинам. И слои и расстояния между, и если внимательно копнуть, что 7 может внезапно оказаться такой же плотный как и 5
RomanKerimov
Это 7 и 5 от одного производителя TSMC. Может и такой же плотный, но 5 при этом будет потреблять меньше, что позволит сделать более производительный чип.
Am0ralist
RomanKerimov
Вы очередной раз демонстрируете полное непонимание предметной области. Менее жрущий техпроцесс даёт возможность сделать либо менее жрущий чип, либо более быстродействующий, путём повышения тактовой частоты, либо более производителльный, путём наращивания исполнительных блоков или числа ядер.
Am0ralist
То есть сами признаётесь, что либо плотность выше, либо потребление ниже, либо производительность нарастатить за счёт частот? А потом утверждаете, что с такой же плотностью чип будет а) более производительный, б) жрать меньше при этом?
Отличная логика, когда складывая 2+2+2 вы получаете 9
RomanKerimov
Про плотность я вообще в предыдущем сообщении не писал, но больше исполнительных блоков или больше ядер можно разместить либо при большей плотности, либо при большей площади кристалла, либо убрав часть кеша, например. И кристалл при этом должен не перегреться, что связывает всё это с TDP.
Примерно так оно и работает.
Am0ralist
RomanKerimov
Так это не предыдущее сообщение, а уже два сообщения назад.
Ну вот видите, я написал то же самое ранее, но менее развёрнуто. После пояснения стало понятнее?
Am0ralist
Так претензия была к тем словам, сейчас вы пытаетесь выкрутиться и сказать что не говорили того, что говорили?
RomanKerimov
У вас проблемы с русским языком?
Написав «предыдущее сообщение», я ссылался именно на конкретное сообщение, которое предшествует текущему. Если бы я хотел сослаться на все написанные написанные мною ранее сообщения, то я бы написал «предыдущие сообщения» во множественном числе.
Всё, что я писал здесь, сохранилось, так что вы можете без проблем это перечитать и освежить в памяти.
Am0ralist
RomanKerimov
Я не знаю, что вам в приведённой цитате может быть непонятно, особенно после того объяснения, что я дал ниже.
Если вы как-то формализуете и сможете объяснить, где вам там видятся логические несостыковки, то может быть я вам смогу дать ещё большие уточнения.
Am0ralist
Что по умолчанию переход на новый ТП не означает, что чип получится И производительнее, И менее жрущим.
Особенно, когда на новый ТП с улучшенного старого.
Далее, даже внутри одного по циферки ТП так же можно увеличить плотность или понизить потребление, а после улучшения понизить потребление или повысить частоты просто потому, что отработали технологию или повысили качество.
И, кстати, что при переходе на другие ТП частоты падали — бывало.
RomanKerimov
Для меня загадка, как из моей фразы «позволит сделать более производительный чип» у вас получилось «по умолчанию».
И такое тоже может получиться, если производительность не до уровня потребления чипа на предыдущем техпроцессе повышать, а выбрать что-то среднее.
Да они уже десятки лет являются улучшениями старого. В основе всё тот же кремний, на котором удобно делать КМОП-схемотехнику.
И это довольно очевидно, ведь при повышении плотности и токи утечки возрастают.
Не падали, а их опускали. Ну если увеличили плотность, и токи утечки возросли, то нужно это компенсировать. Понижение частоты как раз для этого подходит.
Am0ralist
«По умолчанию» относилось к переходу. То есть что только от факта смены циферок магически всё становится лучше.
А, ну с такими познаниями то вам только выступать на хабре
означает, что вы не понимаете процессов, а судите с дивана?
Их не опускали, а их не могли достичь.
RomanKerimov
Но я не писал, что от смены циферок магически всё становится лучше. Я писал, что «5 при этом будет потреблять меньше, что позволит сделать более производительный чип».
Это означает, что я согласился с вашей репликой, и не вижу в ней противоречия с тем, что я сказал ранее.
У вас есть какое-то возражение по сути?
Ну а в Intel, Apple или TSMC я не работаю. А вы?
Am0ralist
Это если рассуждать конкретно о производительности.
Простая логика на 2+2.
То, что потребляет меньше, не означает, что чип можно в итоге получить более производительный.
Вполне возможно, что на отработанном и улучшенном 7+ чип от эпл мог быть не хуже или даже лучше, чем на новом 5 по производительности, этого мы не узнаем уже, но жрал бы больше при этом, зато и охлаждать было бы проще, чем сейчас, например. Или на 7+ можно было бы сразу в два раза больше больших ядер напихать, а на 5-ке это привело бы к большому проценту брака и остановились на этом.
Вот к этому и возражение, что вы вначале получаете нужный вам ответ, а потом под него подгоняете решение…
RomanKerimov
Так это ж интеловский тик-так, при котором либо менялась микроархитектура, либо менялся техпроцесс. То есть не не смогли, а даже не пытались.
Ну как я и писал, можно не повышать производительность до прежнего потребления, тем самым получив и более производительный чип, и менее потребляющий.
Но вот примеры с Интелом как раз показывают, что можно.
Это как?
Ну да, процент брака тут тоже влияет. Ну раз выбрали 5, значит он их устроил.
Ну да, ответ уже есть в виде M1, который в однопотоке уделывает почти все процессоры. И это не чудо какое-то, а вполне закономерный результат, которому есть разумное объяснение.
Тут и техпроцесс, и более удачная ISA.
Am0ralist
На колу мочало, начинай сначала. В очередной раз вы подменяете производительность «удельной производительностью».
даже у 7нм чипов амд проблема с тем, что их размер меньше и труднее охлаждать, чем предыдущие, которые потребляли даже больше.
Называется 15,5 млрд транзисторов на 4 ядерный проц. Тогда как чип в иксбоксе с процом 8/16, но видиком не в 2,4 терафлопса, а в 10-12, имеет 16 млрд транзисторов.
RomanKerimov
Это означает, что они не могут освоить более тонкие техпроцессы. Скорее всего это связано с тем, что они до сих пор не внедрили EUV-литографию
Не надо врать.
Если бы хотел написать про удельную производительность, то так бы и написал.
Ну значит либо с плотностью переборщили, либо с частотой. Либо с плотностью часто переключающихся вентилей, и сложные плохо масштабирующиеся декодеры x86 накладывают на AMD дополнительные ограничения.
Да, это фактор легко масштабирующейся микроархитектуры под ISA ARM. Хотя напрямую число транзисторов нельзя сравнивать, потому что у Apple ещё и нейроускоритель есть.
Но и фактор лучшего техпроцесса тоже присутствует, потому что иначе зачем Apple стоило бы предпочитать 5 nm.
Am0ralist
А потом начинаются танцы. Какой раз за тред?
Ну то есть вы утверждаете, что чипы интела на 10 нм производительнее чипов интела на 14 нм? Конкретный пример того, как в реальности изменение техпроцесса не приводит к тому, что заявляли вы.
О, вы опять выдумываете из головы подгонку под нужный вам ответ.
Хотя ответ вам был дан прямо в моих словах, но это нужно логику иметь: меньше чип -> меньше пятно теплоотвода с которых нужно снять всё больше ватт -> сложнее охлаждать.
Доказательства сего вы не сможете кроме как из головы выдумать?
Ну да, это ж в интелах и амд дебилы сидят, тут у нас есть диванный эксперт, который утверждает, что проблемы наращивания ядер не существует!
Потому что маркетинг. Потому что дороговизна чипов могла компенсироваться дороговизной итоговых изделий. Потому что им больше на текущий момент было и не надо и 4 ядер с чипом в 15,5 млрд транзисторов их устроил и не стояла задача сделать чип в 30 млрд транзисторов, чтоб и в декстопе побороться за первенство.
Только в данном случае это не важно, так как обсуждается ваша уверенность на выдуманных вами фактах, что изменение техпроцесса автоматом делает всё лучше.
RomanKerimov
Какие ещё танцы? Вы о чём вообще?
Я тут руководствовался исключительно тем, что вы же сами и написали. Я предоставленную вами информацию не перепроверял.
Ну и естественно, что на более тонком техпроцессе можно сделать менее производительный чип. Обратного я нигде не утверждал.
Если у Интел были проблемы с сохранением прежней площади кристалла, ну значит у них явные проблемы с этим техпроцессом. Зря они не хотели внедрять EUV-литографию.
Если у них были проблемы с наращиванием числа исполнительных блоков, ну это у них проблемы, вызванные ISA x86.
Это у вас спор ради спора или что? Вы написали ровно то же самое, что написал и я, только другими словами.
Доказательств чего? Что в ISA с фиксированной длинной инструкций можно декодировать больше инструкций за такт? И причём тут ядра вообще, если я вам про архитектуру набора команд и микроархитектуру? Ну прочитайте хотя бы «Архитектуру компьютера» Таненбаума, чтобы в общих чертах понимать как работают процессоры и не нести ахинею.
Вы продолжаете спорить со своими фантазиями, а не с тем, что я утверждал.
Antervis
RomanKerimov
Кто больше денег заплатил. У Apple больше денег.
saboteur_kiev
У Apple больше денег именно в отделе разработки процессоров? Или в AppleTV или iTunes?
Или вы думаете, что ради процессора Apple свернет прибыльные области, чтобы вложиться в нанометры для пары гиков и потерять миллионы клиентов?
RomanKerimov
Зачем Apple сворачивать прибыльные области? Наоборот Apple может перенаправить прибыль из прибыльных областей, чтобы занять более существенную долю в сегменте десктопов, и сделать его ещё более прибыльным.
И больше десктопов > больше разработчиков > больше приложений.
Viknet
Что значит "свернёт"? Они эти процессоры по самому новому тех. процессу ставят в айфоны.
Процессоры M1 для компьютеров появились как бонус от разработки мобильных чипов, и их производство в несколько раз меньше.
RomanKerimov
Железка на аппаратном уровне работает, конечно же, быстрее, но она работает постоянно на каждом такте, а статическая трансляция x86>ARM выполняется только один раз.
nrndda
Не стоит в лоб сравнивать M1 с процессорами AMD/Intel. Сходу не припомню у последних SoC с памятью для программ на борту (Intel с их eDRAM в Iris не в счёт). Доступ в близкую память сильно быстрее и меньше потребляет.
Честно сравнить можно только программы, умещающиеся в кэш.
О тестах на латентность или пропускную способность M1 гугл пока не знает.
i_told_you_so
на anandtech есть тесты латентности памяти.
https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested
Хорошая латентность. Видимо в этом весь секрет скорости M1
Viknet
Их секрет не в памяти, а в широкой микроархитектуре, подобную которой на x86 не получается сделать, в частности, из-за устройства набора команд.
nrndda
Из приведённой ссылки у M1 выше разрядность к память 128бит против 64 у обычного DDR. Больше разрмеры кэшей L1: 192L1I и 128L1D. Скорее всего и размеры остальных буферов (rename, dispatch/commit) так же больше чем у большинства AMD/Intel. Вот и набирается.
По числу исполнительных слотов вроде столько же, сколько у AMD/Intel.
nixtonixto
«Память для программ» называется кэш, и он на борту у всех процессоров. DRAM сама по себе медленная из-за задержек и мультиплекса адреса столбцов и ячеек, поэтому практически нет разницы, на проце она или снаружи. Хотя, более близкое расположение позволит уменьшить задержки.
Всю программу запихивать в кэш не надо, т.к. программы состоят из циклов и подпрограмм, вот их и достаточно засовывать в кэш. БОльшая часть программы вообще не будет исполняться, например, отвечающая за экспорт текстового документа в PDF, если пользователю это не надо. Тем более что ОСы сейчас многозадачные, и одновременно крутятся сотни программ.
cepera_ang
Можно напихать больше линий до чипа памяти и соответственно больше запросов к памяти в параллель выполнять.
nrndda
Кэш — это кэш, контроллер и банки SRAM. Он прозрачен для программиста и только содержит некоторые части программы, и редко когда используется как непосредственно память для программ (в некоторых архитектурах линии кэша можно перепрограммировать как SRAM, а иногда и залочить, но это уже совсем другое).
Под памятью для программ я подразумевал любой тип SRAM/PRAM/DRAM и другие варианты, доступные по адресам. Разница между накристальной и на материнской плате огромная. Задержки и потребление будут кардинально отличаться. Можно сравнить HBM и обычный GDDR в GPU.
Если сравнивать user experience, то да, можно запускать в ОС бенчмарки и смотреть кто быстрее. При сравнении микроархитектур такие бенчмарки неточны из-за большого различия в коде как ОС, так и самой программы. Да и поведение недетерминировано. Правильнее взять маленькие программы для baremetal, умещающиеся в кэше, которые будут выполнять какую-то одну функцию. Вот тогда сравнение точное.
silvestr22
У MacBook Pro 16 топовый процессор — 8-ядерный процессор Intel Core i9 9-го поколения с тактовой частотой 2,4 ГГц (ускорение Turbo Boost до 5,0 ГГц)
Откуда вы взяли 2.6 Ghz?
Даже в графиках тестов нет такой цифры
Pro-invader
habr.com/ru/post/429318
Уже тогда один из звоночков пошел, хоть и в специфической задаче
cepera_ang
Вот в этом графике можно прочитать звоночки ещё с 2017 года :)
MaximRV
Вот интересно было читать комменты недавно, что мол макбук купить и видосы обрабатывать. Автору этого текста было невдомёк, что видосы обрабатывать дешевле и быстрее, собрав рабочую станцию (сейчас на райзене) и недорогой ноутбук для работы в полях. Для тех, кто обрабатывает видосы дома — самое то.
MaximRV
Сколько мониторов можно подключить к мак мини и к ноуту?
deseven
Аж один на макбуках и два на мак мини.
ilmarin77
молодёжь уже не помнит, что WindowsNT работал на MIPS на Alpha и на PowerPC раньше.
А MacOS X изначально была тоже на PowerPC, потом перешла на Интел, и одно время бинарные файлы были в версии "fat" — скомпилированные под обе архитектуры.
RomanKerimov
Теперь мы наблюдаем ремейк/сиквел.
i_Max2
Я вот помню :), и считаю что Apple последовательно переходит с одной платформы на другую когда чувствует что запахло жареным (в прямом смысле).
С PowerPC G5 перешли на Intel когда G5 так грелся и кушал Вт что в ноутбуки его было невозможно поставить (последний ноут Applе был на G4 кажись). Тогда на презентации Джобс долго говорил и показывал графики что им важен показатель Power to W и Intel как раз тогда подвернулся с Core 2 Duo.
Теперь подвернулся прохладный ARM с лучшим показателем Power to W нежели у Intel и они перешли на ARM — вроде все логично…
Да и опыт смены платформы у Apple есть — уже 3 раза меняли Motorola -> PowerPC -> Intel. Теперь вот ARM.
MaximRV
Справедливости ради, поскольку обсуждаемый процессор — это по сути система на чипе, с видеокартой и ядрами для нейронных сетей, то стоит его сравнивать сразу с системой где это всё тоже есть, раздельно ли, или в составе чипа. И уже оценивать производительность и затрачиваемую энергию.
Кроме того, если продукт действительно годный, то его станут пихать и в суперкомпьютеры, серверы, игровые приставки и т.п.
FeNUMe
Хоть я и рад успехам амд, но справедливо будет упомянуть свежие тесты инженерников Rocket Lake, которые как минимум не уступают zen3. Так что конкуренция в 2021 будет не шуточная.
Что же касается тестов яблочного м1, то велика вероятность что в soc запихнули «немножко асиков» ускоряющих операции именно для бенчмарков. А вот «универсальная» производительность будет заметно ниже. Но это на самом деле не плохо, потому что у эпл есть возможность влиять на экосистему софта и максимально его оптимизировать.
Viknet
Откуда ж вы такое берёте? Почитайте, из чего состоят бенчмарки SPEC2006, например, а потом мельком посмотрите графики, ну и текст вокруг них.
FeNUMe
Оттуда что был уже не один скандал когда производители(тот же Intel, MTK) манипулировали результатами бенчмарков разными способами.
Да я признаю что не в курсе что там под капотом у бенчмарков из поста, но я и не утверждал нигде что ими манипулировали, просто высказал предположение что есть такая вероятность.
Viknet
Нет уже такой вероятности. Их всем миром уже неделю гоняют на всём что только возможно (а до этого гоняли A14, A12Z и прочие процессоры из айфонов-айпадов).
deseven
О какой нешуточной конкуренции речь? Рокейт лейк это бэкпорт 10нм архитектуры на 14нм, им пришлось выкинуть «лишние» ядра чтобы хоть как-то все уместить. По факту да, аналог zen3, но с еще меньшим количеством ядер и большим TDP. И опять получается, что единственная возможность для конкуренции это демпинг. 10700k не просто так стоит $380 при цене на 5950X в $800.
sumanai
Ну так в итоге AMD сейчас уже не дешевле.
Am0ralist
По сравнению с чем? По сравнению с тем временем, когда подобные системы от интела были только в серверах и стоили 10к баксов или даже выше?
sumanai
Я не рассматриваю серверные процы. Я вижу, что какие-нибудь простые 6/12 для игр выгоднее уже брать на Intel.
khajiit
9400F стоит наравне с 2600X, 3500X и, почему-то, 2700 PRO, 10400F на 2000 дороже, наравне с обычным 9400.
При этом 3600X будет работать и позволит гнать память на дешманской доске, а интелам меньше Z чипсета для этого не подавай.
Остальная комплектуха все равно одна и та же будет.
sumanai
Потому что HT. Из упомянутых вами только 3600X имеет 6/12, а он уже внезапно на 3,5к дороже 10400F. Процессоры предыдущих поколений к покупке не рассматриваю.
Даже со всеми разгонами задержка до памяти в 1,5 раза выше, чем у Intel без разгона. Мой доисторический i7-3770 показывал задержку около 50нс, а суперсовременный Ryzen 1200 приближается к 90.
Да и у Ryzen есть предел разгона памяти, связанный со внутренней шиной, а Intel гонит память по её предела.
cepera_ang
суперсовременный?
sumanai
Поэтому и наклонным шрифтом ))
khajiit
2600, наверное. но 3500X предпочтительнее: больше IPC, частоты и кэш, в результате большая однопоточная производительнось при почти равной многопоточной.
Задержки это отдельная тема, вкратце — чем больше кэш, тем меньше чувствительность к задержкам памяти.
Разгон у интелов сразу выводит систему из бюжетного уровня, потому как растут требования к чипсету, плате, питанию и охлажению — а вы сами настаивали на бюджетной сборке.
Разгонять память на Ryzen можно и на A320, причем совершенно бюджетную, неоверклокерскую.
А вообще, блин. i9 — топчик гоницца, куплю себе гиперпень — перестало быть смешным до выхода i9.
sumanai
Раз начали брать аналог, то и нужно брать аналог. А он уже на 3,5к дороже. А в итоге на AMD за ту же цену или прошлое поколение с печальным IPC, или меньше потоков. Ой.
С одной стороны да, и на AMD явно видна компенсация задержек памяти при помощи большего кеша, с другой, игры весьма чувствительны к этому.
Я настаивал на адекватной сборке. Всякие Xeon с одной стороны и монстры от AMD на 16 ядер с другой это всё излишества для простой домашней сборки для поиграть и побраузить.
khajiit
Ну раз уж аналог, то мать с разгоном для Intel +5к дороже, судя по DNS. Или у них память уже гонится без заветного Z?
Озвучьте тогда уж бюджет, а то, может, после сборки у вас не останется даже на 1030.
1600AF/2600 это и есть адекватно: -2?4к от 2600X/3500X, а если с авито, то еще и мать войдет в сумму нового проца (а с 1200 так и память). У интеляк с ценами на б/у вообще все печально, нет?
sumanai
Сколько процентов разгоняет то?
Нету у меня бюджета, я просто сравниваю процессоры.
Может быть. Но это не аналоги предложенного 10400F. А то так можно скатиться на сравнение 10100F и Ryzen 3 3100. Второй кстати чуточку дороже.
khajiit
Ну, если чисто в вакууме, то разгон — это всегда лотерея и никаких гарантий.
Прямых аналогов нет ни не будет. Вы можете выбрать разные tradeoffs, но это — все.
Am0ralist
Уточните, какая она на новом поколении. Не говоря уже о том, что при таймингах сравнимых разгон частоты памяти не помогает по факту, то есть только если и тайминги понижать, и частоту повышать.
sumanai
До Intel там всё равно далеко. В итоге задержки даже на новых будут выше 60 нс, хотя, как я уже писал, 8 лет назад я имел задержки уровня 50нс.
До 1800 насколько я помню, что означает память в 3600.
khajiit
Каджит на Sempron 2600+ s754 с DDR400@500 и тюнингом таймингов имел latency порядка 34нс, как сейчас помнится. Так что этот ваш интел — лагодром статтерящий =)
Ой, оказывается, не все упирается в задержки.
Am0ralist
Так у интела сейчас какие задержки?
У зен3 53 вот у людей получались с на 3800 с 14 таймингами.
sumanai
А интелы 4800.
Около 40. Видел тесты и с 35 в первой попавшейся статье.
Эти b-die ещё откопать нужно.
Am0ralist
А то на простых чипсетах у интела были 2400 максимум долгое время, потом до 2666 расщедрились.
Правда в такой ценовой категории я уже не уверен, что интел выиграет как сборка.
Это вообще стоковые были частоты. А я просто беру CRUCIAL u4 с 3000 или 3200 и cl 15, но можно и их погнать.
sumanai
На Z материнках естественно.
khajiit
Эти Z материнки ещё откопать нужно
sumanai
Это проще, чем поиск нужных чипов для разгона.
khajiit
Это исключительно до тех пор, пока у вас нет бюджета и вы сравниваете коней в вакууме.
Когда бюджет определен, то обычно оказывается, что память со 100% наценкой не так уж и нужна, за эти деньги лучше терабайтный SSD взять, и 1650 — нормальная видюха, да и 4х ядер вполне хватит.
khajiit
Ну, из имевшегося в наличии:
Asrock X370 Killer SLI
Ryzen 3900X
M391A4G43MB1-CTD
Заводится и работает на 3333 без повышения таймингов.
Passmark Memtest находит десятка полтора жалоб ECC на проведенную коррекцию памяти.
Но!
Эта плата вообще крайне неудачна для 2R2S.
Разгонщики на нее орут "круто!" и "говно!" с одинаковой громкостью.
Под разгон берут 1R1S 8Gb, реже 2R1S или 1R2S.
Это самые первые планки с повышенной плотностью.
В ECC-планки идут самые поганые чипы, ибо они "для серверов".
sumanai
А задержки всё равно конские будут. Там проблема в IO чипе и самой чиплетной компоновке.
khajiit
Ох уж эти волшебные задержки, которые не мешают тащить кваду с 1060, не мешают стримерам одновременно кодить на проце и играть, но жутко мешают нефанатам…
Переводя на русский — проблема в том, что не Intel.
JerleShannara
Самое смешное, что одной из причин обратной покупки альтеры были как-раз эти тёрки с чиплетностью. И что сейчас пользователи стратикса 10 кроют матом интеловские мосты внутри плис.
sumanai
Вот с играми как раз проблема до Zen3.
cepera_ang
Ну как проблема, если накрутить параметры так, чтобы упиралось в процессор, а видеокарта отдыхала, то можно найти разницу в десяток процентов, при абсолютных цифрах две-три сотни кадров в секунду :)
sumanai
Бывает и 100- у AMD и 100+ у Intel.
Chamie
Это когда собрано всё компилятором от Интела, который на не-интеловских процессорах все оптимизации отключает?
sumanai
Вряд ли обычные игры собирают с таким приоритетом для Intel.
Chamie
Ну, пока Интел был королём сингл-треда, только на него, часто, и ориентировались.
Am0ralist
А я про то, что амд уронила за последние 3 года цены в разы, а в топовом сегменте вплоть до порядка. Сейчас она выставила цену за производительность. Что не отменяет факта, что раньше планкой для обычных компов было 4/8, которые за три года стали сегментом i3 — считай минимальные для игр. Да, чисто под игры сейчас 6/12 у интела получше, хотя комплект ± стоит на самом деле с 3600.
Но есть только нюанс. 3600 я себе взял год назад и через пару лет скорей всего его выну и впихну вместо 5700 или даже 5900, если цена будет погуманнее. Количество ядер и скорость в однопоток точно выиграю, без смены всего железа.
Я так уже не раз под амд делал в прошлом)
sumanai
Я тоже жду 5700 и bios под него на x470. Будем ждать вместе ))
Am0ralist
У меня хуже, у меня асус б450 про гейминг, ибо жаба была вооооот такая)
Зато интересно то, что по цене 3600 я даже могу не потерять, продавая его БУ)))
khajiit
Asrock X370 Killer SLI. Купил 3900X, ибо 59x0 будут по кошмарным ценам еще год, а там через пару лет и на DDR-5 будет пора переезжать. И не факт, что его поддержка будет таки завезена.
euroUK
Нет уверенности в том, что DDR5 будет сразу лучше чем DDR4. Я помню, первые года 3 можно было с трешки на четверку не переходить, ибо прирост был 1-2%.
khajiit
Там сразу лучше дефолтное ECC. Ну и обещали ее в 2021, емнип, год плюс еще два уже будет 2023… а там посмотрим по обстоятельствам.
0xd34df00d
Чё-т походу можно рабочую машинку не апгрейдить ещё года два-три, да.
Скажи мне кто этак в 2001-м или даже в 2005-м, что машина из 1991-го или 1995-го года будет достаточно хороша, чтобы можно было ждать ещё несколько лет какой-нибудь там новой памяти…
khajiit
Да, тогда прогресс бежал, как ошпареный)
Это сейчас он двигается неспеша, и лишь иногда — ленивыми прыжками, а раньше вышел новый процессор — новшеств было не перечесть.
FeNUMe
С ддр5 ситуация лучше, как минимум потому что каждая планка работает в двухканале сама по себе и для десктопа доступен четырехканал.
sumanai
Меня не жаба душила, а активное охлаждение чипсета. Это ни в какие ворота уже. Блин, могли бы оставить PCI-E 4 версии для процессорных линий. Ну да ладно, фигня всё это. Всё равно ждать начала следующего года, раньше вряд ли выкатят.
Am0ralist
sumanai
Я видел ещё несколько вариантов, но сама идея чипсета на 14 (или сколько там) ватт меня ущемляет.
nidalee
Как пользователь X570, могу сказать, что лично мне чипсет за год никаких проблем не доставил. Греется — да, рядом с видеокартой. 60-70 градусов. Крохотный вентилятор на нем — 2000 RPM минимум, до 3000. Но 2000 не слышно, когда система в простое, а 3000 просто теряются в шуме СО видеокарт и процессора, опять же — не слышно.
Были сомнения по поводу лишней точки отказа в виде мелкого вентилятора, но рассмотрел его — все цивильно, отключается от материнской платы и заменяется, если что. Очумелые ручки наверное и на пассивное охлаждение этот чипсет могут пересадить при желании.
TL;DR: активное охлаждение — странное решение, но проблем не доставляет. Я и забыл уже о том, что там вентилятор, только из-за этой ветки вспомнил.
Интересно, а с (потенциально скорым) приходом PCI-E 5 как ситуация изменится? Все на активное охлаждение перейдут, или найдется решение получше?
sumanai
Не верю
У меня быстрее 800 вентилей вообще не крутятся, а эта мелочь, да ещё и на 2к оборотов…
khajiit
Радиальные до 2500?3000 можно считать silent, потом шум от самого вентилятора становится громче шума воздуха.
Потому что вентилятор этого типа не пытается взлететь.
Возможно, тут как раз такой.
czz
Хм, на видеокарте Radeon Pro WX4100 как раз такой мелкий радиальный вентилятор, крутится на скорости 2000, и он у меня таки самый громкий элемент в системе.
khajiit
Возможно дефект сборки (несбалансированость вентилятора относительно оси, непроклей верхнего кольца, если оно есть) или неудачная конструкция радиатора, создающая резонанс?
Такая же турбинка на ASUS1060TURBO слышимо шипит на скорости ~2700 и выше (но практически никогда до нее не разгоняется).
Sapphire 7970 шипела на ~2000, после 2500 добавлялся ощутимый свист, дальше к 3000 она начинала подвывать и до ~5000 уже характер звука не менялся.
nidalee
Так там вентилятор крохотный. 200мм у меня на 700RPM в нагрузке, 120 три штуки — 1600RPM.
FeNUMe
Ну из свежих сливов
Если это так, то вполне неплохо учитывая что это инженерник против серийного проца. Конечно нужно больше инфы чтобы делать объективные выводы, но я думаю по производительности вполне возможен паритет и война будет с помощью цен и разных фичь.
Am0ralist
Ну так, 8 ядер вроде ж максимум обещают. Какая война? Только если 5800х победит, а тут амд выдаст 5800хt в ответ, да 50$ скинет. 12 и 16 ядрам угрозы не будет(
Пока не победят свои 10нм потеряют ещё процентов 10-15 рынка легко…
FeNUMe
Война за игровой рынок, где решают частоты и производительность на ядро, а не количество ядер. На ближайшие лет 5-7 игры будут оптимизироваться по 8 ядер/16 потоков из-за некстген консолей.
Ну и для нас как потребителей наоборот хорошо если доли на рынке примерно сравняются.
Arris
Я не могу говорить за
всю Одессуза весь интел, но на каком-то семинаре Интела докладчик так вскользь сказал, что в общем, Интел не особо парится от проигрыша в дестопной/мобильной нише, рассчитывая наверстать упущенное в нише корпоративной и нише "тензорные процессоры для ML"Разумеется, за что купил — за то и продаю, то есть это даже не моё ИМХО.
euroUK
Интел не сильно парится, пока у него низкая стоимость изготовления. Даже если у АМД доля будет 50%, но себестоимость чипа будет 80% от цены, а у Интела на 14нм будет 20%, итоговая прибыль будет явно не за красными.
Я уверен, что основная причина не перехода на 7нм и 10 нм были финансовые, нафига делать с огромной себестоимостью, если можно клепать за бесценок на 14нм?
cepera_ang
У Интела проблема удовлетворить существующий спрос в сегменте датацентров, т.е. они всё ещё продают всё, что смогли произвести и заказчикам нужно ещё, не смотря на то, что есть другие вариант (они отжирают долю, но рынок растёт быстрее, чем производство всех компаний вместе взятых). Поэтому какое-то время они могут и не париться, но естественно это не значит, что они ничего не делают, наверное делают, вопрос насколько эффективно, и когда наверстают, если вообще смогут.
euroUK
Просто хочу заметить, что веры в один тест гикбенч нет. Вполне возможно, что тест как-то подпилен под М1, дабы раскрутить хайпа побольше. Потому что в цайнбенче результаты как-то совсем не такие оптимистичные.
www.cpu-monkey.com/en/cpu_benchmark-cinebench_r23_multi_core-16
Например,
5950x — 28,641 попугаев
M1 — 7,508 попугаев.
Intel Core i7-8700 — 7,969 попугаев.
Т.е. процессор 2017 года на 14нм процессе с 6 ядрами быстрее. Если его выпустить на 5нм, во сколько раз он будет быстрее?
Viknet
Не спорю с результатами, но замечу cinebench надо осторожно смотреть:
1) как минимум на M1 он не нагружает процессор в полочку: https://twitter.com/andreif7/status/1328777333512278020
2) это только один тип нагрузки
3) движок Cinema 4D много лет оптимизировали под x86, в том числе с помощью инженеров AMD, а под ARM у них было несколько месяцев на портирование.
4) в M1 всего 4 производительных ядра. 4 эффективных ядра в сумме слабее одного производительного.
Viknet
Ах, да. Я не обратил внимание на то, с чем сравнение-то идёт.
5950x — топовый 16-ядерный процессор с энергопотреблением в 130 Вт, в котором только внутрипроцессорная шина потребляет больше, чем весь ноутбук с M1.
Intel Core i7-8700 — 6-ядерный старичок, который под нагрузкой может неограниченно долго потреблять 165 Вт с пиками до 215 Вт.
Apple M1 — 4-ядерная кроха с 4 микро-ядрами на подхвате, которая в Cinebench R23 multicore потребляет 15 Вт.
DoubleW
Давайте сравним результаты с использованием той же памяти?)
Viknet
А при чём здесь память?
Вы приводите многоядерную производительность десктопных монстров с неограниченным энергетическим бюджетом и бОльшим количеством полноценных ядер.
Давайте на конкурентов с тем же количеством ядер посмотрим? Или на single-core производительность? И тут выходит, что из всех (вообще всех существующих) процессоров на всевозможных бенчмарках, только Zen 3 и топовый Tiger Lake (и практически исключительно в Cinebench R23) кое-как обходит M1, даже без учёта энергопотребления.
Это феноменальный результат для чипа, который предназначается для ультрапортативных ноутбуков с пассивным охлаждением.
euroUK
Меня не интересует мобильный рынок практически совсем. Чтобы подорвать АМД или Интел нужно конкурировать на рынке десктопов и серверов.
И вот вполне вероятно, что тут могут возникнуть проблемы при увеличении числа ядер. Например физические размеры кристаллов при 8-16 ядрах в М1 могут феноменально увеличить процент брака и следовательно стоимость. Или память припаять в 32-64Гб станет проблемой. А разделив М1 на 2 чипа и вынеся память, появятся задержки и производительность упадет.
Более того, я абсолютно уверен, что текущая цена компов на М1 — это в убыток. После того, как они пересадят людей мы узнаем реальную цену всем этим однокристальным компоновкам на 5нм
Viknet
Десктопы появятся в течение 2 лет, но врядли "подорвут" Intel и AMD. Далеко не всем в принципе нужен Mac, без разницы, какая у него производительность.
А серверов от них, я почти уверен, мы не увидим вообще никогда.
Apple не делает устройств с маржой меньше 30%. Вообще не делает, никаких, её акционеры сожрут за снижение маржи. А выпущенные сейчас устройства — это наиболее продаваемый сегмент маков, с большим отрывом.
Плюс они уже много лет продают iPad Pro с процессорами аналогичной конфигурации, и примерно той же площади, за более низкую стоимость.
Про конфигурацию же ожидаемых десктопных чипов пока рано рассуждать, тем более строить прогнозы, что у них что-то не получится, когда они уже публично рассказали про 2-х летний план полной миграции всех линеек.
DoubleW
Частота и латенси, думаю зен на 15 ватах с такой же памятью очень неплохо прибавит в скорости, он и так не шибко отстает по анандтечу.
А что сделает 35 ватный — даже страшно представить.
+ специализация че там они гоняют через т.н. нейрочипы, на на интеле это щас AVX молотят, а могут те же специализированные чипы воткнуть.
В целом результаты у М1 конечно неплохие, но маркетинговая брехня про 3х-5х быстрее откровенно расстраивает когда переходишь к деталям.
А детали такие что я каждый день вижу
кусок говнатехнику Эпл которая глючит и бажит, хотя еще год два назад, так же рекламировалась как вершина прогресса.Viknet
Zen 2 на 15-25 Вт пока крайне слабенько выглядит с 8 ядрами. Это если по-честному ограничить энергопотребление, а не на бумажный TDP смотреть.
Но да, думаю Zen 3 в мобильном исполнении вполне неплохо себя покажет.
По крайней мере, в том же районе TDP будет выглядеть конкурентом. Осталось их дождаться.
Viknet
В бенчмарках Geekbench и SPEC2006/2017 никак не задействуется Neural Engine, это всё-таки тесты CPU, а не сопроцессоров.
Если вы про презентацию, то они там явно говорили, что это сравнение с теми устройствами, которые были как раз обновлены с M1 (на сайте Apple в сносках есть полные конфигурации моделей и обтекаемое описание нагрузки). Эти результаты все обзорщики подтверждают.
junari
Лично для меня есть два мерила производительности процессора: компиляция и рендеринг. Рендеринг показали и M1 выглядит весьма неплохо для мобильного восьмиядерного процессора.
Но ребятам из anandtech похоже занесли чемоданы денег на обзор, так как в синглкоре сравнение с 5950x есть, а результат в мультикоре под 30к (в сравнении с 8к M1) куда-то пропал. То есть, когда удобно — сравниваем с десктопным топом, а когда нет — ну уж извините, результаты 5950x мы уберем. От таких манипуляций складывается ощущение, что где-то меня пытаются надурить.
Еще тестов компиляции более релевантных и повторяемых бы найти.
Viknet
Да потому что это просто бессмысленно — сравнивать многоядерную производительность 16 ядер и 4.
Если у вас стоит выбор между десктопом с 5950x и макбуком на M1, а решающим будет производительность многопоточной компиляции — берите десктоп, не ошибётесь.
Вышедшие сейчас эппловые процессоры — самая младшая линейка, для ультрапортатива.
euroUK
А вы уверены, что эти технологии переносятся от 4 ядер к 16 так, что цена на чип не будет 5к?
Viknet
Цена за чип конечного пользователя вообще не должна волновать, только цена устройства целиком. Отдельно они не продаются.
В том, как может быть устроен сильно-многоядерный десктопный чип на той же архитектуре, пока ни у кого нет уверенности. Вполне возможно, что вынесут GPU, Neural Engine, на отдельные кристаллы. И/или чиплетами начнут наращивать. Или многопроцессорные системы сделают. Или сдадутся на полпути кинув всех разработчиков и первопроходцев :)
Я пророчествами не занимаюсь, и предлагаю просто ждать, а пока пользоваться тем, что есть на рынке и решает возникающие задачи.
euroUK
Именно поэтому я покупаю на следующей неделе 5950x и 3090.
А мак мини может и куплю родителям, но только потому, что им и планшета бы хватило так-то.
Viknet
И я вот себе взял Mac Mini для работы над домашними проектами, благо не собираю ничего сверх-тяжёлого. Да и поиграться с ARM интересно.
А десктоп у меня уже есть, я на нём в VR играю.
FeNUMe
3090 для работы? Если нет то может стоит обождать 6800XT/6900XT — производительность на уровне, потребление ниже, цена ниже, перспектив у реализации лучей и опенсорсного аналога dlss больше…
FeNUMe
Значит ждем сравнения с мобильными Ryzen 4800/5800 и Intel tiger lake, там и энергопотребление сравнимое будет.
Viknet
В сравнимом энергопотреблении результаты совсем грустными для Intel и AMD выходят.
atri1
Адекватным обзором будет сравнение с AMD Threadripper-ом.
junari
Речь не об адекватности, а об объективности. Если в сравнении мобильных процессоров ты решаешь добавить десктопный, то нужно оставлять его во всех тестах, а не только в тех где тестируемый процессор показывает сопоставимые результаты.
А то в этом обзоре складывается впечатление, что М1 чуть-чуть не дотягивает аж до самого 5950x.
deseven
А какой смысл сравнивать многопоточную производительность у десктопного 16-тиядерного процессора и мобильного 8-миядерного? Они хотели показать, что однопоточная производительность сравнима с топовыми десктопными — что, собственно, и показали. Для многопоточности сравнивали с тем, с чем сравнимо, не знаю в чем тут манипуляции.
Am0ralist
В том, что глядя на график 1 человек делает выводы, что процессоры сравнимы, тогда как глядя на второй он не видит, что до дектопа в полной нагрузке далеко ещё?
deseven
Anandtech не делает обзоры для домохозяек, к тому же в выводах прямо написано к чему это.
Am0ralist
А графиками любят тыкать на других ресурсах
PS. Сий текст никак не опровергает то, что написано, кстати. Ровно тоже самое. От указания, что в мобильном победили, нет понимания, что и как в декстопном.
deseven
А что тут опровергать? Вы жалуетесь на гипотетическую ситуацию, когда человек, не понимающий о чем графики (т.е. не понимающий отличия однопоточной производительности от многопоточной или не разбирающийся в современных процессорах), может прийти к ложной уверенности, будто бы M1 победил всех и вся. Повторюсь — Anandtech не делает обзоры для домохозяек, это не их ЦА.
Am0ralist
Манипуляции работают на ком угодно, сколько бы вы не твердили, что им не подвержены. Это надо всегда всех подозревать в манипуляциях, чтоб им не поддаваться, но грозит параноей.
Так вот, когда вам показывают два графика, в каждом из которых он типа топчик, только в одном там на однопоток и есть 16/32, а на другом его нет, то это — манипуляция. Отложится, что он везде топчик, а то, что 16/32 на втором не было — не отложится. Если вы не с акцентируете для себя внимание на этом моменте. Но чтоб не акцентировали, надо просто побольше инфой забить мозг, дабы человек не задумывался.
Но если вам нравятся графики в духе не от нуля и прочие способы правильной подачи материала, то что ж…
deseven
Чтобы не быть госоловным вы же покажете два графика ST и MT у Anandtech, где он «топчик»?
tendium
У меня аж мышь затряслась в припадке от кликбейтности заголовка.
atri1
дальше не читал, если 2.6 ггц процессор теперь "топовый" то даже не знаю что и сказать
FeNUMe
Это базовая частота и у этой модели она вообще 2.3, а турбобуст там стандартные 4,8+
turone
Всё очень просто, я еще пару лет назад говорил, что ARM перегонит x86 по простой причине, что рынок ARM растет гигантскими темпами и денег в разработку и производство вкладывают такие же гигантские суммы, которые бысто отбиваются. Кто-то может тешить себя мыслью, что пока в реальных задачах еще х86 выигрывают, но для примера — на днях снял на 865 snapdragon 8k. Так десктопный проц Ryzen 2600+radeon rx580 — при простом воспроизведении 8к тупит безбожно. А на телефоне и запись и плей все без тормозов и прочего. То получается, что в практичных задачах — запись, обработка видео, и заливка на ютуб ARM уже 1-2 года как обогнал десктоп. Так что apple вовремя пересела на ARM, а скоро интел и амд за ней — после 1-2 года отрицания будут в роли безнадежно отстающих, особенно если софтовые гиганты подсуетятся. Ну и в пользу арм говорит выбор эппл — не помню чтобы эппл стратегически ошиблась.
crlam0
1. Так Snapdragon 865 и вышел на ~1.5 года позже чем Ryzen 2600.
2. И техпроцесс 7нм против 12нм.
3. У Snapdragon 865 специализированный сопроцессор для обработки изображений Spectra 480, наверняка «на телефоне и запись и плей все без тормозов и прочего» только благодаря ему, а не какому-то волшебству ARM.
В очередной раз в комментариях сравниваются не особо сравнимые вещи и делаются выводы о какой-то непонятно откуда взявшейся исключительности ARM.
RomanKerimov
Даже в этом плане ARM удобнее, потому что можно ставить такие сопроцессоры, какие хочется, а не какие решат Intel и AMD.
sumanai
Пойду поставлю себе в телефон классный сопроцессор.
Iv38
Такие сопроцессоры, какие захочет поставить Qualcomm или Apple или ещё кто-то. Какая по сути разница? Вы же не можете собрать процессор себе.
Плюс тут ещё разница в том, что Snap 865 это SoC, а Ryzen 2600 просто CPU. Ваша видеокарта может и содержит аппаратный кодек для видео, но софт не умеет с ним работать.
Это я не к тому, что ARM не заборет x86, а просто пример не очень.
RomanKerimov
Разница в том, что с ARM могут и ставят, а с x86 не могли и не ставили, и приходилось колхозить чип Tn. А нейрочипа просто не было, в том числе и у меня в ноутбуке не было.
Могу, если буду как Apple или Qualcomm. Да даже есть процессор Baikal, так что лицензию ARM себе может прикупить любой желающий, только деньги нужны.
turone
Никто напрямую не сравнивает, ведь тут не про обработку, а про простой плей формата видео который появился в далеком 2013! году, а соответсвенно rx 580 (2017) и ryzen2600 (2018) устройства среднего диапазона в которых не реализован простой плэй формата четырехлетней давности. Я понимаю, что упор был на криптовалюты и прочее, но пару баксов на аппаратное декодирование могли бы добавить — ведь уже пару лет были 8k контент и устройства. Но основной посыл комента был в том, что ARM выигрывает не за счет архитектуры, а за счет гигантских вложений в разработку и производства на фоне более быстрого роста рынка и большего объёма АРМ процессоров в сравнений с х86.
cepera_ang
В вашем радеоне 2017 года выпуска, но по сути перемаркированном железе 2016 года, реализован актуальный на тот момент аппаратный декодер видео до 4к60, замечательно поддерживающий всё, что было доступно на тот момент, кроме VP9, который форсился Гуглом и получил поддержку позже. Поддержку 8K в стандарт h.264 добавили 2016-10, то есть после выпуска вашей карточки. И нужно понимать, что разработку начинают за пару-тройку лет до того, как устройство окажется на прилавках, то есть вы хотите чтобы AMD в 2013-2014 году предугадало, что ваш телефон в 2019 будет снимать тяжелые видео ещё не существующего кодека и реализовало для него поддержку? Смешно.
ARM не производит процессоры и вообще мелкая компания — выручка всего полтора миллиарда баксов в год, а расходы на R&D лишь малая доля от этого. К тому же все блоки типа декодеров видео, которыми вы так гордитесь в своём "arm" телефоне — вообще от сторонних разработчиков :) Да, и рынок сравнимый, хоть армы в штуках и продаются на порядок больше, в деньгах преимущество пока за x86.
turone
жадностьюэкономией в пару $ производителей на x86.cepera_ang
Вы не путайте демки и реальную жизнь. В 2012 году было демо кодека (в каком разрешении? :)), но не было 8к, зачем вы смешиваете эти вещи? Стандарт финализировали в середине 2013 :)
Не было никаких устройств и контента, доступных широкой публике в 2013-2014, это вы наверное с 4к путаете. HDMI 2.0 без поддержки 8k в радеоне действительно есть. А поддержку 8k получил HDMI 2.1 выкаченный в конце 2017 года и устройства с поддержкой которого только начинают появляться массово в конце 2020.
Декодирование видео — тяжелая задача, вы этого не замечаете только благодаря гению инженеров, которые всё это реализуют (и благодаря гению маркетологов, которые начинают продавать технологию за несколько лет до того, как она будет готова к массовому рынку, всякими анонсами, демками и прочими способами). Экономия пары долларов, смешно, там одни только патентные отчисления на весь комплект кодеков и разъёмов за эту сумму вылезают, а дальше сотни миллионов на разработку чипов на современных техпроцессах. Всё для того, чтобы пользователи могли незадумываться о том, каким магическим образом у них телефон 8к кодирует и декодирует тратя два ватта.
turone
Согласен, перепутал по памяти с 4k c 60fps.
тут тоже согласен что задача тяжелая, но всё таки декодинг значительно легче кодирования. А вот патентные отчисления за кодеки, то тут не со всем согласен — плата за кодек не зависит от разрешения. h.264 одинаков для 2к, 4к, но для 8к уже используется модификация h.264 -> h.265 или HEVC (2013 год) и вот тут уже и открывается причина нереализации 8k аппаратно, оказывается h.265 имеет три патентных пула с различными условиями ценообразования и даже в 2020 особенно при появлении кодека AV1 ситуация с кодеками 8k не совсем определена. Поэтому также соглашусь, что в 2017 году реализовывать аппаратно h.265 не было смысла, так массового его использования ещё не намечалось.
P.S. Хочу сказать спасибо за аргументированное обсуждение, в результате которого добрались до сути вопроса по аппаратному 8к.
cepera_ang
В процессе аж википедию править пришлось. Вообще, я был просто удивлён тем, как вы лихо адаптировали 8К у себя в воспоминаниях — стоило появиться одной платформе, на которой сделан с десяток моделей флагманских телефонов, как 8К стало "фактом жизни", чем-то таким, что чуть ли не всегда было с нами :) Хотя в реальности, это ещё супер-редкая вещь — интерфейсы для передачи такого потока на днях устаканили и даже продуктов с ними до последних месяцев не было, камер нет, кроме мобильных телефонов и голливудских монстров за 100к$, смотреть не на чем — телевизоры только в этом году появились, аппаратной поддержки нигде толком нет (кроме одной серии смартфонов), даже хвалёный эпл (под статьёй про который мы собрались), вершина ARM'остроения — и тот ничего такого не обещает (есть что-то про ProRes 8k, но это совсем другое дело, куда легче кодек).
Однако, реализовали :) Поддержка h.265 в радеонах есть, но h.265 != 8k. В каждом кодеке есть целая гора профилей, уровней и левелов, которые включают те или иные возможности. И вот реализовывать level 6+ в 2016-2017 действительно не имело смысла и/или возможности. 8К в 2017 был примерно как сейчас 16К — если глянуть википедию, то там уже три года какие-то демонстрации показывают и экраны есть и DisplayPort 2.0 формально поддерживает. А реально думаю будет шагать по 5 лет на стандарт — в 2025 8K будет как сейчас 4К абсолютно везде, а 16К в первых массовых продуктах (если повезёт).
sumanai
Абсолютно везде это типа есть такие опции для всех устройств? Потому что мониторы даже сейчас активно FullHD берут, да и телевизоры тоже.
cepera_ang
Да, я не имею в виду, что меньше чем 4К устройств не осталось, а то, что маржинальная стоимость выбора 4К против FullHD снизилась почти до нуля — мобильники уже лет пять могут снимать 4К, камеры тоже, ютуб поддерживает, куча остальных провайдеров тоже, телевизоры/мониторы — не проблема, все интерфейсы тянут.
turone
никто не говорил так про 8K, просто был шокирован, что ПК с неслабой и нестарой начинкой не сможет воспроизвести записанное смартфонным процессором.
Пример с 8k может и не совсем в тему, как я писал выше суть первоначального комента не в этом, но просто меня эта недееспособность моего ПК задела. А 8к мне вдруг стал критично нужен после пробного захвата кадра из видео, учитывая, что в телефоне реализовано слежение фокуса за объектом — то получается серийная съемка в 30к/сек с кадром в 32МПкс.
DoubleW
Потому что радеоны не держат хардварно 8к видео, воткните Nvidia Gtx1050 или новее и все побежит.
nidalee
Кроме того, нельзя забывать, что пользователи ПК жертвуют производительностью в угоду универсальности, по крайней мере в моей сфере деятельности (работа с видео). Если на ПК я могу пользоваться любыми мыслимыми эффектами и инструментами, то на телефонах функционал ограничен тем, что работает с приемлемой скоростью.
Как пример из той же области (не зарезанный функционал, но завязка на «свое»): хорошо работает на маках (можно даже сказать «летает») сильно ограниченное количество кодеков профессионального видео. Доходит до того, что снятое в другом кодеке видео проще сконвертировать в любимый Apple ProRes, нежели терпеть тормоза оригинального кодека (и речь не про консьюмерские кодеки, типа H.264, для монтажа не предназначенные, а все еще про профессиональные). На Windows в том же софте проблема не так выражена.
А вот это целиком и полностью зависит от глубины погружения в вопрос. Снять свой заезд на велосипеде, обрезать, подложить музыку — несомненно. Какие-то в меру серьезные проекты при большом желании тоже можно целиком и полностью сделать на телефоне (хотя не помешают внешний монитор и клавиатура). А такие вещи как профессиональная цветокоррекция, работа с дополнительной графикой, да и много чего еще — на телефонах просто пытка. Как и на ноутбуках, собственно. Да, ПК в 2020 по ощущениям — скорее инструмент профессионала, нежели развлекательный комбайн (отсюда ПК был выдавлен телефонами и планшетами, причем давно), но до теоретической смерти ПК в целом, и x86 в частности, еще ой как далеко.
ЕМНИП, архитектуру они меняют не в первый раз и как минимум один раз (второй?) они это делали не от хорошей жизни. Я в истории Apple не силен, но уверен, что кто-нибудь в комментариях подсобит статьями на тему.
А вообще, прогресс — это прекрасно. И воевать в комментариях за какие-то корпорации или архитектуры — странно. Главное, чтобы фактическая производительность продолжала расти, желательно с уменьшением энергопотребления и цены, но последние два уже хотелки, а не необходимость, по крайней мере лично для меня.
turone
Что-то я не помню, чтобы где-то начинал войну, просто сообщил, что ещё пару лет назад мне было очевидно, что при настолько быстром развитии процессоров АРМ и дальнейших больших финансовых вливаниях АРМ догонит и обгонит x86, откусив у x86 значительную часть рынка. Так и произошло, а пример с 8к привел, так как меня не устраивает копеечные экономии на аппаратном декодировании производителей для х86, ведь впервые столкнулся задачей, которую средний десктоп не тянет и ведь задача не архисложная. А ведь зачем мне 8k видео? Ответ прост — в телефоне есть слежение фокуса за движущемся объектом и объект всегда в фокусе и если взять стоп кадр из видео, то будет не хуже аналогичного фото. Только тут у меня серийная съемка 30! кадров в сек на долгом протяжении времени для фиксации нужных мне кадров! Если для отпуска и активного отдыха — эта фишка позволит запечатлеть неуловимые моменты. А тут вдруг на нестаром десктопе такая засада, и позиция производителей под x86 — нужен плэй 8k? -заплати нам 500$ за новую видяху, ведь даже на 1060 у колеги тоже не тянет.
cepera_ang
А за телефон на топовом снапдрагоне вы не заплатили 500$ что ли? Даже больше поди. Сравниваете топовое устройство, с пачкой специализированных модулей под конкретную задачу на этой задаче с бюджетным "нестарым" железом четырёхлетней давности и внезапно оно проигрывает.
Давайте ещё по количеству мегапикселей встроенной камеры сравним — ой, в ПК 0, в смартфоне 42, ПК движется к упадку, там в бесконечность раз хуже камера. И такая засада, производители хотят отдельно кучу денег за новую камеру, ведь даже на Sony A7III коллеги не тянет 42 мегапикселя никак, а ведь ей всего два года.
Ради баланса предлагаю сравнить через три года топовый компьютер с вашим сегодняшним телефоном на рендеринге или компиляции или ещё какой неспецифической для телефона задаче, да даже в воспроизведении будущего формата видео, AV1 к пример, он же уже кучу времени есть, должны телефоны поддерживать и посмотреть как телефон разгромно побеждает :)
turone
Вот тут мы подбираемся к сути борьбы и вероятного исхода этой борьбы. Производительность АРМ за последние 5-6 лет выросла в 8-10 раз, а процессоров ПК в 3-5 раз. Понятно что все равно упрутся в технологические ограничения, но даже в этом вопросе АРМ вырвался в лидеры и уверенно наращивает обороты быстрее, чем в лагере х86.
Моя ошибка в том, что я исходил из предпосылки, что за три года на рынке ПК мощность выросла в небольшие 1,5-2 раза и зазор мощности у х86 2017,2018(ryzen 2600) годов должен был с легкостью справляться с аналогичными задачами ARM процессора 865 (2019). Но АРМ движется семимильными шагами и за 3 года рост мощности и освоения новых технологий опережает пока более консервативный рост х86 в 1,5-2раза.
Согласен, что мой пример не совсем удачный, но лично для меня было шоком, что относительно свежий по начинке ПК не тянет простую задачу по воспроизведению, а телефон успешно выполняет более сложную задачу по кодированию и записи.
khajiit
Интел тоже показала невероятный рост году так в 2006.
Правда, для демонстрации такого роста потребовалось 5 лет впаривать тормозные кипятильники PIV и отстать по IPC аж на треть от конкурента)
Вот и арм — они, конечно, очень молодцы, но до потолка, в который давно бьются x86, им пилить еще и пилить.
turone
khajiit
Так в виду разницы архитектур — у них потолок будет свой.
cepera_ang
Я немного интересуюсь как железо устроено внутрях и там в принципе понятно, что фиксированную задачу можно ускорить в сто раз от процессора общего назначения без проблем, более того, всякие кодеки так и разрабатываются — учитывая бюджет на операции доступный в [потенциальном] железе. И заодно, на телефонах стало возможно и выгодно разрабатывать реально кастомное железо, потому что рынок огромный и конкуренция жесточайшая, да и гарантировано, что эти функции потребуются (в отличие от ПК, где пользователь волен сам выбирать и воротит нос от навязывания комплексных, интегрированных продуктов) и поэтому там кроме ядер процессора ещё всего подряд напихано. И да, за счёт принятия таких вот акселераторов мощь смартфонов растёт на глазах. В пределе может быть у нас будут там десятки специализированных акселераторов (аппаратный JIT-компилятор javascript'a?), но к тому времени это и в ПК прийдёт. Потому что всё, что работает в смартфонах можно прекрасно запихать и в компьютер, подвести больше питания и получить больше производительности.
И производительность акселераторов в ПК прекрасно растёт, это только Интел балду пинал десять лет — пример RTX3080 отлично показывает, что можно выжимать в десятки раз больше специализированных попугаев, чем пару лет назад.
turone
Вы правильно рассуждаете, но посыл моего первоначального коммента, что ARM песпективнее не из-за архитектуры, а из-за большего финансового стимулирования, быстрорастущего рынка, жесткой конкуренции и все возрастающими требованиями рынка. На рынке х86 эти стимулы намного слабее. Это было для меня очевидно пару лет назад, и в одной дискуссии большинство говорили, что я не прав и что АРМ в ПК никогда не будет, но теперь АРМ прочно уже застолбилась на рынке ПК и это лишь начало. Дальше будет ещё интересней, и выбор для нас будет шире и цены ниже — это замечательно! главное пережить восстание машин :)
Am0ralist
turone
Сравнение производительности кодирования и декодирования используется во многих бенчмарках, а декодирование видео одна из востребованных функций, как на ПК так и на смартфонах, а ваша шутка сравнения неадекватна.
телефон взят для работы — предметной видеосъёмки, последующей небольшой видеобработки и заливки — с этой работой справляется на все 100%, видео штампует как горячие пирожки, и окупает себя полностью. А 8k декодирование на ПК далеко не основная задача и вкладывать 500$ лишь на её решение нецелесообразно.
snap 865->ryzen 2600 лишь 1,5 года, и учитывая что десктопный проц vs мобильного, то вполне уравнивает разницу во времени.
И вообще-то плей идет — но 10-15кс и ещё бы пару оптимизаций и было вполне смотрибельно. Так что мой пример адекватный, ведь никто не предполагал, что 4k 60fps это граничный предел перехода на новый уровень технологий.
cepera_ang
Так а чего вы сравниваете целиком SoC с одним процессором? Давайте сравнивать яблоки с яблоками: продайте ваш райзен и rx580 (7-9тысяч + 6-8 тысяч) и поставьте туда AMD Ryzen 5 PRO 4650G — 200$ в российской рознице, будет декодировать 8к замечательно и аппаратно. И заодно на электричестве сэкономите — TDP 65w, против 185+65w.
turone
Что-то вы далеко ушли от обсуждения статьи про M1, Epyc, Ryzen, Intel. Мой коммент был что Арм в лице М1 успешно начал боевой поход против х86 и вскоре эта война выйдет на новый уровень, вам есть что сказать по теме статьи? Потому как я высказал свое мнение по теме статьи и никаких посторонних вопросов для обсуждения темы 8к не задавал и считаю это обсуждение тут не уместным.
DoubleW
На новый уровень — напихивания специализированных чипов?
Которые устаревают так же быстро как ваш радеон устарел с появлением 8к видео?
Кстати чтобы увидеть хороший фпс на ЦПУ для 8к видео вам достаточно поставить www.videohelp.com/software/LAV-Filters-Megamix, а вот что вы будете делать с чипами вшитыми в SoC если завтра ютуб переедет на новый кодек — большая загадка.
В общем будьте последовательны в своем подходе, на телефоне вы хвалите что он умеет все из коробки за счет спец чипов, но при этом батхертите что такой же спец чип в радеоне не вытягивает новые для него задачи, и рассказываете про какую то там войну.
Тут по старой пословице или крестик надо снять, или трусы надеть.
sumanai
Давно не видел аналогов K-Lite Codec Pack ))
turone
Это вы про Apple M1? а тесты в статье вам тоже не показатель? Через 1-2 года потомки М1 заменят интел в apple в нижних и средних моделях, а возможно и в топах — а это такой немаленький кусок рынка, плюс остальные вроде гугла, мс и прочие со свежими энергоэффективными моделями на арм подтянутся. АРМ начнет так неплохо снизу вытеснять х86, если х86 промолчит в ответ.
olegi
Am0ralist
olegi
это почему же? лично сейчас хожу с айфоном которому 4 года и всё устраивает, у близких и знакомых такая же ситуация.
но их больше ведь :) 2.5 google play + 1 iOS + ~1 china.
рынок уже не растёт. проникновение смартфонов в большинстве стран 100%.
Я согласен, что смартфоны живут в руках меньше чем десктопы, но
1) время жизни смартфонов 4-5 лет, это думаю Гугл будет учитывать это в случае выкатки нового кодека
2) при этом 2/3 НОВЫХ смартфонов строятся на старых чипсетах. А это ещё +2 года к сроку актуализации достижений.
Am0ralist
да какая разница, если это мечта производителей, впарить больше мобильных девайсов благодаря устареванию именно что железа, но не по причине самих производителей, а сторонних разрабов
Гугл на это с самого начала начихал, вместо давления с целью увеличения сроки поддержки своего андроида жадно выдавливая конкурентов.
Ну вот они будут выжираться быстре и садиться, вынуждая пользователей сменить на новый не через 3 года, а через полтора.
olegi
экономическая обстановка этому не способствует.
А вот статистика, что уже как года 3 нет роста продаж смартфонов
olegi
извините, но
МТС: россияне стали реже менять смартфоны
Средний срок владением гаджетов в 2020 году составил 39 месяцев — на 18% больше, чем годом ранее
tjournal.ru/tech/239523-mts-rossiyane-stali-rezhe-menyat-smartfony
Am0ralist
Так если телефон справляется и не тормозит, то его не будут менять. А тут как раз идеально, пилим новый формат, телефоны тормозят — увеличивается спрос.
cepera_ang
Внезапно, боевой поход арма против x86 в лице Эпл вы проиллюстрировали аппаратным декодером 8к в совсем другом железе, но обсуждение этого вдруг стало неуместным :)
turone
неуместным стало:
сомневаюсь, что это кому либо из читателей хабра интересно и хоть как то проходит в русле обсуждения статьи.
cepera_ang
От чистого сердца совет, сам бы так и сделал :)
turone
Спасибо, но смысл — шило на мыло менять? Я регулярно обновляюсь — и так чтобы был хороший запас мощности для моих задач на 3,4 года. Пока ещё мне хватает с избытком, а процессор Ryzen 5 PRO 4650G — я не уверен, что его будет хватать мне через 3,4 года. Разумнее подождать 1,5-2 года и обновить платформу под задачи — снова таки с запасом. А play 8k, чтобы выцепить кадр — мне и 15 к/сек. хватает — ведь я не говорил, что это проблема — просто не ожидал тормозов и привел пример к слову.
sumanai
Только там всё это идёт процем.
iproger
2080, тянет 8к в 60fps с утуба.
hatman
Мне вот интересно. В отличие от Apple и AMD в России есть центр разработки Intel в Нижнем Новгороде. И судя по новостям, они недавно открыли второй офис там же. Ребята из этого офиса могут подсказать — полимеры все, или мы просто чего-то не понимаем?
nidalee
Встречный вопрос: а почему «полимеры»? Что в вашей жизни изменилось с выходом M1? Или что изменится в ближайшие года три, вы считаете?
hatman
Интересно знать мнение профессионалов, ведь сейчас лишь ленивый не попытался бросить камень в сторону intel.
nidalee
У Intel достаточно денег, чтобы пережить кризис, хорошие инженеры и планы на будущее (Linus Tech Tips уже делал видео на тему, например). Какие они реализуют, а какие нет — это вопрос, но на него вам никто не ответит, это точно.
С дешевыми ядрами (читай — чиплетами), они тоже уже возятся какое-то время. Так что прогресс идет. Посмотрим, что получится.
JerleShannara
Насколько помню, тут OpenVINO/ML и похожее разрабатывается.
DoubleW
Интересно что никто не обратил внимание на этот результат
Кто-то уже взял миник на м1 погонять его в реальных тестах и сравнить с виндой?
Я интереса ради погонял гикбенч и что-то с ним не все ладно, compute тесты очень сильно просаживаются при включенном видео проигрываемым на нвидия декодере, но при этом ЦПУ тесты особо не меняются от проигрывания видео через интелквиксинк.