Если посмотреть на историю Intel, то она сделала полный круг. В ХХ веке компания произвела настоящую революцию на рынке микроэлектроники. Затем большая корпорация решилась на смелые шаги, чтобы выжить в эпоху подрывных инноваций. Но теперь всё-таки попала под каток. Сейчас в 2020 году приходится лишь с сожалением смотреть, как она медленно тонет, и ничего не может с этим поделать. Поезд ушёл.
Бывший исполнительный директор Intel Энди Гроув говорил, что «Дилемма инноватора. Как из-за новых технологий погибают сильные компании» Клайтона Кристенсена стала самой важной книгой из всех, что он прочитал за десять лет. На обложке Forbes в 1999 году — автор книги Клайтон Кристенсен и Энди Гроув.
Действительно, Энди Гроув был живым примером того, как большой компании выжить в эпоху подрывных инноваций. Один из самых знаменитых примеров — когда Intel решилась на то, что компании редко осмеливаются сделать: выпустить низкоприбыльный продукт, который съедает её собственные высокоприбыльные продукты. Но Intel сделала это. Речь о выпуске процессора Celeron в 1998 году. Он реально съел «Пентиумы» и захватил 35% всего рынка процессоров. Но самое главное, что он выполнил свою задачу — отсёк потенциальных конкурентов снизу. Это был гениальный ход.
Под твёрдой рукой Гроува компания Intel выпускала чипы для персонального компьютера, который вскоре появился практически в каждом доме и на каждом столе. Наряду с Microsoft компания Intel стала синонимом настольного компьютера, пишет Джеймс Олворт в статье про то, как Intel пришла к нынешней ситуации.
В 2005 году Гроув покинул Intel. Это случилось в том же году, когда Пол Отеллини занял пост генерального директора. Казалось, всё шло к благоприятному будущему для Intel и хорошему началу для Отеллини. В то время компания Apple, чей бизнес Mac был на грани срыва, оставалась единственным производителем настольных компьютеров, который не использовал процессоры x86 от Intel.
И Apple сменила позицию — она обратилась за процессорами к Intel. На фотографии Стив Джобс приглашает Отеллини на сцену Macworld, чтобы сделать объявление:
Победа Intel казалась абсолютной.
Действительно, эта сделка между Apple и Intel оказалась важнее для Intel, чем она могла представить. Но не потому, что Intel заполнила последний сегмент рынка десктопных процессоров. А потому, что установила отношения с компанией, которая думала о будущем.
Именно в то время Apple разрабатывала устройство, которое определит технологический ландшафт человечества на ближайшие десятилетия — это iPhone. И она обратилась к своему новому партнеру, Intel, за помощью в разработке чипов.
Как отреагировала Intel?
Что ж, к счастью, теперь мы можем об этом узнать. У нас есть интервью Отеллини в последний месяц его работы на посту генерального директора Intel. Вот что Отеллини сделал, когда представилась возможность разработки микросхем для iPhone:
Отеллини представил это как одно единственное решение. Конечно, истинное принятие решений внутри любой большой организации часто сложнее — на самом деле целый ряд действий привёл к тому, что они решили пропустить эту возможность. Вот как описывает ситуацию Бен Томпсон из Stratechery:
Но в любом случае конечный результат одинаковый. Как и прошлый партнёр в десктопную эпоху Microsoft настолько увлеклась своим успехом в парадигме персональных компьютеров, что не могла выйти из неё. С учётом этого успеха и хорошей маржи Intel не видела необходимости подвергать сомнению формулу победы: интеграция разработки микросхем и производства. Многообещающий клиент приходит с каким-то предложением, которое вроде не даёт такой большой маржи прибыли, как существующий бизнес?
Не интересно.
Вот так и был потерян клиент, который всего лишь предлагал Intel производить микросхемы для смартфонов iPhone.
10 ноября 2020 года Apple объявила о первых компьютерах Mac на собственных процессорах. Intel больше не используется. Это первое изменение в архитектуре Mac с того самого 2005 года, когда они перешли на Intel.
Есть много интересных и подробных обзоров новых микросхем, но особенно выделялся одна диаграмма из обзора Anandtech:
Что интересного в этой диаграмме? Ну, у неё поразительно сходство с той, что была опубликована раньше — в реальности, 25 лет назад. Взгляните на диаграмму, нарисованную Клейтоном Кристенсеном в 1995 году для своей первой статьи о подрывных инновациях:
«Как определить подрывные инновации». Harvard Business Review (январь-февраль 1995)
Возможно, сам Энди Гроув этого не сознавал, но 25 лет назад он читал эту статью не просто в качестве инструкции, как Intel продолжит завоевание рынка персональных компьютеров. Он читал предсказание, что в конечном итоге произойдёт с компанией, которую он основал — предсказание за 25 лет до того, как это произошло.
Подрывная инновация охватывает рынок через определённый причинно-следственный механизм, который Гроув так быстро понял. Он состоит в том, что инновация начинается снизу — благодаря этому резко расширяется рынок. Затем она прогрессирует гораздо быстрее, чем существующая технология.
Именно это позволило Intel (и Microsoft) завоевать компьютерный рынок. Хотя персональные компьютеры были дешевле, но их покупали в каждый дом и на каждый стол, что в итоге генерировало больше прибыли и больше расходов на R&D, чем продажа небольшого количества очень дорогих серверов, которые стояли только в серверных комнатах.
Точно так же и первые попытки Apple спроектировать микросхемы для смартфонов не представляли собой ничего особенного с точки зрения микроэлектроники и производительности процессоров. Но в этом не было необходимости — люди были счастливы просто иметь компьютер в кармане. Apple начала продавать много айфонов, и эти продажи финансировали много R&D, то есть исследований и разработок. Процессоры iPhone внутри них продолжал улучшаться, улучшаться и улучшаться. И потрясающий партнёр Apple — компания TSMC — разделила их успех.
Наконец, 10 ноября 2020 года две линии на графике пересеклись. В отличие от прежних случаев, когда пересекались эти линии, а Intel выступала в качестве инноватора на рынке персональных компьютеров, сейчас Intel в другой роли. И теперь всего лишь вопрос времени, когда производительность чипов на базе ARM продолжит продвижение в последнее убежище Intel: серверный бизнес.
M1 (A14) представляет угрозу для Intel и AMD не потому, что Apple внезапно собирается поглотить рынок персональных компьютеров. Вовсе нет. Прирост рыночной доли Mac в ближайшей перспективе вряд ли превысит несколько процентов.
Проблема для AMD и Intel заключается в том, что представляет собой M1. Впервые за 15 лет компания, не имеющая лицензии x86, создаёт микропроцессор для потребительского рынка, который вполне может конкурировать с чипами x86. Если Apple сохранит или улучшит свои позиции по отношению к Intel и AMD, это заметят и другие компании с лицензиями на ARM. Nvidia, которая купила ARM в ожидании одобрения регулятора, безусловно, заметит это. Если ARM может превзойти x86, то вся экосистема WinTel уязвима так, как этого не было с самого начала эпохи персональных компьютеров.
Intel и AMD ранее не приходилось беспокоиться о том, что делают производители процессоров, которые отличаются от x86. Если M1 (A14) и последующие процессоры Apple для различных сегментов рынка начнут откусывать долю рынка x86, это заметят все, включая OEM-производителей, которые в настоящее время строят компьютеры на процессорах x86. Возможно, Microsoft когда-то и поддерживала Intel, но при Сатье Наделле компания резко развернулась в сторону облачных сервисов. Если Microsoft хочет широко интегрировать Linux в свою собственную операционную систему, ей всё равно, работает ли Windows на ARM или x86. Долгосрочная угроза для Intel и AMD — это потеря маржи и рыночного влияния, если x86 больше не рассматривается как лучший процессор по умолчанию.
Возможно, M1 (А14) начал эту трансформацию на рынке.
Apple M1
Apple M1
Сейчас процессор А14 в составе М1 имеет 4 больших и 4 маленьких ядра. Однако огромная производительность в расчёте на ватт позволяет надеяться на хорошую масштабируемость микросхемы. В течение 12 месяцев на свет появится A15. Не стоит удивляться, если это будет процессор с 6-16 большими ядрами, а в течение 18-36 месяцев мы увидим следующее поколение с 16-32 большими ядрами. И преимущество архитектуры ARM никого не будет удивлять на рынке и настольных компьютеров, и серверных систем.
Вот тогда Intel придётся по-настоящему плохо.
Наша компания предлагает в аренду серверы с современными серверными процессорами от Intel и AMD. В последнем случае — это эпичные серверы! Виртуальные серверы с AMD EPYC, частота ядра CPU до 3.4 GHz. Максимальная конфигурация — 128 ядер CPU, 512 ГБ RAM, 4000 ГБ NVMe. Создайте свой собственный тариф самостоятельно в пару кликов!
Бывший исполнительный директор Intel Энди Гроув говорил, что «Дилемма инноватора. Как из-за новых технологий погибают сильные компании» Клайтона Кристенсена стала самой важной книгой из всех, что он прочитал за десять лет. На обложке Forbes в 1999 году — автор книги Клайтон Кристенсен и Энди Гроув.
Действительно, Энди Гроув был живым примером того, как большой компании выжить в эпоху подрывных инноваций. Один из самых знаменитых примеров — когда Intel решилась на то, что компании редко осмеливаются сделать: выпустить низкоприбыльный продукт, который съедает её собственные высокоприбыльные продукты. Но Intel сделала это. Речь о выпуске процессора Celeron в 1998 году. Он реально съел «Пентиумы» и захватил 35% всего рынка процессоров. Но самое главное, что он выполнил свою задачу — отсёк потенциальных конкурентов снизу. Это был гениальный ход.
Под твёрдой рукой Гроува компания Intel выпускала чипы для персонального компьютера, который вскоре появился практически в каждом доме и на каждом столе. Наряду с Microsoft компания Intel стала синонимом настольного компьютера, пишет Джеймс Олворт в статье про то, как Intel пришла к нынешней ситуации.
В 2005 году Гроув покинул Intel. Это случилось в том же году, когда Пол Отеллини занял пост генерального директора. Казалось, всё шло к благоприятному будущему для Intel и хорошему началу для Отеллини. В то время компания Apple, чей бизнес Mac был на грани срыва, оставалась единственным производителем настольных компьютеров, который не использовал процессоры x86 от Intel.
И Apple сменила позицию — она обратилась за процессорами к Intel. На фотографии Стив Джобс приглашает Отеллини на сцену Macworld, чтобы сделать объявление:
Победа Intel казалась абсолютной.
Действительно, эта сделка между Apple и Intel оказалась важнее для Intel, чем она могла представить. Но не потому, что Intel заполнила последний сегмент рынка десктопных процессоров. А потому, что установила отношения с компанией, которая думала о будущем.
Отказ от производства чипов iPhone
Именно в то время Apple разрабатывала устройство, которое определит технологический ландшафт человечества на ближайшие десятилетия — это iPhone. И она обратилась к своему новому партнеру, Intel, за помощью в разработке чипов.
Как отреагировала Intel?
Что ж, к счастью, теперь мы можем об этом узнать. У нас есть интервью Отеллини в последний месяц его работы на посту генерального директора Intel. Вот что Отеллини сделал, когда представилась возможность разработки микросхем для iPhone:
«В конце концов мы не выиграли и не проиграли, в зависимости от того, как посмотреть на это. И мир был бы совсем другим, если бы мы это сделали, — сказал мне Отеллини в двухчасовой беседе во время последнего месяца работы в Intel. — Вы должны помнить, что это было до появления iPhone, и никто не знал, какой эффект произведёт iPhone… В конце концов, их интересовала определённая микросхема, за который они хотели заплатить определённую цену и ни цента больше, и эта цена была ниже нашей расчётной стоимости производства. Я не мог предвидеть успех iPhone. И оглядываясь назад, расчётная стоимость производства была неверной, а объём оказался в сто раз больше, чем кто-либо думал.
Отеллини представил это как одно единственное решение. Конечно, истинное принятие решений внутри любой большой организации часто сложнее — на самом деле целый ряд действий привёл к тому, что они решили пропустить эту возможность. Вот как описывает ситуацию Бен Томпсон из Stratechery:
Падение Intel от короля индустрии к наблюдателю началось уже в 2005 году: несмотря на то, что у Intel имелась лицензия ARM для производства XScale, компания не захотела сосредоточиться на энергоэффективности, а предпочла диктовать дизайн клиентам, таким как Apple, рассматривая их новый iPhone, вместо того, чтобы попытаться приспособиться под них (как это сделала TSMC).
Но в любом случае конечный результат одинаковый. Как и прошлый партнёр в десктопную эпоху Microsoft настолько увлеклась своим успехом в парадигме персональных компьютеров, что не могла выйти из неё. С учётом этого успеха и хорошей маржи Intel не видела необходимости подвергать сомнению формулу победы: интеграция разработки микросхем и производства. Многообещающий клиент приходит с каким-то предложением, которое вроде не даёт такой большой маржи прибыли, как существующий бизнес?
Не интересно.
Вот так и был потерян клиент, который всего лишь предлагал Intel производить микросхемы для смартфонов iPhone.
10 ноября 2020 года Apple объявила о первых компьютерах Mac на собственных процессорах. Intel больше не используется. Это первое изменение в архитектуре Mac с того самого 2005 года, когда они перешли на Intel.
Есть много интересных и подробных обзоров новых микросхем, но особенно выделялся одна диаграмма из обзора Anandtech:
Что интересного в этой диаграмме? Ну, у неё поразительно сходство с той, что была опубликована раньше — в реальности, 25 лет назад. Взгляните на диаграмму, нарисованную Клейтоном Кристенсеном в 1995 году для своей первой статьи о подрывных инновациях:
«Как определить подрывные инновации». Harvard Business Review (январь-февраль 1995)
Возможно, сам Энди Гроув этого не сознавал, но 25 лет назад он читал эту статью не просто в качестве инструкции, как Intel продолжит завоевание рынка персональных компьютеров. Он читал предсказание, что в конечном итоге произойдёт с компанией, которую он основал — предсказание за 25 лет до того, как это произошло.
Подрывная инновация охватывает рынок через определённый причинно-следственный механизм, который Гроув так быстро понял. Он состоит в том, что инновация начинается снизу — благодаря этому резко расширяется рынок. Затем она прогрессирует гораздо быстрее, чем существующая технология.
Именно это позволило Intel (и Microsoft) завоевать компьютерный рынок. Хотя персональные компьютеры были дешевле, но их покупали в каждый дом и на каждый стол, что в итоге генерировало больше прибыли и больше расходов на R&D, чем продажа небольшого количества очень дорогих серверов, которые стояли только в серверных комнатах.
Точно так же и первые попытки Apple спроектировать микросхемы для смартфонов не представляли собой ничего особенного с точки зрения микроэлектроники и производительности процессоров. Но в этом не было необходимости — люди были счастливы просто иметь компьютер в кармане. Apple начала продавать много айфонов, и эти продажи финансировали много R&D, то есть исследований и разработок. Процессоры iPhone внутри них продолжал улучшаться, улучшаться и улучшаться. И потрясающий партнёр Apple — компания TSMC — разделила их успех.
Наконец, 10 ноября 2020 года две линии на графике пересеклись. В отличие от прежних случаев, когда пересекались эти линии, а Intel выступала в качестве инноватора на рынке персональных компьютеров, сейчас Intel в другой роли. И теперь всего лишь вопрос времени, когда производительность чипов на базе ARM продолжит продвижение в последнее убежище Intel: серверный бизнес.
В чём угроза M1
M1 (A14) представляет угрозу для Intel и AMD не потому, что Apple внезапно собирается поглотить рынок персональных компьютеров. Вовсе нет. Прирост рыночной доли Mac в ближайшей перспективе вряд ли превысит несколько процентов.
Проблема для AMD и Intel заключается в том, что представляет собой M1. Впервые за 15 лет компания, не имеющая лицензии x86, создаёт микропроцессор для потребительского рынка, который вполне может конкурировать с чипами x86. Если Apple сохранит или улучшит свои позиции по отношению к Intel и AMD, это заметят и другие компании с лицензиями на ARM. Nvidia, которая купила ARM в ожидании одобрения регулятора, безусловно, заметит это. Если ARM может превзойти x86, то вся экосистема WinTel уязвима так, как этого не было с самого начала эпохи персональных компьютеров.
Intel и AMD ранее не приходилось беспокоиться о том, что делают производители процессоров, которые отличаются от x86. Если M1 (A14) и последующие процессоры Apple для различных сегментов рынка начнут откусывать долю рынка x86, это заметят все, включая OEM-производителей, которые в настоящее время строят компьютеры на процессорах x86. Возможно, Microsoft когда-то и поддерживала Intel, но при Сатье Наделле компания резко развернулась в сторону облачных сервисов. Если Microsoft хочет широко интегрировать Linux в свою собственную операционную систему, ей всё равно, работает ли Windows на ARM или x86. Долгосрочная угроза для Intel и AMD — это потеря маржи и рыночного влияния, если x86 больше не рассматривается как лучший процессор по умолчанию.
Возможно, M1 (А14) начал эту трансформацию на рынке.
Apple M1
Apple M1
Сейчас процессор А14 в составе М1 имеет 4 больших и 4 маленьких ядра. Однако огромная производительность в расчёте на ватт позволяет надеяться на хорошую масштабируемость микросхемы. В течение 12 месяцев на свет появится A15. Не стоит удивляться, если это будет процессор с 6-16 большими ядрами, а в течение 18-36 месяцев мы увидим следующее поколение с 16-32 большими ядрами. И преимущество архитектуры ARM никого не будет удивлять на рынке и настольных компьютеров, и серверных систем.
Вот тогда Intel придётся по-настоящему плохо.
На правах рекламы
Наша компания предлагает в аренду серверы с современными серверными процессорами от Intel и AMD. В последнем случае — это эпичные серверы! Виртуальные серверы с AMD EPYC, частота ядра CPU до 3.4 GHz. Максимальная конфигурация — 128 ядер CPU, 512 ГБ RAM, 4000 ГБ NVMe. Создайте свой собственный тариф самостоятельно в пару кликов!
zaq1xsw2cde3vfr4
С трудом дочитал до половины. Статью закали Apple в попытке голословно обгадить intel, MicroSoft и возможно ещё кого-то (дочитал только до половины). Так пафосно распинаться о поглощении рынка, покрывая своими макбуками с макОС малюсенькую долю рынка.
Эту статью следовало в политических изданиях публиковать, а не в технических.
fzn7
Intel действительно упоролись своим положением собаки на сене. X86 обратная совместимость это здорово, но intel должна была сама возглавить разработку инновационных чипов. История Kodak их ни чему не научила
DancingOnWater
Одно слово: Intanium. Его похоронила отсутствие должной совместимости с x86
thatsme
Нет, Itanium похоронила дороговизна и отвратительная цена/производительность с очень узким рынком. HP его заказал, HP его похоронил.
Ситуация с ARM совсем другая. У него офигенно удобная для производителей модель лицензирования с очень невысокой стоимостью. И именно поэтому, процессоры на архитектуре ARM сейчас доминируют (по крайней мере в мобильном сегменте).
И ещё они лезут в серверный сегмент, предлагая меньший TDP, при сравнимой производительности (Amazon EC2). Также у ARM есть большой плюс для всех сегментов рынка, — отлаженные ОС, с многолетней историей.
Т.е. перенос софта на ARM с x86, — это вопрос поставки десктопов с ARM разработчикам. Apple делает именно этот шаг. Т.е. не для мобильных разработчиков, у которых это всё уже итак есть, а для десктопных. И закладтвает базу, для продвижения своей ОС вместе с «новой» (правильнее сказать проталкиваемой) аппаратной архитекутрой. Если ч-з 5 лет нёрды не будут хотеть убивать смузихлёбов за фразу «MacBook for gaming», это будет означать, что раскрутка от Apple удалась.
DancingOnWater
Давайте разделим мух от котлет. Apple И Intel.
Вот вы говорите, что у Itanium отвратительна была цена/производительность?
Вот производительность в каких задачах вы брали? Ведь оный на момент своего выхода (начало 2000-х) это конкурент Alpha. Причем успешный, если все пользователи последнего перешли на Itanium.
Проблема была в том, что в самом массовом сегменте на тот момент доминировала x86-архитектура, команды которой транслировались в IA64 очень плохо, таким образом, выйти к широкому потребителю было нереально.
Intel стала заложником успешности своего детища с одной стороны и конкуренции с другой.
Оно не могло вложиться в новую архитектуру, т.к. новая архитектура это кап вложения для разработчиков, которые они не хотят делать. Это с одной стороны.
А с другой нету никакой возможности вложиться на полную в новую архитектуру, т.к. конкуренты готовы урвать свой кусок. И AMD это активно делала.
Во всей этой истории я до сих пор не понимаю почему они не дали ход своей видеоархитектуре, т.к. их интегрированная всегда была уровне.
Gordon01
У них она была, но слишком наркоманская https://www.youtube.com/watch?v=um-1fAVU1OQ
https://ru.wikipedia.org/wiki/Larrabee
beeruser
Кормили сказочками.
Itanium был убыточным бизнесом для Интел вплоть до 2009г.
Забавно, что в том же году обанкротилась SGI, которая сделала ставку на Itanium.
bits.blogs.nytimes.com/2009/11/17/a-decade-later-intels-itanium-chip-makes-a-profit
Быструю видяху у них только Apple и выклянчивал. Поэтому они кое-как выпустили Iris. Ну и сейчас пытаются что-то сделать с Xe. Но очень долго запрягают. Пока что кроме несчастного TGL и аналогичной ВК для десктопа у них нет ничего.
amirosta
Вы мешаете в кучу успех у потребителя и успех у производителя.
Для того чтобы выйти на безубыточность нужны большие объемы производства. До достижении этих объемов вполне можно выпускать продукт как убыточный, планируя отыграться потом.
Если этого не сделать — покупатели ни будут раскачивать объемы покупок. Это может сделать только производитель.
alex-open-plc
Вы пробовали работать на титанике? (так прозорливо называли его эксплуатанты). Видать зря Oracle отказались делать СУБД для него…
Мне довелось «потренироваться» в работе на титаник+OpenVMS. Это нечто! Дикое количество ключей оптимизации, при этом практически никогда не удавалось достичь желаемой производительности. В общем титаник своё дело сделал. Утащил на дно OpenVMS и Alpha.
BD9
Не титаник, а Итаник.
Иначе не смешно.
thatsme
> Вот производительность в каких задачах вы брали?
Я не про производительность. А про цена/производительность. Бизнес считает деньги. А потом Oracle выпускает Exadata на х86, и хоронит супердома окнчательно, прекратив разработку ПО для Itanium в 2011, после заявления Intel о EOL Itanium.
Всё, — платформа мертва. Интел прекратил заниматься фигнёй избавившись от убыточного производства. HP не создал массового рынка для Itanium и не занял значительной ниши в Enterprise. HP-UX имел просто отвратительную поддержку в плане свежего ПО. HP не стермился создавать массовый продукт, он не создавал массовую экосистему, как это делали Intel&MS, и Intel&IBM&RedHat и куча других включая Google.
Itanium изначально был маргинальной системой, не оправдывающей своей цены.
DancingOnWater
Один из параметров ясен (цена), а второй?
Я никак не пойму, как это обосновывает утверждение, про соотношение цена\производительность в 2001 году…
thatsme
п р о и з в о д и т е л ь н о с т ь
spec.org, tcp.org
Создав дорогой процессор, удешивить который не смогла, и параметр цена/производительность вытянуть на уровень не смогла. HP не смогла создать рынка (внутри куча факторов, читайте пост выше).
Если ещё что-то не понятно, спрашивайте.
DancingOnWater
А вы, добрый человек, хам. Ну, ок, будем тыкать носом.
Вот два результата:
Alpha
Itanium
И снова я вас спрашиваю. По какой задаче вы меряете производительность: по вычислениям в гидроаэродинамике или по распознаванию изображения?
thatsme
Серьёзно? Сравниваете Alpha на 1150MHz с Itanium на 1500MHz? Ну ок.
Почему не сравнить с тем, что не умерло?
2007-й год SunFire X4100
98,857 QphH, 2.65 USD per QphH
www.tpc.org/tpch/results/tpch_result_detail5.asp?id=107102901
2008-й год HP Integrity Superdome
63,650 QphH, 38.54 USD per QphH
www.tpc.org/tpch/results/tpch_result_detail5.asp?id=108022701
www.tpc.org/tpch/results/tpch_result_detail5.asp?id=109090801
2009 HP ProLiant DL380 G6
51,085 QphH, 1.09 USD per QphH
Вы думаете Oracle, Exadata на х86-х запустила и линейку SuperCluster просто так похоронила, хотя SuperCluster на SPARC-ах в TPC-C например лидером был? Нет, не просто так, топ производительность за больше деньги никому не нужна. Нужна за разумнеы деньги.
DancingOnWater
Сравниваю два конкурента на момент выхода. А разницу в тактовых частотах Opteron в то время неплохо нивелировал.
Itanium вышел в 2001, Itanium 2 в 2002. Тогда же были и планы выхода на широкий рынок. Однако этого не произошло, т.к. x86 плохо выполнялся, а доп. козырь в виде 64-битной архитектуры успешно выбил AMD.
И отжимал со страшной силой долю, вплоть до 2006 года, т.е. до выхода Core 2. И в 2007 году вы сравнивать архитектуру в которую в течении 5 лет вкладывались деньги и проц, финансировавшийся по остаточному принципу, а потом делать вывод о том что его сгубило…
Про Exadata и SuperCluster не моя тема. Но Гугл говорит, что Oracle запустил Exadata в 2008 и сразу на x86, а SPARC-и им достались от Sun, которую они поглотили в 2009-2010 годах. А SuperCluster похоронен в 2019 году.
И опять же, для БД, на которые вы упираете, важен не сколько параллелизм (а это главная фишка Itanium), сколько размер кэша и скорость доступа к оперативке.
thatsme
Всё что вы написали, абсолютно никак не меняет ситуации, а именно: HP не создал массового продукта, сразу создав маргинальную дорогую архитектуру, просто проигнорировав по началу x86, а AMD&Intel создали, они создали рынки. Теперь точно также, все кто не запрыгнут на паровоз ARM, будут удивляться почему они нишевые, и сколько им жить осталось, с каждым годом всё больше платя за свою нишевость.
Все остальное значения не имеет.
Ваша демагогия, и припысывание мне, не изречённых мною слов, также значения не имеет. Ключевой показатель всегда будет цена/производительность, который напрямую влияет на возможность создания массового рынка.
bm13kk
Этот тред читать интересно. Обе стороны в чем-то правы. Аргументация у обоих есть и есть что почитать.
Если бы не переходы на взаимные обвинения.
Aberro
А я не понимаю, в чём проблема выделить одно-два ядра под x86 обратную совместимость, официально объявив, что x86 остаётся лет на двадцать только как поддерживаемая, а не развиваемая архитектура, с небольшим приростом производительности от серии к серии, и параллельно к ним добавить ядра с новой архитектурой?
Возможно, это и сложно с точки зрения разработки, но сложнее ли это того, чтобы медленно и мучительно пытаться перестраивать самолёт из старого кукурузника в аэробус прямо на лету?
ProFfeSsoRr
А разве интел позволяет сейчас кому-то взять и сделать x86-совместимый проц?
Areso
Я думаю, что VIA и прочие аутсайдеры процессорной гонки, но имеющие, тем не менее, лицензии и патенты на x86, вполне смогут лицензировать технологии за скромное вознаграждение.
en.wikipedia.org/wiki/List_of_x86_manufacturers
khajiit
Это будет что-то уровня Pentium-M в лучшем случае… Rosetta быстрее.
ProFfeSsoRr
И вот вопрос: зачем разрабатывать с нуля свои быстрые x86 ядра ради обратной совместимости с нормальной производительностью, если можно прямо решить поставленую цель «сделать быстрый ARM», ну а коли он быстрый — он и софтовый эмулятор достаточно быстро заэмулирует.
x67
Тут скорее вопрос, какая архитектура таки перспективнее. Но тут можно устроить кучу срачей на эту тему и ни разу не приблизиться к ответу на вопрос
И имхо, переход на арм это конечно важный шаг для эппл, более того, уверен, за эппл последует и майкрософт, сделав нормальную вин 10 для арм, но это не говорит о том, что интел обречена. У них много денег, опыта, тысячи специалистов своего дела и только их решения покажут, насколько интел готова к будущему. Несомненно арм отжимает солидный кусок рынка настольных ПК, но это нормально вполне и происходит уже не первый год
Aberro
Честно говоря, я не вижу перспективы за x86 в упор. Т.е. её всеми силами пытаются вытащить на пристойный уровень разными оптимизациями, но те же оптимизации в значительной мере можно применить и на других платформах, за счёт транзисторного ресурса (другой вопрос — стоит ли). Главный ресурс Intel — это как раз R&D. Которые могут любое говно вытащить. Что не отменяет того факта, что x86, простите, старое говно. И если бы ресурсы Intel направить на развитие более современной платформы, мы могли бы получить очень существенный прирост производительности на этой платформе. За исключением, конечно, совместимости (что, опять же, обходится совмещением разных архитектур на одном чиплете)
Aberro
Полагаю, чуда не бывает. И даже очень быстрые ARM ядра по производительности в режиме эмуляции x86 будут сильно уступать достаточно быстрым нативным x86. А в довесок ещё и проблемы совместимости в духе старых загрузчиков, старых прерываний и прочего. Что вроде бы и решаемо, но с болью, багами и страданиями. Ибо до режима эмуляции нужно ещё предварительно раскрутить процессор.
И всё это решается внедрением нативных ядер (грубо говоря, плюс один контакт, напряжение на котором определит на каком ядре этот проц будет работать со старта).
maximnik0q
>А разве интел позволяет сейчас кому-то взять и сделать x86-совместимый проц?
Вплоть до уровня 486-Пентиума: патентная защита закончилась или заканчиваеться (25 лет на железо, есть еще авторское книжное право, но можеш обозвать команды по своему или ссылаться на добросовестное использование). Можешь производить или эмулировать архитектуру, другое дело кому такой уровень сейчас нужен.
rogoz
Вроде как 20 лет, и уже до уровня Пентиума 3, а скоро будет Пентиум 4 (SSE2), что позволит сделать процессор, который может выполнять даже современные x86-32 программы.
NetBUG
И это в тот момент, когда современные ОС как раз отказываются от поддержки 32-битных приложений?
maximnik0q
>Вроде как 20 лет
В США -25 лет.Срок действия патента зависит от страны патентования, объекта патентования и составляет от 5 до 35 лет (ГК РФ Статья 1363, ГК РФ Статья 1424).
rogoz
Что я видел в англоязычных источниках — 20 лет.
Вот, например, вроде связанно с FMA: patents.google.com/patent/US8745119B2
maximnik0q
>Что я видел в англоязычных источниках — 20 лет.
Суды США разрешили продлевать до 5 лет срок действия патента- в случае засекречивание патента, обоснование окупаемости разработок по технологии патента и в случае дополнения или усовершенствования патента. В общем из-за патентных троллей непонятная ситуация, поэтому юристы перестраховываються и рекомендуют исходить из срока 25 лет, если только сам патентообладатель не заявил что срок истек или предоставил в публичную собственность
Aberro
А что не позволяет самому Intel сделать то, о чём я говорю?
ProFfeSsoRr
Интел ничто не мешает, но только эпплу это зачем? Если они хотят перейти на свои процы — зачем им оставлять ядра x86? Тут как раз нужен баланс между «вот у нас есть эмулятор, чтобы вы могли быстро че-то запустить» и «эмулятор недостаточно быстрый, вы все-таки следующую версию своего софта нативно напишите, а то юзеры не будут рады».
popov654
Мобильные разработчики сейчас пользуются для отладки эмуляторами (включая владельцев MacBook, к слову). Разве нет?
thatsme
Ага, я возможно вас понял. А у вас эмулятор для М1 с MacOS X есть? Или для любого другого десктопа на ARM под Linux? Или под Win for ARM? Ну т.е. мобильная разработка это одно, десктопная, чуть-чуть другое. И даже если о серверной разработке для ARM говорить, — в эмуляторе невозможно сложить адекватное представление о производительности.
Loggus66
Уверен, что большинство разработчиков тестируют ПО именно на QEMU, иначе Debian не смог бы выйти на aarch64 уже в конце 2014 ввиду отсутствия железа и дороговизны плат разработки в то время.
thatsme
В этом всё и дело. Кросс-компиляция ОС это одно. Мантейнеры дистрибутива переносят пакеты. Долго и печально, пока cross-toolchain отлядят, пока одно и другое оттестируют. А потом в любом случае берут железку, что-бы ОС на ней запустить и проверить, т.к. эмулятор всех особенностей конечного железа не эмулирует. А теперь к массовому разработчику. Много-ли желающих устраивать себе такой геморой? Нет, только энтузиасты, и штучные фирмы. Почему? Потому, что это создание рынка ПО, для платформы которой ещё нет (я про десктоп). А где разработчики игр? А они не работают с платформами которых ещё нет. Даже для будущих коснолей рынок создаётся, и разрабы получают материалы и образцы заранее.
Почему Linux не завоевал десктоп? Потому, что игры для него пишут в 100 раз реже чем для Win и консолей. Все отговорки про «линукс сложен для домохозяек», — бред. Эта сложность скрывается без проблем при вкладывании бабла (и в разработку и в маркетинг), как это было сделано с Android. Это как раз и есть создание рынка. Для десктопов на Linux, никто не создаёт рынка, и если пытаются, то мелковато, и рынка выстроить не в состоянии.
Игры это просто пример. Возможность делать массовый продукт вот, что важно.
Почему Chrombooks до сих пор существуют на ARM? Потому, что есть рынок. Который создал Google. Скрыв сложность Linux от домохозяек. Google в это вложился и создал рынок. Теперь тоже самое делает Apple. Причём пока в той-же нише примерно.
Массового универсального десктопа на ARM, не существует. Его нужно создавать, создавая рынок.
Areso
Смотрю на свою библиотеку в Стиме и не согласен. Примерно четверть игр портированы на Linux. Спасибо дядюшке Гейбу, еще столько же запускает Протон.
quwy
Тут даже цифра 90% отобъет охоту у 9 из 10 потенциальных клиентов. 10% не идущих игр (причем, скорее всего, самых свежих и хайповых) заставят почувствовать себя неполноценным любого заядлого геймера. И ради чего?
khajiit
Так для ублажать хайпожоров есть консоли.
А на ПК до выхода первого/второго
сервиспакаSeasonPass заядлые геймеры как раз и не смотрят — там еще в Discples II и HoMM III не все переиграно.Storan
Консоли давно уже в реальности не про хайп и блаж.
Вот, буквально новое поколение выкатили — и они со старта уже слабее нынешних игровых компьютеров (правда пока лишь топовых, но ведь компы станут мощнее через год, ещё мощнее через 2 и т.д.), и вовсе без эксклюзивов приставочных.
То есть по факту, для рынка Европы/Америки консоль — это в первую очередь очень дешёвая железяка для игр ~0.5k$ vs ~1.5k$ у PC, но с тем же самым набором игр (и по той же стоимости что немаловажно, там же нет региональных продаж на компах по ценам в 2k–3k ?).
khajiit
То есть, у этого автоматически пропишется в системнике Ryzen 6950X, а то и целый TR X990 и парочка 4090? )
Топовое доступное на рынке к массовому отношения не имеет.
Смотрит на цену 2077 в steam и psstore
Ню-ню. Консоли — это, прежде всего, сервис и унифицированная программно-аппаратная среда, т.е. отсутствие типичных софтовых заморочек.
Areso
Зато там есть скидки в 85%, которые в приставочных сторах появились лишь недавно и то не на всё.
Плюс на старые игры цена со временем уменьшается (издатели снижают «полный ценник»), а когда появляется скидка 85%, то это просто улёт.
К этому добавляем всякие humble bundle ($12 за месячную подписку с 6 играми на выбор из 24), оттуда же берём игры по $1, и так далее.
У меня в Стиме три аккаунта разных стран, поверьте мне, я знаю, о чём говорю.
Даже в США можно достаточно дешёво покупать игры. Если не гоняться за хайповыми тайтлами. А в этом помогают вышеупомянутые HoMM 3 и Disciples 2.
sumanai
А вы знаете, что нарушаете правила? Просто не вижу смысла в таких покупках.
Areso
Я могу либо пиратить, либо покупать игры, недоступные в моём регионе, на американский аккаунт. Предпочитаю второе.
Обычно американцы и европейцы заводят аккаунты развивающихся стран ради экономии, у меня американский аккаунт не ради экономии.
VolCh
Конкретно за Стим не скажу, но в некоторых сервисах мне поддержка рекомендовала заводить аккаунты для разных стран, как стандартный способ разруливания ситуации "гражданин одной страны и резидент другой страны"
thatsme
Дело даже не в играх, игры, это просто пример массовости применения. Возможность спрятать сложность как для потребителя, так и для разработчиков контента, — основное условие для создания массового продукта. Как велосипед — просто.
burzooom
Вы про новый электродвухподвесный Specialized Epic Levo интеллектуальными задним амортизатором с платформой, регулировкой отскока, компрессии, и беспроводным управлением? Да, простой механизм, всего 14000$
thatsme
Нет, я про: телевизор, видеомагнитофон, CD/DVD/BluRay-player, игровые консоли, телефон, велосипед, смартфон, планшет, холодильник, стиральную машину, и т.д. Бытовое применение со скрытой сложностью, — массовый продукт.
chupasaurus
Debian-у первые железки подарили ещё в марте 2014, а сам порт начали готовить практически сразу после анонса архитектуры в 2010.
amirosta
При эмуляции x86 только.
В нативном режим Itanium себя хорошо показал.
BD9
Враньё.
HP судилась с Интел чтобы Интел продолжала выпускать Itanium. Интел не смогла написать хороший компилятор для него.
Если бы AMD не сделала AMD64, то сидели бы на Итаниумах щас.
После покупки ARM Нвидией и разрушением Трампом свободного рынка этот ARM стал нафиг никому не нужен. Переходят на RISC-V или OpenPOWER.
Яблоко влило денег в продвижение своего проца, и
всенекоторые тут начали его расхваливать.Серверные ARM много кто делает, пока не преуспели особо.
ProFfeSsoRr
quwy
Не любого человека, а любителя надкусанных яблок. Это они умеют, да. Но тех, кого в секту затянуть раньше не удавалось, не получится и сейчас. Очень уж многих раздражает такой подход к технологиям и маркетингу.
VolCh
Ну вот после анонсов и обзоров М1 я в первый раз серьёзно задумался о покупки Air, а то не читал, но осуждаю. )
sshikov
Ну, не все задумались. Хотя бы потому, что высокая автономность многим нафиг не сдалась. Ну вот зачем вам ноут с работой от батарейки 20 часов? Все равно ведь в лес его на неделю не возьмешь, а в обычном суточном рабочем режиме всегда можно зарядить. Т.е. есть некий лимит автономности, выше которого уже бессмысленно ее наращивать. А вот скажем текущий декларируемый лимит на объем памяти 16Gb — это засада так засада.
P.S. У меня вот вообще два ноута, и все живут от розетки. Всегда. А мобильным является телефон или планшет. Ну и там да, ARM, в телефонах-то.
Areso
Я много путешествую, часто бываю на всяких конференциях, движухах, мероприятиях. Там можно найти розетку — как правило — но сидеть привязанным к розетке весь день значит пропустить большую часть движухи.
Поэтому у меня все ноутбуки живут не меньше 6 часов от батареи, это одно из обязательных требований при выборе и покупке.
20 часов — очень круто. Это когда утром туда, днём там, вечером обратно. Всё это на самолётах / поездах. Грубо говоря — гарантированные сутки работы (с перерывом на сон) в реальных условиях.
sshikov
А зачем вам сидеть привязанным? Вы же не можете заниматься движухой больше скажем 16 часов в сутки — потом вы все равно ложитесь спать.
Ну т.е. я согласен, что 20 это круто — но это практически предел. Я бы даже сказал, что предел это 24-8 на сон, или еще меньше. И больше никому практически не нужно. И да, работать 16 часов вредно, это я вам уверенно говорю.
Areso
Смотрите, 20 часов, заявленных производителем, это при 50% яркости, с отключенным wi-fi, при наборе текста в notepad или воспроизведении видео хардварным ускорителем. То есть это сценарий во сферическом в вакууме.
В реальности там будет включен wi-fi, будет работать IDE, например PyCharm, который при каждом допечатывании условного класса или объекта нагружает проц под 100% (пилорамная нагрузка, вверх-вниз), браузер (о прожорливости JS кода не говорит только ленивый), что-то там еще. То есть реально время работы будет меньше. Причём, я думаю, минимум на треть.
И потом, я не работаю 16 часов, я могу на движухе быть 16 часов, а это не работа, это развлечение (раз в месяц-два). Наконец, ну сидишь в аэропорту, в самолёте или в поезде, делать нечего. Достаёшь лэптоп и фигачишь.
К примеру, написал систему деплоймента средней руки проекта именно в аэропорту. Ну получилось так, нахлынуло вдохновение.
В другой раз летал — написал торгового бота.
sshikov
Знаете, если бы я в молодости не работал по 12 часов, я бы сегодня возможно был более здоровым, чем есть. Так что — просто не советую.
И потом, я изложил свой сценарий, он вполне типичный — многие ноут вместо настольной машинки держат только ради того, чтобы перенести от одного стола с розеткой до другого. Иногда — выйти в переговорку (где тоже есть розетки и экран). В моем окружении это практически все. Я не говорю что это все — но таких много.
Wingtiger
Не в качестве спора или наезда.
Не такой уж молодой и с детства не здоровый, 3 работы, 14-16 часов в сутки только где-то на работе не считая дороги и 6,5 дней в неделю…
А что делать, если зарплаты с этих 3 работ едва дотянули до половины средней по области? Что на одну не проживёшь, а уехать — нормально оплачиваемую работу не смог найти
Areso
Раз уж начали оффтопить:
предлагаю воспользоваться моментом и найти удаленную работу (пока бушует пандемия, даже банки вынуждены держать бОльшую часть айти сотрудников на удаленке).
Сейчас даже ручным тестировщикам-джуниорам платят вполне достойно. Если вдруг не вы не админ и не умеете программировать.
P.S.: я почти так и сделал. Осуществил давнюю мечту — найти работу в другом городе без переезда.
wormball
> Не такой уж молодой и с детства не здоровый, 3 работы, 14-16 часов в сутки только где-то на работе не считая дороги и 6,5 дней в неделю…
Не здоровый? Гагарин по сравнению с вами овощ на искусственном дыхании. Вы вообще спите? При таком здоровье вам прямая дорога на олимпийские игры — все медали соберёте.
> А что делать, если зарплаты с этих 3 работ едва дотянули до половины средней по области?
С такой работоспособностью минимум в Москву можно ехать чисто на авось автостопом без гроша в кармане. Что за область и что за работы хоть?
sumanai
Не уверен, что она есть. Так то и улицы можно мести по 14 часов в сутки. Правда мне кажется, что даже дворником можно заработать среднюю по области, если так упахиваться.
Areso
Вы же когда-то работали в МУПе/ГУПе, если мне память не изменяет. Много зарабатывали?
sumanai
Нет в ГБУЗе. Для 2011 года зарплата была неплохая, я мог себе позволить флагман от Самсунга. Но зарплата забыла вырасти после падения рубля, а сейчас работая программистом я не могу себе позволить тот же топовый самсунг.
wormball
Улицы мести по 14 часов в сутки — по-моему это уже сверхчеловеческий подвиг. А вот сторожем 14 часов в сутки — вполне. И зарплата такая и будет, наверное.
Wingtiger
недавно заменял сторожа — днём сидишь админом, ночью спишь сторожем, опять днём админом… Но почему-то устаёшь будто работал физически. То есть ночью отдыхать не получается.
А зарплата раньше была на 1 тыр больше, чем вышенаписанное "днём админом", сейчас она заметно меньше. Ну и оно "сторож-истопник-дворник_у_здания"
Wingtiger
нельзя. Им платят столько же (сколько инженерам, эникейщикам и "почти админам"), но при этом вакансий дворника давно нет, заняли пенсионеры.
Wingtiger
день техником-админом, 2-4 часа на прежней работе эникейщиком и до 22-23ч у знакомого на мебели, где на данный момент из постоянных работников остался я один (кто болеет, кто уехал домой в другой город...)
sshikov
Ну а вы думаете, я всегда что-ли ради развлечения по 12 часов и т.п.? Нет, было по-разному. Но итог в общем одинаковый.
И кстати да — удаленка. По нынешним реалиям все почти ее предлагают. За последние пару месяцев мне приходило штук пять предложений пообщаться, и пару раз удаленку предложили с ходу, даже не спрашивая меня.
cepera_ang
Это одна из тех вещей, о которых не задумываешься, пока их нет.
"да зачем мне отходить от розетки? Да зачем мне лишняя автономность? Да зачем мне ноутбук, который можно на два выходных взять без зарядки?"
А на практике — нет никакого лимита, после которого нет смысла наращивать автономность. Если бы ноут тянул месяц от зарядки (как старые мобильники) — было бы прекрасно. Ушел бы тикающий в голове таймер "а ты не забыл зарядку? А хватит заряда? А сколько там ещё осталось? А там куда ты идёшь будет розетка? А если запустить сейчас рендер или игрушку, то сколько реально минут оно протянет?"
VolCh
С другой стороны, так зарядка мастхэв, как ключи. А когда её раз в месяц только нужно использовать, то наверняка понадобится когда рядом не будет.
Areso
Зарядка это не только ценных мех, но и полкило веса в рюкзаке.
Chamie
Если ноут живёт месяц от аккумулятора, то ему и для работы должно хватать зарядки от мобильника.
VolCh
На фоне 4,5кг ноутбука и 1 кг сумки я пренебрегаю
Areso
Боюсь, что меня с такой бандурой в самолёт не пустят.
У меня настольный ПК в сборе легче, всего 3 килограмма :)
Chamie
Так это потому что без аккумуляторов!
sumanai
А там точно всё? У меня один охлад на ЦПУ около 1кг, а сборка переваливает за 20.
Areso
Точно всё. Это «мое виденье» как свободного
художникаинженера на тему Steam Machines. До того как они появились, и после того, как они сгинули в небытье.Core i7-4770 4C/8T 3.4 (3.9), 16GB, GTX 1050 Ti, 2*2,5 SSD в алюминиевом корпусе и с блоком питания на борту (правда, поскольку я начал до Steam Machines, то корпус делал под более распространенные тогда PSU TFX, а жизнь показала, что надо было под PSU SFX делать).
Размер 300*250*90, объем 7 литров.
Учитывая, что с первого дня жизни этого проекта я сменил 5 городов, то мне кажется, что идея была выигрышной.
VolCh
Похожий конфиг, кстати, у меня, только ещё 17" монитор и аккумулятор.
cepera_ang
Ну, то есть 12 шансов в год так подставиться. А если каждый день нужна, то 365 :)
VolCh
В расчёте на день вероятность сильно повышается, если надо раз в месяц заряжаться.
cepera_ang
Ну да, можно просто завести правило — заряжаться не позже 20% и тогда у тебя всегда будет неделя запаса работы :)
Zverienish
Ну люди ведь заряжают не именно когда достигает полного разряда. Если месяц работает и человек каждый день пользуется, то он временами будет подзаряжать его в течении месяца.
VolCh
С нокией 3310 это плохо работало )
Zverienish
Ну телефон в те времена часто в кармане болтался. С ноутом часто бывает что на столе. Если подключать к монитору по TB, то вообще заряжается. Да и сигнализировать можно начинать за пару дней.
AquiHostStrider
Железная аргументация! Мы, наше царское величество, властью, данной нам Богом, заявляем: автономность ноутбукам не нужна.
Бандура 14" стоимостью over 1k$ в лесу действительно не нужна. Такие машинки обычно едут с хозяином в автомобиле и носятся в дипломате или специальной сумке. Хотя, у кого-то бывает ещё такой кейс — научная экспедиция в труднодоступные места, куда можно разве что заброситься вертолётом.
Чтобы заряжать его также часто, как и смартфон — раз в 2-3 дня. Аккум дольше проживёт. И начнёт умирать уже тогда, когда сам ноут морально устареет.
Вот силюсь всё себе представить, где ж этот самый лимит есть. Вот были бы ноутбуки, которые могли бы работать неделю — тогда их можно было бы смело брать в отпуск, и не переживать, что в гостиницу не завезли розеток нужного вида, напряжения и частоты. Лимит автономности в настоящее время диктуется исключительно массой и размерами АКБ, а никак не длительностью работы.
sshikov
>Да ну?
Ну да. Я сказал «многим», а не всем. Если вы не умеете читать — это не мои проблемы. И не надо хамить в ответ.
VolCh
Не ради автнономности, у меня тоже ноут живёт от розетки всегда, если не забыл включить придя в офис или домой. Тут именно поиграться хочется ) Технически интересная штука получилась, кажется, если получится линукс и/или докер завести
sshikov
Не, ну поиграться — это святое :) Но лично меня прямо тут строго останавливает 16Gb. Ну что это за размерчик для работы?
Zverienish
Да, зачем такая же по характеристикам машина, но жрущая в два раза меньше. Ну проедет в два раза больше на баке. Чистой воды маркетинг.
sshikov
Ну вообще менять железки на новые (с низким потреблением) позволяют себе обычно конторы типа ЦОД, где потребление огромное. Никогда не видел, чтобы это делали для настольных машин или ноутов.
А вы что, реально верите тестам? Я думаю как раз это чистый маркетинг. Ну не на 100% конечно, но точно не без этого.
Ну и потом, мне вот нужно обновить машинку. Что вы думаете я буду ставить в первую очередь? Память до 64Гб.
Хотя я заранее согласен, что такие люди, кто рассматривает покупку HP ZBook — они меньшинство.
Zverienish
Все равно меняют и ротация идет, где-то быстрее, где-то медленней. И вот тот же сегмент ультрабуков может сильно покачнуться в сторону макбуков. Вчера только смотрел по цене. Макбук 13 про выжрдит дешевле при тех же характеристиках, чем леново экстрим. При том дешевле выходит машины с процем i5 и экраном с меньшим разрешением, яркость и цветопередацей. Да еще и тач раза в полтора меньше. Про звук даже и говорить смысла нет.
И если нет привязке к платформе, то зачем за худшее переплачивать.
По поводу тестов. Эти тесты кто только уже не выкладывает. Люди компы уже с 16 числа вроде бы получают. Так что тестам верю.
sshikov
>И вот тот же сегмент ультрабуков может сильно покачнуться в сторону макбуков.
В такое как раз вполне верю. Хотя сам не беру, предпочитая что-то типа HP ProBook в дешевом сегменте, как обновляемые, но понять такую покупку — легко.
uzverkms
Даже если 20 часов автономности не нужны, там есть другие интересные свойства. У ноутов — неплохие экраны, а в целом у линейки M1 — хорошая производительность в мультимедийных задачах, которыми часто занимаются энтузиасты. Фото, видео, звук — редактирование вот этого всего. А 16 ГБ оперативки «обычному человеку» ещё надо постараться чем-то забить. В быту самя ресурсоёмкая задача — компьютерные игры. Так для них больше 16 ГБ до сих пор не нужно. А тем, кому надо виртуалки крутить и прочую не совсем бытовую экзотику — так надо соответствующий инструмент подбирать, а не сетовать на недостатки конкретно этого.
VolCh
Недавно видел серию бенчмарков по играм, так там разница между 8 и 16 на уровне погрешности измерения.
Zverienish
Тут и объяснять не надо, все тесты говорят в пользу М1
bm13kk
Меня второй года интересует, почему все берут риск5 и никто не хочет опенПавер.
Можно пример, кто взял опенПавер и начал делать на нем новый продукт за последний год?
BD9
ПМСМ, RISC-V есть замена ARM, а OpenPOWER может заменить AMD64, особенно серверные. Но эти серверные AMD64 слишком хороши от AMD и Intel.
А в общем, тоже удивляюсь.
bm13kk
Серверных технологий сущуственно не хватает в рабочих станциях. Сейчас работа делится на бумажную (чаты, почта, веб, ххх-офис) и профессиональную (кодирование, проектирование, создание медиа и прочее). И очевидно деление.
Мне и большинству читателей хабра нужен настольник с серверныими технологиями. Замена железа хотсвопом, как явный пример. Хотя на самом деле — всяки мелкие фиксы совместимости. Которые полностью игнорят для "десктопов" и дают только серверам.
Я был бы рад ПСИе карте с армом или риском, куда я мог бы залочить (например виртуализацией) бумажную работу. И быть увереным, что говно-софт на електроне не мешает (не жрет ресурсы) моему куберу работать.
BD9
Дык всё есть, просто не в РФ, ибо дорого по сравнению с ценой рабочей силы. А так были и есть Xeon для рабочих станций, и Threadripper, где и много ядер, и ECC, и прочая.
VolCh
И даже для ноутбуков
AquiHostStrider
Dr_Faksov
Это НЕ обычный пользователь.
Ну и прикиньте, сколько надо вложить денег, и сколько потом продать устройств, чтобы получить прибыль.
Zverienish
Берете малинку и делаете это все.
Gordon01
Были геймерские карты с подобным функционалом — не пошло.
Но в целом, вы описали функции типичного роутера. Так почему бы его и не взять?
quwy
А что это дает, кроме невозможности автономной работы? Только экономию порта на свиче?
Если делать плату расширения с чужеродным процессором, то уже как полноценный сопроцессор, на котором будут запускаться приложения для этого процессора. Как Orange386 на яблоках 90-х годов.
Zverienish
Да такое единицам нужно. Очень много девелоперов с ноутов работает. На удаленке так это большой плюс, нет привязки к месту.
maximnik0q
>HP его заказал, HP его похоронил.
Это слишком темная история.Это был типа совместный проект.Зачем менеджеры НР похоронили свой успешный процессор не понятно.(ходят слухи про утечку инфы о переговорах Бабаяна с SUN) Да они отставали по частотам про сравнению с тем же Alpha.Но был очень экономный процессор, у них при хорошей производительности кэша 2 уравня долго не было, только в последних перед закрытием появились.А так был лидером по командам за такт-до 6 шт с арифметикой!
phdnk
Может у Itaniumа есть еще шанс, например если ему укоротить бандл команд?
Сделать Not So Long Instruction Word. Насколько я понимаю, именно с шириной VLIW был допущен просчет, что потом компилятор не мог наполнять бандлы командами. При этом остальные идеи в IA-64 весьма ценны и их жаль в стол хоронить.
beeruser
Там и так 3 инструкции максимум. Куда уж ещё укорачивать?
В современных реалиях эти идеи гроша ломаного не стоят.
Предел возможностей Itanium это линейные циклы с вращением регистров
netch80
У него нет шансов, пока из-за тормозов DRAM получается, что из L1 получить данное это 1-2 такта, а из DRAM — до 200 (иногда и больше). Эта неровность убивает любое пред-планирование команд.
Хотя можно, конечно, комплектовать SRAM?ом. Для некоторых задач и 10-15-кратное удорожание оперативной памяти вполне сойдёт… там и кэш будет не нужен...
Дело не в ширине, дело в том, что оно explicitly parallel instruction computing.
Это какие же?
amirosta
Разве у ARM нет обратной совместимости?
n0isy
Ох. Там в x86 такая совместимость с прошлыми поколениями, что даже количество опкодов сложно подсчитать.
Zverienish
МС не обгаживали. Они вообще молодцы вовремя дивесифицировали рынок. И теперь если даже весь десктоп упадет, они выживут. А вот Интел и АМД да. Не удивлюсь, если в ближайшем будущем АМД выпустит на АРМ архитектуре процессор.
zaq1xsw2cde3vfr4
Весь десктоп никуда не упадёт. Есть туева куча задач где производительность важнее «энергоэффективности». Собственно говоря x86 тоже не стоит на месте в удельных энергозатратах.
Я не хочу сказать что нет косяков у intel, AMD или MS, но статейка откровенно попахивает чёрными PR'ом от Apple.
theschmidts
Intel должен бояться не Apple, а как раз Nvidia: именно они сосредоточили у себя разработку и cpu и gpgpu.
Самое смешное, что я в 2007 году лично слышал от маркетинговой шишки Интел рассказ о том, что будущее за носимым компьютером/телефоном и что это будет главный рынок. Забавно, что, все понимая, эти этот рынок проспали.
StjarnornasFred
Они пытались не проспать: были смартфоны на Атомах. Кстати, процессоры по тем меркам были весьма неплохие, на них даже флагманские устройства делалась (Lenovo K900, например). А потом… Ну, это уж нам неведомо.
MockBeard
точно, Asus P750 на Intel XScale до сих пор вспоминая с теплотой, хотя очень сцуко дорогой ))
dvrpd
XScale — это всё-таки ранний ARM, а не x86.
BD9
Ранние ARM — это 80-е — начало 90-х.
XScale — никак не ранний.
MockBeard
я в курсе, имел ввиду, что для своего времени Intel делал хорошие ARM-ы (по производительности и энергопотреблению)
NetBUG
Уже на Marvell XScale.
В 2006 году продали.
tmin10
А потом под ними не всегда запускался софт из-за процессора, увы( Хотя и очень редко такое встречал.
lonesimba
Или Asus ZenFone 2… через год после покупки сдох правда, точнее, графика померла.
Ivanii
14 лет назад Интел изготовил и тестировал 80ти ядерный процессор заточенный на потоковую обработку данных
hitech.tomsk.ru/2006/09/29/idf_fall06_intel_demonstriruet_80jadernyjj_processor_s_proizvoditelnostju_v_1_teraflop.html
www.ixbt.com/news/hard/index.shtml?07/75/60
VladVR
А сейчас такие же новости ходят про процессор из 256 атомных ядер или даже 512
Areso
Речь про nVidia Tegra? Они что-то не очень «взлетели», даже несмотря на пропеллеры /s
Revertis
В первую, «сверхинновационную» Тегру забыли положить блок команд Neon, поэтому там видео тормозило. Так и похоронили :)
Areso
После этого была Tegra 3 (и на ней были даже устройства без пропеллеров, смартфоны и планшеты), а позже были X1 и последующие модификации, и вот они все как бы хотели активного охлаждения.
Я помню, как облизывался на nVidia Shield Portable (Console). Но в результате вместо того, чтобы купить классную штуку, купил доллары (не прогадал).
WHATrushka
Сейчас они свою Тегру вполне успешно ставят в Nintendo Switch, которая отлично продается.
Areso
И даже воспроизводит игры в 480p в мобильном режиме.
Не поймите меня неправильно, но это как-то не пахнет массовой революцией. Скорее — нишевым рынком. Я знаю одного человека со Свитчем, и десятка два — с айфонами.
Yuuri
В 720p всё-таки.
И 65 миллионов проданных устройств — это немаленький такой «нишевый» рынок.
Areso
Речь не про экран, а про рендер.
www.eurogamer.net/articles/digitalfoundry-2018-switch-mobile-mode-analysed-in-unprecedented-detail
И там числа еще ниже называются. От 360p и далее 432p, 480p, 540p, в зависимости от игр и сцен… Динамическое разрешение, оно такое.
NetBUG
У меня был планшет от Asus на тегре3.
Про проц ничего плохого не скажу, а 1 ГБ ОЗУ было маловато.
Zverienish
К стати до сих пор выпускают и пользователи довольны приставками на них. Вот в следующее поколение армов если сделка пройдет, вполне может попасть нвидиовская графика.
Areso
И в них всё также ставят пропеллеры, по крайне мере в старших версиях.
Даже в 2019 году (когда было последнее обновление).
SkyPhantasm
Статья именно об этом. Intel должна боятся Apple не потому что они захватят традиционный для них рынок, а факта того что она приведёт на этот рынок ВСЕХ владельцев лицензий ARM. И вот как раз они и могут рынок отобрать. И да, Nvidia это первый претендент на эту роль. Но не стоит забывать что есть еще Китай, и вот он то вообще ящик пандоры — AMD Nvidia Intel Apple это всё компании США. Кто бы из них не победил в войне микропроцессорных архитектур, это победа США. Но десктопные ARM процессоры это новый рынок, а Китай на примере 5G показал как он может проявлять себя на таких рынках.
Areso
Буквально недавно была новость, что китайцы по поводу ARM так не считают.
bonta
Так себе будущее если оно за носимым компьютером смартфоном. Ни к чему такое ухудшение и редуцирование пользовательского опыта.
Понятное дело смартфон, планшет и ноутбук это удобно, но они не сравнятся с десктопом.
VolCh
Вот не понимаю, почему не сравнятся? Что позволяет десктоп, чего не позволяет смартфон с тем же набором периферии? Я сейчас не про производительность, если что.
wholeman
Во-первых дело как раз в производительности. В десктоп всегда можно напихать больше памяти и процессоры всякие помощнее поставить — там нет необходимости экономить место и энергопотребление, поэтому тяжёлые игры, 3D, компиляция больших систем на носимых устройствах неудобны. Что касается простых офисных задач, то с ними большинство современных телефонов, позволяющих подключить монитор и мышь с клавиатурой, вполне справятся (хотя часы вряд ли скоро до такого дойдут).
А во-вторых, x86 позволяет достаточно легко поставить любую ОС, тогда как для носимых устройств это не всегда возможно в принципе. Конечно, для большинства пользователей это не важно, но, например, для меня — один из основных критириев при выборе устройства.)
Zverienish
И кому оно надо больше памяти процессоров чтобы просто было? Единицам. Половина населения земли в интернете сидит почти только с телефона.
wholeman
Я написал, «тяжёлые игры, 3D, компиляция больших систем», можно ещё, например, обработку видео добавить. Думаю, что сейчас реально десктопы мало кому нужны, но такие люди всё ещё есть. С телефона даже смотреть неоптимизированные сайты неудобно, не то, что что-то писать. Хотя некоторые и довольно большие тексты набирают — по артефактам видно.
Areso
Телефон даже эту страницу открыть нормально не может с уведомлением о количестве непрочитанных сообщений. Просто зависает на несколько минут.
Snapdragon 636, 4 ГБ ОЗУ.
Zverienish
Ну так этот проц появился почти 3 года назад. И изначально был рассчитан на нижний-средний сегмент. У меня на 2х леней давности хоноре, в начеле пока страница грузилась подтупливал. Загрузилась и быстро ее проматывает без лагов.
Ivanii
Readme Note 5 6/64, Snapdragon 636, в Яндекс браузере, не мобильная версия, сама статья открывается быстро, домотав до начала комментариев затуп секунд на 20 и заколебешься мотать комментарии до концано без тормозов и подвисаний.
П.С. При свободной памяти вообще не подвисает, а если активно махать рукой то и комментарии пролистываются быстро. Памяти отжирает порядка 700 МБ.
Chamie
Браузер не указали. Посты с тысячами комментариев, например, судя по обсуждениям, ФФ открывает без проблем (подтверждаю), а Хром тормозит даже на i9.
dravor
Вообще, если отвлечься и подумать, то удивительно такое слышать в 2020 году, когда все уже просто носятся с утверждением что будущее, оно за числодпробилками: обработка биг дата, распознавания, ML/DL, генерация видеопотока с высокми битрейтом и кодеки к нему, дедупликация данных на ZFS RAID и т.п., смарт-контракты на blockchain и куча всего. А 6 млр хомяков со смартом в кармане будут потреблять ровно то, что для них сделают. Все эти фуфелы с постами в фейсбук из серии «Crowd Sourcing» — не они будут задавать тренды или генерить новую НТР.
В конце-концов, на чем создавать обещанный голивудом скайнет?
Wingtiger
на китайских армах где вместо каждого нейрона один китаец
sa1ntik
А можно и про неё. Флагманские модели значительно обгоняют всякие там нижнесегментные офисные машинки. Причём даже флагманы прошлых лет.
Но да, если прикрутить тот же объём периферии и допилить ОС — пользоваться смартфоном будет ничуть не менее удобно (по крайней мере для обычных офисных задач, я не предлагаю на нём чертить в электротехническом САПРЕ, которого туда не завезли, или пока не завезли).
Плюс USB Type-c, который стал универсальным стандартном и для зарядки и для передачи данных и для вывода изображения на экран (но, пока, увы с оговорками).
В итоге именно смартфоны могут сделать идею BYOD реальностью.
bonta
А вы измеряли производительность? Т.е. все эти многоканальные системы доступа к памяти, большая память, больше кэши, честные ядра (без малых и больших), на столько быстрые ядра, что родилась технология HT, которая пришла и в АМД (чтобы исполнительные блоки ядер работой, которые обычно почти не загружены), и вся мощь еще и охлаждается увесистым железом — и вот вы действительно думаете что мобилки, которые экономят каждый ватт, чтобы не перегреться — могут конкурировать с desctop.
Ну если текст редактировать, причем не большой, то может быть я и поверю. А так мобильное железо (если брать чистую производительность, без юзанья всяких узкоспецифичных расширений логики таких как какой-нибудь аппаратный кодек, ии и т.п.) — то вряд ли новейшие фламаны смогут потягаться с офисными low-end дестопными машинками, со схожим объёмом ram, 10-и летней давности.
По крайней мере у меня honor10, это типа флагман 18 года, и десктоп околотоп по меркам 2011. Ну нигде Хонор не быстрее, даже если взять основанный на quaker3 движок ioquake3, то на Андроиде спервого взгляда кажется что типа да, круто, красиво, но стоит сделать скриншоты на телефоне и ПК и разница в графике становится очевидна — на мобилке на сглаживания ни анизотропки. И более того все эти 60fps падают когда много игровых объектов.
Далее, листинг 36 мегапиксельной фотки в маштабе 1к1 это прям на нервы действует. Про комп думаю не стоит говорить что ему это легко — и так понятно.
Так что зря вы про производительность.
Кроме всего прочего — компы внушают доверие. Мобилки вам внушают? Да они мрут через 2-3 года очень аккуратного юзанья. А в компе если что-то сломается — можно в кратчайшее время изолировать прооблему и решить её. А с мобилкой — идти в сервис, где ее будут греть феном чтобы разобрать, а потом от этого фена пойдут желтые пятна после ремонта…
Мобилка — это карманный помощник — у него нет цели быть мощным, удобным и надёжным для договременной профессиональной работы. Нет и не будет.
VolCh
Не измерял, я же сказал, что я не про производительность. Я про форм-фактор "маленькая коробочка с сенсорным экраном, универсальным разъёмом для подключения хаба/док-станции и батареей". Понятно, что для задач типа компиляции миллионов строк кода за раз или рендеринга полноценного кинофильма большая коробка с той же плотностью электроники сделает задачу быстрее, но я о задачах, где количества транзисторов в корпусе телефона недалёкого достаточно для нормального UX в сценариях, где у современного десктопа CPU почти всегда в idle, потому что ждёт io, а оперативка забита кэшами файлов по сути.
Это если комп самосборный или типа того. А если это какой-то брендовый системник на расширенной корпоративной гарантии, то всё то же самое, кроме того, что автомобиль нужен до сервиса довезти.
cepera_ang
Вы кажется проспали анонс M1 — вот у него действительно многоканальная память, большие кеши и честные ядра =)
Chamie
У него половина ядер урезанные, речь шла об этом.
cepera_ang
А если смотреть на это как на то, что это четырехядерный процессор с режимом экономии, то уже не такие и урезанные :)
VolCh
Или 4 обычных, и 4 разогнанных )
Zverienish
Ну и что, что урезанные, зато основные ядра быстрее чем интеловские.
olegi
может проблема в хоноре? пробовали Dex от самсунга?
Zverienish
Жаль, что к стандарту не привели какому-то. Тогда бы очень много бы вообще от компов отказались. Если бы телефоны можно было как десктоп использовать.
Dr_Faksov
Вот у меня Galaxy S10. И Dex на Windows поставил сразу же. И использую его иногда для просмотра фото с телефона на большом экране. И всё. Вот не возникает у меня желания делать что-то через телефон, когда есть компьютер. Я, правда, уже не молод. Возможно, дело в привычке.
Paskin
«Мобилки» с точки зрения железа мне внушают абсолютное доверие — как человеку, работавшему с SoC от Quallcomm. А операционные системы сейчас переживают смену архитектуры — от звонилки и запускалки casual-игр к мощной платформе для реалтайм-обработки и представления данных (в том числе — средствами AI/ML/DL и AR).
Zverienish
Конечно конкурируют. В потреблении интернет контента уже давно и успешно. Тестировал свой телефон 2х летней давности и ноут 5ти летней на i3 и телефон заметно впереди.
quwy
Нормальную ОС он позволяет. Все эти андроиды и айосы просто непригодны ни для чего, кроме просмотра видосиков и залипания в социалочки с бесконечной прокруткой.
У меня был период, когда пришлось работать из дома, не имея нормального компьютера. Зато был добротный по тем временам 10"-планшет с 4 GB оперативки, 8-ядерным процессором, BT-клавиатурой и мышкой. Посмотришь со стороны, ну чем не субноут? А на деле — фиг! Даже если находился более-менее удобоваримый софт, работать на этом симуляторе операционной системы было решительно не возможно. В итоге я с этого планшета просто подключался к компу на работе по RDP и там делал все дела. Даже с сетевым лагом на контрасте это было божественно.
VolCh
Ну вот только за прошлый месяц вроде пара статей была про Linux-смартфоны. Или для вас нормальная опреационка- это WIndows?
Areso
Статьи — есть, продуктов в магазине — нет.
Librem Purism, PinePhone не делают погоды.
Это очень, очень нишевые решения, продающиеся хорошо если тысячами штук.
VolCh
Я же не говорю, что если прямо сейчас взять любой смартфон на рынке, то им можно заменить топовый десктоп. Просто высказал мнение, что если вендорам железа это будет интересно, то объективных препятствий не вижу.
ProFfeSsoRr
olegi
в декс-е был убунту?
Areso
Был. Один или два года. Потом убили.
olegi
ну, самсунг всегда был плох в софт :(
Zverienish
Тут не дело плох в софт, а востребованности.
NetBUG
Вендорам железа интересно телефоны с селфи-камерами за +30% к цене продавать любителям инстаграма, к сожалению. Это массовый маркет, а не portable office.
sumanai
С радостью бы купил телефон без этой ненужной дырки в экране за -30%, но адекватных конфигураций просто не делают.
quwy
Это пока такая редкость, что говорить не о чем.
Нормальная — это та, где можно запустить несколько приложений окнах. Где программы не навязывают пользователю ориентацию экрана. Где при наличии аппаратной клавиатуры, экранная не вылазит постоянно. Где программы знают, что тыкать в них будут не только пальцем, но и мышкой с несколькими кнопками. Где работают общепринятые комбинации клавиш. Где пользователь по-умолчанию не считается инвалидом по рукам и голове.
VolCh
GNU/Linux+Gnome/KDE/...?
quwy
Вот когда это все начнет работать на среднем смартфоне, тогда и приходите. А пока это только страшные слова.
Zverienish
Ну большая часть дома только для этого и использовала устройства. Вот им они заменили. Молодежь играет в основном на телефонах сейчас. Ну и айпады очень часто для профнужд используют.
Zverienish
В чем не сравнятся? По производительности текущие телефоны сравнялись с компами несколькилетней давности.
Ivanii
«который вполне может конкурировать с чипами x86» Как голый может, но без инфраструктуры материнских плат и софта(не только операционки) как ширпотребный ПК не может и не сможет еще долго, это как смерть IPv4 предсказывали.
StjarnornasFred
Зная авторитет Apple, можно не сомневаться: софт будет. Потому что как бы мы её не критиковали, но в чём ей не откажешь так это в умении внедрять инновации. Сами, может, ничего нового не изобретают, но внедряют на ура.
Ivanii
Софт под x86 писался десятилетиями, у меня под Вин 10 есть ПО с
20062000 года(Анирил турнамент), под ХП еще более древний.siziyman
Третьи герои работают под десяткой, а они уже 1999 года, так что можно и старше. :)
Tarakanator
В этом году играл в master of orion 2. Уже 1996 год.
Stecenko
Я в первый регулярно поигрываю))
lll000lll
Я тоже :)
Tarakanator
ну первый не считается… он даже на PSP под эмулятором работал.
porn
UT тоже 99-го.
Wingtiger
98го по времени выпуска (как нагуглилось), в 99ом добавилось карт.
И у меня УТ идёт слегка модифицированный под 10ку и современное железо.
Дум2 уже давно портированный на не такой древний движок.
А остальное да, уже этого тысячелетия.
iron-zorin
Age of Empire на десятке запускается даже без выставления режима совместимости.
sumanai
Скорее всего десятка сама применяет заплатки совместимости.
Fell-x27
Если это первый UT, то он был не под ХР, а аж под 98ю…
khajiit
Емнип, ему давно уже требуется подкидывать рендерер фанатский, потому что его старый OpenGL косячный, а подсистемы, на которые основной D3D/DDraw полагался, выпилены давно из винды.
Ivanii
Может у меня сборка позднее но на новой ОС он просто запускается с EXEшниака, в настройках «Direct3D», файлы игры 1999 — 2002 год.
AllexIn
Софт который вышел десять лет назад нет проблемы запустить через эмулятор аля Розетта.
Сейчас софт пишется сразу под много платформ.
Если раньше Windows X86 была безальтернативной платформой, то сейчас если софт даже и пишется под Винду, всё равно закладывается кроссплатформенность.
Ivanii
Quartus II, PCLab2000SE, Sprint Layout 6, AVRDUDEPROG, zadig-2.4, MiniPro Programmer, UnrealTournament, SDRSharp, Atom Mini, CH341A programmer, CloneSpy, KillCopy, EZP2019 programmer запустятся?
adante
Окей, останется >> 1% рынка, которому нужна древность / экзотика. И этот процент схлопнется, т.к. за уменьшением объемов придет увеличение цены.
Ivanii
+ кто не захочет платить за имя Аппле, + кто захочет нормальный видеоускоритель, кто просто хочет Интел или АМД, кому под ОС не дали драйверов…
adante
кто не захочет платить за имя Аппле
Невозможность нормально написать имя компании это диагноз.
кто захочет нормальный видеоускоритель
будет чуть попозже с mbp 16 и imac
просто хочет Интел или АМД
просто это как? как хочу красненькую машинку?
кому под ОС не дали драйверов
Да все появится. И ОС и драйверы. Эппл просто показала, что так можно, если продажи будут ок, все начнут мигрировать на АРМ косяками.
perfect_genius
А что вам мешает оформить цитаты и начинать предложения с заглавной буквы? :)
Ziptar
ООО "Огрызок".
Areso
Справедливости ради — ПАО (или ОАО — по вкусу).
vasiaplaton
Половину софта для прошивки из этого списка можно заменить openocd, который под raspberry pi (arm) работает. Sprint Layout в 2020 — серьезно? Хотя он то наверняка под эмулятором запустится.
JerleShannara
Зато следом можно накидать CAD/CAM софта, причём даже так, что и линукс отметётся.
vasiaplaton
Это да, с CAD'ами под линуксом все печально. Даже autodesk fusion 360 заводится с каким-то лютыми танцами с бубном под wine, а что чуть поспецифичней, так вообще грусть…
Zverienish
Кад думаю переделают под армы в ближайшие годы.
dartraiden
Offtop: CH341A programmer — это который китайский, крякнутый и накрытый сверху VMProtect? Идет в комплекте с копеечными программаторами с алиэкспресса. Но зачем? Для работы с этим программатором есть длинный список нормального софта (AsProgrammer, Colibri, flashrom в конце концов)
Wingtiger
del
NetBUG
Я на своём макбуке так и не мог перейти на Каталину, ибо ряд программ для обслуживания вполне себе не старых станков (2011 год, станки стоят сотни тысяч евро) писались под 32 бита.
strvv
да, но в результате развития из микробиблиотек на 1 функцию, но реально отлаженных в монструозные комбайны с тысячами вызовом, из которых хорошо если используется сотня в разных комбинациях (привет М-Софту и Гуглю) — в итоге не смотря на продолжающийся рост производительности аппаратуры, отзывчивость систем падает с каждой новой версией ОС, плюшек, да и глюков больше, а пользуется пользователь хотя-бы 10% возможностей?
у аппла (сам не использую, имхо) засчет контроля ПО не позволяется сильная гонка в размерах ПО, получается оптимизированнее, проще и за счет этого и их предпочитают — отзывчивость у систем выше чем у их конкурентов. большой выбор хуже чем 2-4 варианта, но максимально вылизанных. привет капитализму и сотни сортов
дерьмаколбасы.ProFfeSsoRr
А под MacOS? Они уже 1 раз переходили на интел и ничего, перешли. Так что и еще раз перейдут и весь софт, который деньги приносит, быстренько адаптируют так или иначе.
Zverienish
Это уже 3тья смена у них архитектуры.
quwy
Четвертая смена, т.е. уже пятая архитектура процессоров:
6502 -> M68K -> PowerPC -> Intel -> ARM
VolCh
У МакОси всё же третья. 6502 отношения к Макинтошам и МакОси не имела.
ptica_filin
UT для Маков тоже был. Ещё для тех Маков, доинтеловских :)
А сейчас, я думаю, даже среднему смартфону теоретически хватит мощи, чтобы его запустить в каком-нибудь эмуляторе.
NetBUG
… только поддержку Rosetta и эмуляции PowerPC дропнули через всего два релиза ОС. :(
olegi
свитчинг с 2005-6 и дроп в 2011. 5-6 лет. мало?
Louter
Софт без привязки к x86 тоже писали дисятелетиями: больно, долго, но я таки смог собрать пакеты под линух на armv7, когда их очень не хватало и самому таки запустить графическую оболочку, редактор в ней и прочие шалости (вроде браузера). А этого преемлимо-систематизированного софта с исходниками, инструкциями, .spec и .ebuild -ами огромная армада и она БАЦ!… и работает
У закрытого софта есть проблемы, увы, видимо скоро придётся регулярно запускать qemu под арм для эмуляции x86.
bonta
а я просто в Unreal 1998 года по сети играю. Удивительно, но для этой игры до сих пор фанаты создают новые карты.
Zverienish
Для вас будет эмулятор.
siziyman
Софт будет — под макось. К сожалению, одной макоси мало для «завоевания мира» в контексте ПК. Её, конечно, больше, чем Линукса (ещё раз — я о персональных компьютерах, не о серверах), но меньше, чем всего остального.
defaultvoice
На мой взгляд тут самое важное даже не конечный софт для потребителя, а качественный скачок библиотек и инструментов разработчика, работающих на ARM. А это, в свою очередь, означает, что как минимум на серверах платформа, наконец, будет широко распространена. Я лет пять назад пытался взять для пет-проекта сервер на арме и поимел очень много проблем уровня «питон слишком тормозной», «либа не собирается» и так далее. Очень надеюсь, что ситуация с приходом Apple и Nvidia поменяется
remzalp
Хм… Лет 5 назад на ScaleWay брал Baremetal Arm сервер, смеха ради, за копейки — на удивление проблем толком не испытал — php & python + mysql/sqlite
BogoMIPS: 50.00
Hardware: Marvell Armada 370/XP (Device Tree)
fougasse
А что, кросс не работаел 5 лет назад для АРМ?
Дебажить на таргете — это экстренные случаи.
А сборка — в принципе не имеет смысла, как мне кажется, особенно сейчас, когда с контейнерами легко сделать нужное окружение типа правильной версии gcc без танцев с бубном.
bm13kk
и у мака проблема с контейнерами. Что для меня перечеркивает вообще все обьективные достоинства арм как платформы.
xtrime
Докер для m1 в разработке, виртуалки (parallels, vmware) тоже. Просто в дев китах не было виртуализации. В финальных устройствах аппаратная поддержка есть. Поэтому разработчики подобного софта не успели к релизу.
Видимо apple очень хотела выпустить финальные устройства в этом году. Или результаты оказались лучше, чем они ожидали и пришлось форсировать сроки.
fzn7
Все будет, они пока что не выкатывали устройства для разработки
khajiit
Если подымается linux, то поднимутся и контейнеры.
Правда, некоторые вещи придется собирать под архитектуру ручками, благо oss под это и рассчитано.
Или появится повод глянуть в сторону Erlang/Elixir.playnet
Помнится, я в 2006 собирал кросскомпилом систему под арм
JerleShannara
А сейчас уже начинаешь думать — а может ну его нафиг, свежие ARMы вполне себе скоростные и можно прямо на железке собирать почти всё после разворачивания минимальной системы.
Zverienish
Ну компиляторы все давно уже отлично поддерживают компиляцию под армы. Еасли нет использования асемблера или конкретной привязки к оборудования, то все персоберется без проблем.
dhaenoor
Зная эпл — мы перестанем быть владельцами и компов, и софта
Bobnecat
Судя по T's & C's Microsoft мы уже арендуем свой жесткий диск с Windows 10 у них.
Al_Azif
Владельцами софта мы перестали быть лет 20 назад.
Просто кто-то не читает тексты лицензий.
И это касается не только Apple, если что.
amirosta
Чушь.
Просто не используйте для софта принципы, применимые только к материальным предметам.
Владелец софта — это его разработчик или тот кому разработчик передал права на продажу софта.
От того, что вы «купили MS Office» вовсе не следует, что теперь у вас есть права на многократную перепродажу лицензий на MS Office. А у фирмы Microsoft — эти права есть. Вот её и можно назвать «владельцем софта», а вы всего лишь «владелец экземпляра».
BD9
Нет.
Владелец права использования без права передачи другому лицу.
VolCh
Ограниченного неисключительного права использования.
amirosta
Необязательно.
К примеру в Германии даже Windows по лицензии OEM, что во всех странах привязана к железу и умирает вместе с ним, высудили право продавать.
Разумеется, не большее число экземпляров, чем купили.
wholeman
Владелец тех прав, которые предоставлены лицензионным договором. Если это — свободная лицензия, то права довольно обширны, но даже в этом случае владелец софта — кто-то другой.
i_Max2
Немного дополню — я лично под текст «Владельцами софта мы перестали быть лет 20 назад.»
Например 20 лет назад заплатив за лицензию Photoshop я не становлюсь владельцем программы но я могу пользоватся ей сколько захочу, пока у меня работает железо и операционка. А вот сегодня к примеру по хотению Adobe Photoshop перестанет работать по всему миру, кончится срок подписки и они например не будут больше его продлевать — а выпустят что то новое например…
amirosta
Это особенность конкретно Photoshop и лет этой особенности не 20, а всего лишь несколько.
NetBUG
Вот в этом и вопрос, насколько есть шанс пользоваться софтом без подписок.
MS Office последние пару лет тоже идёт в коробочной версии гораздо более урезанный, чем в подписке на Office 365, и я, естественно, не про облачные файлопомойки
Ndochp
Больше того, вы его продать могли спокойно. Что для меня гораздо больший ярлычек права владения. А стим игру уже не продать особо без доброй воли стима (есть ли она я честно говоря не помню)
Al_Azif
>> Чушь.
Вы поосторожнее с такими высоконадёжными заявлениями, а то я всё же напрягусь и найду политику лицензирования Alias PowerAnimator, например, который ещё 30 лет назад был исключительно _арендуемым_ продуктом.
Просто люди только сейчас начали понимать(когда это стало действительно массовым явлением) что они ничего никогда не покупали, они всё это время — арендаторы.
>>Это особенность конкретно Photoshop и лет этой особенности не 20, а всего лишь несколько.
Да ну? А вы исследования проводили, да? Вчитывались в лицензии?
PS: Надо будет Valve/Steam сообщить что они — «всего лишь частный случай и им всего лишь несколько лет». На Хабре специалисты сказали, ага.
linustechtips.com/topic/953835-you-own-the-software-that-you-purchase-and-any-claims-otherwise-are-urban-myth-or-corporate-propaganda
xabar
А что такое инфраструктура материнской платы?!
Интел предлагает «убогое» решение — CPU + мост. А на мамке у вас — разъемы, питание, ну и пара ПЗУ флешек с батарейкой. Ну и какой нить суперио чип, для всяких клавиатур и тпм.
Все остальное — в 2х чипах интел. А именно:
В мосте — контроллеры SATA, PCIe, Ethernet, USB и прочие вайфаи и итуси. В процессоре — контроллеры RAM, PEG (PCIe для видюх), графика, ME и прочие эмэмикмсы.
При этом я не понимаю зачем закладывать в мост 15 портов PCIe или 16 SATA или 16 USB, плодя количество ножек в геометрической прогрессии…
Большинство ARM — это SoC, без моста, все в проце. А Apple еще на него влепила RAM — вообще красавцы, выкинули сложную и не любящую тряску DRAM, заменив ее на memory-down. Мамка в таком варианте — просто плата со слотами расширения и развязкой питания. Какая тут инфраструктура? Нет моста — нет проблем при переходе между поколениями процессоров.
При этом у интел есть еще гадки ME, который не слабо потребляет, и хрен знамо чем занят. И загрузчик для интел (БИОС) — это тоже монстр в пинетках из UEFI, в котором черт ногу сломал. У ARM — все гораздо проще, лучше и понятней.
А запустить игру 99 года — можно и через эмулятор x86.
P.S. Uboot для ARM собирается GCC, под линукс. Интеловский EDK2 (скелет для UEFI BIOS) — лучше всего собирать в MS Visual Studio. У интела система сборки на «батничках». Когда увидел это — понял, они все, закончились.
nevelaev
Проснитесь, сейчас и интел комбайны делает в ноутбучном сегменте. Только ноутбук и смартфон — это 2 большие разницы, хотя бы по организации питания: разница на порядок. И интеграция компонентов в кристалл ни к чему хорошему не привела. Будет проще, говорили они. Будет дешевле, говорили они. Не стало проще, не стало дешевле. Комбайны вылетают, особенно из-за вечной интеловой проблемы с юсб, реже — из-за повреждения vrm, стоимость замены камня сравнима со стоимостью ноутбука, если цена, по крайней мере, до 30 тысяч, но не суть, потребителю не легче. Раньше это была замена относительно копеечного моста, особенно во времена южников/северников, ибо их состав позволял выпускать себя на старом окупившем себя обррудовании. Процессор же занимался сугубо своими делами, и от косяков остальной части пк не страдал. Если ноутбучные/настольные армки будут по цене хотя бы вполовину интела при равной скорости, либо ниже, то это еще куда ни шло. В противном случае, это очередной виток закабаления поребителя.
Areso
и в результате чипсеты грелись едва ли не больше Атомов.
Все же помнят кулеры на чипсетах — это оно — старое, окупившее себя решение.
nevelaev
дык никто ж не мешает выпустить чипсеты более нового поколения, менее жрущие. Старого оборудования сейчас завались, никто не заставляет на 90 или даже 130 нм гонять) Но это все равно удешевляет для потребителя. Впрочем, может рано или поздно придется вернуться. Вон, третьего дня проскакивала новость, что ЕС с 21 года вводит много интересных требований к производителям касаемо бытовой техники и электроники в плане ремонтопригодности. Не факт, что и до этого корыта не доберутся. В любом случае, не дело это, пихать все яйца в одну корзину. Правило старое, как яйца динозавра, пардон за каламбур) Как я написал выше, потребитель от этого вообще не выиграл кошельком ни разу. Интел упростил задачу лишь себе и компаньонам по отрасли. Техника стала лишь дороже но вместе с тем гораздо менее ремонтопригодной. И при всем при этом потребителя еще и постепенно приучивают к этому.
NetBUG
AMD выпустила X570.
Кто-нибудь сделал на нём материнку без кулера?)
sumanai
Делал.
khajiit
Удалось найти только mini-ITX от Asus, там, похоже, вентилятора нет на чипсете… Но есть 2(!) вентилятора на питании.
sumanai
Да не, были нормальные конфиги. Задорого. Я не стал брать. Сейчас так вообще есть B550, смысла в 570 в принципе нету. Жаль что не будет новых чипсетов.
khajiit
У этого пока X370… зато с wi-fi и за шапку сухарей.
NetBUG
Я без подковырки спрашиваю, минимум полгода не слежу за этой ситуацией. Просто помню, когда Х570 выходил, первые 4 или 5 материнок были с кулерами, типа не смогли обеспечить тепловой баланс без них
sumanai
Я без подковырки и ответил. Они есть, смысла в них нет. Но Х570 действительно горячий чипсет, и на этих материнках весьма большие радиаторы.
screwer
Лютый, феерический бред.
Запустите-ка прошивку от телефона А на телефоне Б. Там же ARM SoC, экономия ножек, все дела. Я даже на инженерных версиях железа готов запустить (чтобы исключить secure boot и проверку подписи вендора).
xabar
о, эксперты с 4пда прибыли…
nedden
Берешь последний ролик coldfusion с ютуба, переводишь и выдаешь за свою статью
Maxcube
А что вы ещё хотели от ещё недоученного журналиста, по большей части гуманитария? Он давно славится такими косячками.
sumanai
Косячки это опечатки или неправильный перевод специфичных терминов. Тут уже не косячки.
cepera_ang
90% хабра сейчас. Даже удивительно — неужели видеоролики уже стало настолько проще делать, что они становятся исходниками для текстового пересказа, а не наоборот?
sumanai
Ролики выгоднее делать, монетизация там проще.
M_AJ
Помнится, когда-то продавались книжки, пересказывающие сюжеты популярного голивудского кино. Это видимо что-то в этом роде.
WildHorn
Надо бота написать, который будет брать автоматически сгенерированные субтитры, переводить их, делать скрины, форматировать в пост и постить в бложик.
А, да! И рекламный блок в конце вставлять! Куда же без рекламного блока.
iproger
На утубе это есть больше 5 лет уже, парсить ничего не надо.
Fedorkov
Я в какой-то момент поискал глазами ссылку на оригинал и удивился, не найдя её. По высокому качеству материала, обилию ссылок на англоязычные ресурсы и лёгкому косноязычию становится очевидно, что это перевод.
StjarnornasFred
Имхо, главное преимущество x86 на сегодня — всеобщая совместимость. Если у меня есть какое-то устройство с процессором x86, то я могу зайти на сайт любой операционной системы, скачать сборку (Win/Lin/CrOS/etc) и, вероятнее всего, она успешно встанет на мой компьютер. И наоборот, покажите мне хоть одну ОС, которую я могу установить на произвольно выбранное ARM-устройство. Нет таких, это невозможно — под каждый планшет своя прошивка и т. д.
Javian
А еще тонны старого ПО, которое запустится или сразу или несложной подготовки среды выполнения.
zlo1
с появлением ресурсов подобных github, появилась неплохая альтернатива бинарному распространению софта
для тех кто используют к примеру Gentoo — архитектура (обратная совместимость) имеет меньшее значение чем производительность, энергоэффективность
Areso
И какова доля Gentoo среди прочих Linux пользователей? Это либо для энтузиастов, либо для тех, кто готов выжать из наличного железа самые большие попугаи.
Но для пользователей важно удобство, для корпоративного использования — вендор с поддержкой, сертификацией и курсами.
В результате Gentoo реально нужен единицам процентов. Даже среди (в среднем) продвинутых Linux пользователей.
Кстати, как представитель махрового ынтырпрайза, должен отметить, что даже за установку свежего unzip из исходников машину снимают с поддержки (вот так вот). В лучшем случае — соберут куда-нибудь в пользовательскую папочку, после десятка согласований.
JerleShannara
Как бывший пользователь кровавого ынтерпрайза в виде RHELа на поддержке — я просто писал тикеты, что что-то не работало/глючило, а в результате переписки прилетали скрипты и пакеты с инструкциями, как это поставить, собственно голова у меня не болела о «надо бы новый libwornderass скомпилить и поставить чтоб pimpmyfsck завелось», она болела у техподдержки красношляпых, у меня иногда только болела пятая точка с фразой «СРОКИ!!!!»
Как нынешний пользователь генты я сам понимаю, что я тут ССЗБ во всей красе, зато получаю именно то, что моя пятая точка себе хочет заиметь.
Areso
Тоже рабочий вариант, если у вас есть много времени.
Я работал (работаю) в RnD, там обычно просят «побыстрее».
0xd34df00d
Я от суппорта рхела не осилил дождаться свежего ghc, например. В итоге ставил себе в ~.
Впрочем, их родимый DTS они тоже чинят медленно.
tmin10
На том же гитхабе часто есть релизы с собранными через CI/CD бинарниками. Предпочитаю их, т.е. для сборки нужно доставлять кучу библиотек и разгребать ошибки сборки…
zlo1
В Gentoo зависимости и правила сборки реализованы на уровне менеджера приложений
RedCatX
Это с вашей точки зрения преимущество, а с точки зрения производителей — недостаток. Представьте, как было бы хорошо производителям ПК и ноутбуков, если бы они могли примерно раз в пять лет выводить старые устройства из оборота, принуждая пользователей купить новые. ОС не обновляется, лишается поддержки необходимого софта, модернизация невозможна — пользователю остаётся только идти в магазин на новым устройством. Microsoft тоже будут в восторге — наконец-то можно будет залочить загрузчик винды, запретить запускать неподписанные приложения, и брать 30% комиссии с каждой проданной программы под винду, попутно практически искоренив пиратство. Боюсь, при поголовном переходе на ARM нас ждёт именно такой мир. По крайней мере, никто из производителей железа не высказывает заинтересованности в создании открытой, свободной, и стандартизированной системы на ARM, подобно той что существует для x86.
wormball
Будем надеяться, что для нвидии это станет выгодно, и она таки это сделает. А затем станет монополистом, заломит цены, и все уйдут, например, на risc-v.
sa1ntik
А зачем эта совместимость, если имеется определённый шанс, что что-то не взлетит под другой осью. Например:
1) Не будет дров вообще под Win7/Win10.
2) Конкретно эта сетевая/wi-fi/BT карты не запускаются под конкретно этим дистрибутивом Linux.
3) Всего хватает, но энергосбережения и оптимизацию не завезли, в итоге ноут работает полчаса вместо четырёх.
4) Мощности самого железа не хватает, чтобы тянуть эту самую новую сборку.
Нет, вы не подумайте, я не топлю против очевидной пользы обратной совместимости. Я лишь хочу сказать, что она не настолько всемогуща.
xabar
А поставьте мне windows 7 на Kabylake? Думаю, вы удивитесь, что у вас USB не работает…
Сегодня миром правит сетевой формат — 70% пользователей плевать, что у них за процессор и ОС, главное чтобы браузер запустился, а в нем их любимая ферма/елочка/индикот…
hrusha
Не понятно как в диаграмме из обзора Anandtech разрыв между 7700к и 9900к может быть в 10%, при том что в 9900к в 2 раза больше ядер и потоков
Viknet
Это производительность на одно ядро.
VioletGiraffe
«Огромная производительность в расчёте на ватт» — примерно одинакова с Zen 2, и хуже, чем у Zen 3. Хайперам Apple приходится выдумывать ложные факты для подкрепления своих выводов?
Viknet
Если вы начнёте смотреть на реальное потребление энергии вместо бумажных TDP вас ждут интересные открытия.
nin-jin
Что такое этот "idle normalized power"?
Viknet
С вычетом пассивного потребления без нагрузки. Потребление CPU в телефоне иначе не замерить.
Потребление M1 в одноядерной нагрузке замеряли точно, и оно находится в тех же границах:
Firz
Претензия не к Вам конечно, но промолчать не смог — когда же уже первой строкой и красными буквами в инструкции к построению графиков будет правило «не делайте индикаторы цветов в легенде размером с 3 пикселя, невозможно сходу отличить какие там цвета».
wormball
Там ещё веселее — у одного графика точки иного цвета, нежели линия, причём цвет точек (каковые и выведены в легенду) совпадает с цветом точек другой линии. Я долго думал, как это так интел затесался среди армов.
nikbond
Я тоже вечно бугурчу когда вижу такое. Но я списывал все на свой дальтонизм.
Nikobraz
а где взять такую же для многопотока?
0xd34df00d
А где там M1?
Viknet
Он там расположился бы чуть выше A13, если бы эти замеры делали сейчас, а не до выпуска A14 и M1.
Улучшенный тех. процесс + больший результат в Geekbench при примерно том же максимуме потребления.
0xd34df00d
А, вы просто эту картинку привели как иллюстрацию неких открытий, которые, по-вашему, при взгляде на неё должны произойти, а у меня как-то никаких открытий про M1 vs Zen 3 так и не произошло. Ну ладно, график там чуть выше окажется — и то хорошо, главное — чтобы не чуть правее. Спасибо за пояснения.
Viknet
Это был ответ на:
Мне кажется, картинка достаточно хорошо иллюстрирует кардинальный разрыв в этой метрике между ядрами от Apple и Zen 2.
Zen 3 в мобильном исполнении на данный момент не существует, а десктопные версии плохо помещаются на этот график по горизонтальной оси:
https://www.reddit.com/r/hardware/comments/jrt0ay/apple_announces_the_apple_silicon_m1_ditching_x86/gbxiaaf/
Ivanii
Видел еще перл сравнения безальтернативного GPU Аппле с GTX 1050, не 2080, и даже не 1660/1080!
Viknet
А в чём перл? Это CPU с интегрированной видеокартой для лёгкого ноутбука с пассивным охлаждением. Интегрированные GPU от Intel и AMD сильно слабее, поэтому, чтобы хоть с чем-то сравнить, нашли близкую по производительности дискретную карту.
Ivanii
В том что у М1 выпущенного в 2020 году другого GPU не будет.
Viknet
Так же, как не будет и у тысяч других ультрабуков со встройкой и без Thunderbolt.
Почему его GPU надо сравнивать именно с 2080 или 1660/1080? Эти карты в принципе не влезут в нужный энергопакет. С тем же успехом можно поставить рядом десктопную 3090 и насмехаться.
Тем временем, на рынке интегрированных GPU ничего сравнимого просто нет.
Ivanii
Интеловские процессоры стоят только в ультрабуках? На сколько я знаю с М1 НЕЛЬЗЯ использовать внешний видеоускоритель.
Viknet
M1 сейчас стоит только в ультрабуках (Mac Mini — отдельный разговор) и именно для них делался.
С любым ноутбуком без Thunderbolt нельзя использовать внешний видеоускоритель. Не говоря уже о том, что ниша использования eGPU довольно узкая.
Areso
Спорное утверждение. Еще 10 лет назад, сняв задюю крышечку, к ноутбукам подключали PCIe видюхи :)
Знатное извращение, но ведь работало!
dvrpd
А ещё с ExpressCard можно подключать. Точно работало на Thinkpad x220/x230.
JerleShannara
И получали PCIe gen1 x1 =) В лучшем случае gen2 x1. Сейчас можно конечно через m.2 вытащить gen3x4, но лишаться NVMe ради игровой видюшки…
Areso
По сравнению с Intel HD 2500 / 3000, даже gen1 x1 смотрелось многократно лучше.
Иначе бы никто бы внешние
почкивидеокарты так и не подключал бы.JerleShannara
Это конечно так, сам использовал T61 с докстанцией, в которой стояла уже «игровая» видеокарта (с потреблением не выше 70Вт).
Viknet
Плашку "перевод" всё-таки надо бы поставить: https://jamesallworth.medium.com/intels-disruption-is-now-complete-d4fa771f0f2c
darthmaul
Покрутить бы этот М1 в своих руках. А то никак не могу избавится от подозрений что эпл оптимизировала некие узкие задачи, на которые и делают упор бенчмарки. А geekbench вызывает серьёзные сомнения в репрезентативности при сравнении разных архитектур — например, на древнем Xeon X5650 браузер летает, а на Galaxy S9 та же страница "подлагивает", несмотря на бОльшую производительность на ядро у телефона.
DoubleW
Реальные тесты доступны тут где и видно что есть высокая специализация архитектуры м1 под конкретные тесты/задачи? Иначе я не могу обьяснить такие странные разбеги в разной синтетике типа кодирование разного аудио видео где то М1 разгромно побеждает Интел, то также разгромно отстает.
Или 2х кратный проигрыш М1 в бенчмарке Civilisation 6 от предыдущего макбук про.
Ну и не забываем про наличие 4266 памяти у м1 вместо 2400/2666 у текущих интелов.
openbenchmarking.org/result/2011202-PTS-MERGE68890
openbenchmarking.org/result/2011224-SP-2011204PT72
openbenchmarking.org/result/2011204-PTS-MERGE68801
Viknet
Это легко объясняется тем, что все эти тесты много лет оптимизировались под x86, включая использование ассемблерных вставок с AVX инструкциями: https://forums.anandtech.com/threads/new-apple-soc-m1-for-lower-end-macs-geekbench-5-single-core-1700.2587205/page-42#post-40361688
Под ARMv8 никто их не оптимизировал, в лучшем случае перекомпилировали "что есть", иногда получая результаты хуже, чем у x86-версии с SSE-оптимизациями через Rosetta.
DoubleW
Иными словами если переписать гикбенч на использование avx, то и старый Интел заиграет новыми красками?)
Или у нас есть гарантии, что никакие векторные инструкции гикбенч не использует на м1?
А то как то получается сравнение в одни ворота, тут мы погоняем широкий АРМ код который оперирует 64 регистрами против условно старого х86 кода который одни и те же 3 регистра постоянно через стек месит.
А вот векторные операции которые и нужны были для преодоления ограничений х86 внезапно оказались не покрыты.
Ну а с пхп тестами что у нас? Они тоже под avx оптимизировались?
Пока что опенбенчмарк выглядит гораздо более непредвзято чем любые другие сравнения, которым могли занести за подбор тестов, где все выглядит очень удобно для одной фруктовой компании (и где цивилизацию 6 предпочли в обзоре ноута не упоминать).
Кстати у нас есть хороший доп тест в виде антуту бенчмарк, где результаты м1 выглядят очень хорошими, но далеко не такими сказочными как в других тестах.
И очень сравнимыми с недорогим современным ноутбуком (под эмулятором)
www.reddit.com/r/emulators/comments/e9m2h9/top_5_best_emulators_20192020_antutu_benchmark
Я говорю про непредвзятость использования разных тестов, которые как мы видим могут показывать интересную картину вместо тотального доминирования м1.
При этом к самому гикбенчу например у меня например очень большие вопросы, поскольку просмотр h264 видео через видия енкодер в процессе прогона теста вызывает падение результатов бенчмарка на 75%.
Viknet
Серьёзно? Кучка разношёрстных кусков кода, про которые достоверно известно, что многие оптимизировались исключительно под x86, лучше, чем набор специально подобранных и предназначенных для кроссплатформенной оценки разных аспектов производительности CPU тестов (SPEC2006/2017, Geekbench)?
Про какую непредвзятость вы сейчас говорите вообще?
Gordon01
Geekbench — это набор платформозависимых бенчмарков для различных аппаратных ускорителей. К производительности CPU это очень слабо относится.
Комментарий Линуса Торвальдса:
Viknet
Сюрприз, на x86 теперь тоже hardware-assisted: https://en.wikipedia.org/wiki/Intel_SHA_extensions
И это Линус писал про GB3, с тех пор они очень хорошо поработали над сравнимостью результатов для разных платформ, и заработали хорошую репутацию. Сейчас в результатах GB5 сомневаются только те, кто не может поверить в то, что ARM в принципе может соревноваться с x86.
Gordon01
Вы сначала дочитайте пост, на который отвечаете до конца, потом комментируйте:
And on both ARM and x86, the AES numbers are similarly just about the crypto unit.
Viknet
Так, а в чём претензия-то тогда?
И там и тут это инструкции процессора, входящие в базовую ISA, которые используются в реальных криптографических приложениях. Тест назван Crypto. Результаты сравнимые.
Сейчас вот Intel Tiger Lake даже выигрывает в этом тесте у M1, что не даёт ему большого преимущества: https://browser.geekbench.com/v5/cpu/compare/5079627?baseline=5078369
popov654
Ну я вот тоже, если честно, не могу поверить, учитывая что ARM архитектура создавалась с прицелом на простой и ограниченный набор команд, а также максимальную энергоэффективность. Этот вектор, вроде как, противоположен вектору быстродействия. Физически невозможно на простых коротких командах достичь большего быстродействия, т.к. этих команд потребуется гораздо больше для достижения того же результата
Viknet
ARMv8 очень далеко ушёл от академических измышлений об ограниченном наборе команд.
Сейчас плотность кода x86 и ARMv8 примерно одинаковая.
APXEOLOG
У большого количества команд есть свои проблемы. Если мне не изменяет память, то у современных х86 процессоров бывает, чтобы полностью пройти весь пайплан выполнения команды нужно пройти по 12 шагов. И если branch prediction не угадывает, то последующие команды выбрасываются и вам придется подождать 12 тактов, чтобы продолжить работу в нормальном режиме.
cepera_ang
Это у всех современных процессоров так, но не совсем так, и 12 тактов ждать не надо, и предиктор работает с 99+% точности и от количества команд в системе команд особо не зависит, и у АРМа команд сравнимо с х86 (там и там порядка 1000 мнемоник и тысячи вариантов).
khajiit
Зато их можно параллельно загрузить в 8/16/256 декодеров разом.
Собственно, 8 декодеров были уже в Marvell Thunder.
CISC-инструкции нельзя загрузить параллельно в декодер, не декодировав частично инструкцию — вы просто не будете знать, откуда начинать загрузку следующей инструкции. Поэтому увеличивать ширину процессора для x86 бессмысленно, если не удлинять сами конвейры — что накладывает штрафы на производительность нелинейного кода.
А RISC — он не про упрощенные команды, как многие думают, а про регулярную структуру и заточку на максимальное быстродействие команд.
Хоть ликбез пиши…
cepera_ang
Всё равно есть предел по ширине ядра — можно хоть всю программу до конца выполнения декодировать, но это не значит, что всё это можно послать на выполнение, потому что будущие команды зависят от результатов предыдущих. И вот тут можно оценить, сколько процентов из возможного параллелизма в коде существующие процессоры уже выгребают. И чем шире ядро, тем больше штрафы за неправильные предсказания и т.д.
К тому же, х86 всё ещё самые быстрые, хоть и отстают уже по техпроцессу :)
khajiit
С большой шириной уже скорее в ROB упор пойдет — в худшем случае нагрузка на него будет расти как произведение одновременно выходящих с конвейров операций на количество операндов.
Зато можно сбросить частоты, сохранив производительность, что даст возможность понизить напряжение, отчего мощность упадет уже в квадрате — дополнительно к снижению от понижения частоты.
Но да, бутылочных горлышек еще хоть отбавляй. Собственно, их преодоление и обеспечивает рост.
Zverienish
Не противоположен. Вон ИБМ до сих пор выпускает для серверов PowerPC процессоры. Которые RISC. B RISC архитектура это не для слабых процессоров создавалась, тогда вообще не думали особо об энергоэфективности.
Zverienish
Да и x86 внутри RISC фактически.
cepera_ang
Учитывая что SPEC2006/2017 — это как раз просто набор разношёрстных кусков кода, которые когда-то давным давно подобрали для бенчмаркинга именно по причине его разношёрстности (а потом правда производители стали специально оптимизировать железки под бенчмарк, как это всегда бывает), то подобная критика звучит весьма забавно :)
DoubleW
Еще забавнее что собственно говоря «кучка разношёрстных кусков кода» эта лучшая характеристика наугад взятого ПО
А наличие бенчей дает лишь стимул точить железо под выполнение, или компиляторы под векторизацию именно этих кусков кода, а не каких то других.
Повторюсь иначе чем обьяснить результаты цивилизации 6 или антуту, где прямо говоря не блещет м1?
Viknet
Вы же отлично понимаете, что это не произвольный набор непонятно чего, а именно что отобранные и проверенные целым комитетом куски кода. И SPEC отвечает за результаты своей репутацией.
cepera_ang
Проверенные каким образом? И кто входит в целый комитет? Какие у них заявленные цели? Каким образом SPEC отвечает за результаты?
Кроме того, я нигде не говорил, что эти куски кода "произвольные", только то, что они разношёрстные. И то, что их стандартизация большим профильным комитетом вызывает стандартный эффект затачивания под бенчмарк — это тоже факт. Разработчикам процессоров нужны какие-то прокси для оценки производительности, потому что они не знают что именно будут выполнять будущие пользователи (зачастую через годы после начала разработки новых архитектур), вот они и тяготеют к оцентке на чем-то "стандартном", на чём их точно будут проверять и сравнивать пользователи и бывает, что подкрутка под этот замечательный SPEC случается в ущерб другим, более реальным задачам.
Viknet
У вас есть какие-то конкретные факты, что "более реальные" задачи выполняются на M1 хуже, чем на Intel аналогах, при прочих равных?
Если нет, тогда к чему эти спекуляции про затачивание под тесты?
DoubleW
Цивилизация 6 более реальная задача чем SPEC?
Вообще конечно хотелось бы поглядеть на скорость работы софтовой имплементации какого нить AV1 кодека
Viknet
Я уже показывал вам результаты цивилизации через Rosetta:
https://www.tomsguide.com/news/macbook-pro-m1-benchmarks-are-in-and-they-destroy-intel
https://www.macworld.com/article/3597198/13-inch-macbook-pro-m1-review-amazing-breakthroughs-in-processing-and-battery-performance.html
И нет, это не "при прочих равных" и не про процессор.
cepera_ang
Да не, я не говорю, что Apple затачивается на эти тесты и поэтому лучше на них работает. Я говорю, что все на них затачиваются :)
Более реальные задачи каждый должен смотреть сам для себя, именно потому что всем не угодишь и разные компромиссы во время проектирования ведут к разной производительности на разных "реальных" задачах. Кто-то говорит "но на этом процессоре хорошо работает только заточенный под него код", а надо чтобы работал любой и поэтому это плохо, кто-то говорит "я готов затачивать свой софт под процессор, лишь бы быстрее работало" и поэтому это хорошо и т.д.
iproger
Посмотрите cinebench r23. Имхо, самый объективный бенчмарк.
Viknet
Cinebench меряет производительность в одной конкретной задаче на одном конкретном "render engine". Его результат нельзя считать взвешенной оценкой производительности CPU в целом.
Плюс к нему тоже есть ряд вопросов:
1) насколько хорошо его успели портировать под M1, учитывая, что под x86 оптимизировали много лет?
2) низкая загрузка CPU на M1
iproger
Ну, 23 версию создавали для arm, а не для m1.
Проверить ее можно сравнив результаты обычных х86 процессоров с результатами в прошлых версиях. Насколько знаю, там примерно паритет.
Мне этот тест нравится тем что измеряет грубую производительность. Я думаю со временем вопрос с низкой загрузкой решат или дадут объяснение.
SinsI
У М1 гетерогенная архитектура. Если под конкретный бенчмарк у М1 есть подходящее специализированное ядро — то он с лёгкостью уделывает конкурентов, если нет — то сливает по полной.
Gordon01
А сейчас бывает что-то не гетерогенное? Даже простые микроконтроллеры сейчас со спецядрами, как минимум, для CRC и крипты.
cher11
Подскажите, что за специализированные ядра отвечают за архивацию (выигрыш есть в и zip, и в 7zip), браузер (JS) и компиляцию кода (на ютубе есть сравнения и с 8ми ядерной прошкой)? Когда уже Intel их себе тоже добавит?
Viknet
Справедливости ради, для JS там есть специальные инструкции :)
https://stackoverflow.com/questions/50966676/why-do-arm-chips-have-an-instruction-with-javascript-in-the-name-fjcvtzs
beeruser
FJCVTZS не является изобретением Apple, а является частью спецификации ARM.
Это просто режим работы преобразования float->int, где определяется что делать если число не влезает в int. FCVTZS делает насыщение до 0x7fffffff, FJCVTZS оставляет модуль 2^32.
Вы ведь помните что в Pentium 4 были специальные инструкции для «ускорения Интернета»? :)
Intel calls the new architecture of Pentium 4 'NetBurst'. The idea behind this name is for me just as unfathomable as the 'Internet SIMD Streaming Extension'
Viknet
Да я в курсе :)
Но для современных JIT-компиляторов JS вполне полезная инструкция, дающая аж до 2% ускорения на некоторых примерах, поэтому можно с натяжкой сказать, что это специализация под браузер.
beeruser
Чтобы не быть голословным, (вы ведь не пытаетесь нас обмануть и не выдумали это только что?) не будете ли вы так любезны, предоставить список с названиями бенчмарков, указанием какое «специализированное ядро» они используют и какое преимущество это даёт?
SinsI
Зачем мне это? Про гетерогенную архитекутур говорит сам Apple, упоминая всякие Neural Engine и Final Cut Pro.
Мне же искуственные попугаи бенчмарков фиолетовы — пусть лучше сравнят что-нибудь вроде вычислительной гидродинамики в каком-нибудь Ansys Fluent.
beeruser
Ну как же, вы сделали кхм… смелое заявление и сразу сливаетесь :)
Если под конкретный бенчмарк у М1 есть подходящее специализированное ядро — то он с лёгкостью уделывает конкурентов, если нет — то сливает по полной.
Так в каких тестах сливает по полной из-за того, что якобы не нашлось акселератора?
Давайте наконец выясним, как Neural Engine помогает тому же Clang?
В SPEC2017 есть тест просчёта динамики жидкостей 519.lbm_r
www.anandtech.com/show/16252/mac-mini-apple-m1-tested/4
M1 там всех обгоняет в однопотоке: любой Интел (с большим отрывом) и даже Ryzen 3 =)
Вот ведь какие хитрецы! Наверное встроили «специализированное ядро» для просчёта fluid dynamics ^_^
А как по мне, ваш Ansys Fluent есть такой же «фиолетовый» бенчмарк, а вот Clang инструмент, которым я пользуюсь постоянно.
dhaenoor
А что если запустить виртуалку с андройдом на зеоне и потестить производительность на ней и на смартфоне?
darthmaul
Ну я согласен с тем, что андроид плохо оптимизирован, но исполняется то он на трубке нативно а не через ВМ.
dhaenoor
Лицу, пожелавшему остаться неизвестным, спасибо за плевок в карму. Во что это хабр превращается, если за предложение сравнить производительность там и тут так весело карают?
sumanai
50% что минус прилетел за это. Это я как человек с примерно 80 минусами говорю.
eagleivg
В рекламную платформу корпораций?
DoubleW
То результаты у М1 в например антуту слегка выше чем у недорого современного ноута www.youtube.com/watch?reload=9&v=uNsSHBg9h84
Gordon01
Как-то так и выходит, Geekbench известный оптимизированный под Apple бенчмарк. Есть хороший старыый тред об этом: https://www.realworldtech.com/forum/?threadid=136526&curpostid=136598
beeruser
А какое отношение GB3 имеет к современному GB5? Ровным счётом никакого.
И что же в нём оптимизировано под Apple?Это всё равно что делать выводы про Taycan на основе опыта эксплуатации Lohner-Porsche.
Другие тесты, другая методика, другие датасеты.
В GB3 мобильные и декстопные тесты использовали разные датасеты.
Сейчас, когда мобильные чипы соперничают с десктопами, тесты не отличаются ни чем.
GB3 полное говно, а GB5 вполне годный кроссплатформенный бенчмарк.
Давайте детали, не томите уже =)
Даже если бы Clang, LZMA, PDF, HTML парсеры бы как-то хитро оптимизированы под Apple, то сравнивать платформы Apple (x86, ARM) всё можно было бы, верно?
cher11
А что за узкие задачи? Браузер, архивация, работа с фото, работа с документами? Это все тестируется.
quwy
Еще интересно то, что все тесты, где новый arm побеждает x86, сделаны этим гикбенчем (который, кстати, имеет закрытые исходники, и что он там тестирует — неизвестно).
cher11
Посмотрите новые тесты
www.youtube.com/watch?v=59gAjXT7qyw
beeruser
Прям таки все? =)
www.anandtech.com/show/16252/mac-mini-apple-m1-tested
techcrunch.com/2020/11/17/yeah-apples-m1-macbook-pro-is-powerful-but-its-the-battery-life-that-will-blow-you-away
А вы… пытались узнать?
www.geekbench.com/doc/geekbench5-cpu-workloads.pdf
www.geekbench.com/doc/geekbench5-compute-workloads.pdf
support.primatelabs.com/kb/geekbench/interpreting-geekbench-5-scores
quwy
В основном, по крайней мере. На хабре все хвалебные оды почему-то сопровождаются именно его результатами.
Что они там сами о себе пишут, мне категорически не интересно, потому что бумага все стерпит. Тесту, который прячет свои исходники, априори никакого доверия.
beeruser
Если бы вы прошли по ссылке, то увидели бы тестирование в SPEC и других бенчах.
SPEC разумеется показывает тоже самое что и GB. Потому что ядро Firestorm очень мощное и справляется с любыми задачами.
Занятно… То вы утверждали что это якобы «неизвестно», но как оказывается всё прекрасно известно, просто вам не интересен данный вопрос.
В описании представлены опенсорсные программы и библиотеки которые они тестируют в купе с описанием датасетов.
Вам кто-то мешает скачать те же самые программы и запустить?
v1000
у самого интела такая тема была с пентиум 4. который неплохо «ускорял интернет» в тестах, но проигрывал в играх и других программах, где было сильное ветвление кода.
Lexi
А с чего она большая? Браузерный тест mozilla kraken выполняется на Galaxy S9 за 3200 ms, а на древнем C2D E8400 (недалёком в однопотоке от зиона) за 1800 ms.
darthmaul
Ну а по гикбенчу телефон быстрее, я к чему и клоню — что он не репрезентативен.
ALexhha
Alexey_Alive
iTunes уже как год нет на MacOs.
olegi
а где надо смотреть? в vlc? и если я в дороге, ессено я хочу, чтобы батарейка жила дольше, и чтоб фильм крутился на железе, а не софтово
raamid
В целом я согласен со статьей. Могу даже добавить свое мнение, что еще одна причина упадка Интел в том, что она «заигралась в корпорацию». Все это надувание щек, вкупе с откатами «эксклюзивным дилерам» и прочее выкручивание рук в долгосрочной перспективе отталкивает клиентов.
Но я еще хотел спросить, вот вы рассказываете про закат х86 и восход ARM. А в конце статьи пишите, что сдаете в аренду «эпичные» сервера с процессорами Intel и AMD. Вам не кажется, что немного нелогично?
kryvichh
Всё просто, это вопрос приоритетов. Intel сейчас генерирует хорошую выручку с большой маржой. Акционеры счастливы. Если сейчас сильно вложиться в R&D, построить новые заводы в США для производства 3 — 5 нм чипов — это миллиарды долларов. Акционеры будут несчастны. То что компания застряла в развитии сегодняшних акционеров не волнует.
cepera_ang
Всё это очень даже волнует акционеров, что можно увидеть по цене акций, когда Интел говорит, что с новыми техпроцессами возникают задержки (несмотря на инвестиции).
Интел конечно замедлил рост расходов на ниокр, но это всё равно почти полтора десятка миллиардов долларов в год и не всё решается просто открытием кранчика с деньгами на максимум.
kryvichh
А если добавить к этой сумме строительство супер-пупер 3 нм фабрики. Вот TSMC недавно завершила строительство такой фабрики, общий объём ивестиций в неё оценивается в 19.5 млрд долларов.
cepera_ang
Молодцы, только я всё равно не понимаю вашу точку зрения. TSMC тратит на R&D 3миллиарда, Интел — 13 миллиардов, заводы строят и те, и другие. А куда ещё им девать оставшиеся миллиарды выручки? Заводы и зарплаты, ну у Интела ещё маркетинг, потому что у них клиентов миллиарды на планете, а не 30 производителей чипов.
kryvichh
А расскажите, какие заводы за миллиарды и десятки млрд долларов построила Интел в последние годы?
cepera_ang
За последние годы: Fab 42, D1X, Fab 68, Fab 11X,
Для сравнения, общая стоимость заводов у разных компаний:
Zverienish
А где Самсунг?
cepera_ang
Не знаю, может у них не выделяются отдельно эти данные. Думаю целью таблички не было показать исчерпывающие данные, тут и кучи китайских производителей нет. Относительно полный список заводов можно в вики глянуть.
shadrap
Обвалится Интел или нет, взлетит ли Эпл на рынке десктопных процессоров — решит потребитель, на сегодня «подстелить подстилку на будущее», как делает это Nvidia с АРМ не является 100% гарантией успеха. Гарантией успеха будет появление новой «удобной технологии», какой было появление Windows. На устоявшемся рынке тяжело делать какие-то значимые изменения, я думаю если Интел с АМД и «падает», то это может занять поколение..)
checkpoint
RISC-V. Лет через 10 будет в каждой лампочке, кармане и десктопе (если к тому времени такой класс вычислительных устройств не прекратит существовать). И произойдет это, скорее всего, блягодаря китайцам — в погоне за экономией на лицензионных отчислениях, подстегиваемые различными санкциями, китайские производители электроники завалят весь мир своим го^H^Hдобром.
shadrap
возможно он там и будет, но пока псевдо-RISC xTensa мне кажется там больше сидит нежели кто-то другой.
sumanai
iPhone, особенно первому, который даже сторонних приложений не поддерживал, до компьютера ещё далеко.
DarkSavant
Не ещё.
Компьютером, как вы его понимаете, он никогда и не станет.
Хотя, мой старый iPad Air с джейлом пытается. Но сами понимаете...
VolCh
Эниак сторонние приложения поддерживал?)
olegi
чем плохо приложение на HTML+JS+CSS?
Areso
Тем, что оно почти наверняка медленное, будет инициироваться очень долго (особенно, на первом айфоне) и лопать
кучувсё ОЗУ?Ну, и браузер там давно не обновляется, что создает проблемы современным… писателям приложений на HTML+JS+CSS.
olegi
это сейчас оно было бы долго и не обновляется, а в 2007 вполне норм — jquery и погнал.
Areso
В те времена пробовали Firefox OS с подобным подходом, что-то не взлетело.
olegi
железо слабое, они в Low сегмент метили. я напал такой девайс. однако же, kaios — наследник, в Индии на ура
vanxant
А что там, игорей под Мак на арме уже завезли? А видяшку через пару лет поменять на более другого производителя можно будет? А без видяшек, конторские замониторные машинки за $300 купить можно? NUC (с диском и ОС) за эти деньги купить можно, мак мини почти в три раза дороже. Основную массу ПК сегодня покупают или в офисы работать, или домой отдохнуть — поучиться — поиграть. А ещё гестапо MacOS далеко не всех устраивает.
KoCMoHaBT61
Какое это "гестапо MacOS"?
vanxant
Обычное такое, купертиновское. Где лучше пользователя знают, чего он хочет.
KoCMoHaBT61
Поточнее, пожалуйста.
TimsTims
https://m.habr.com/ru/post/528358/
sena
Преимущество x86 не сводится только к повышенной производительности и пониженному потреблению энергии. Важная часть — совместимость между устройствами и операционными системами. Сегодня я могу взять флешку с Дебианом и поставить его почти на любой x86 компьютер. С ARM такой номер не прокатит. Даже похожие ARM устройства требуют каких-то уникальных драйверов (часто несвободных) и каких-то плясок.
Вот когда для ARM будет достигнута совместимость на уровне подобном x86, Интелу можно будет насторожиться. А пока — нет.
DDwrt100
честно говоря, вот тут я не вижу особой проблемы. С учетом того что в современном программировании, переводом в процессорный код занимается компилятор.Не говоря о Java и скриптовых языках программирования.
При нужном компиляторе, проектов 80% можно будет собрать одним кликом мыши, с выбором галочки «собери под arm».
Да, возможно что то поправить будет нужно, но это не будет переписыванием кода с 0.
ss-nopol
Дело не в приложениях, а во взаимодействии железа и операционной системы. Для ARM нет стандартной открытой архитектуры, подобной той которая в своё время возникла с IBM PC. Почему ГНУ/Линукс, Виндовс, БСД и прочие операционки могут запускаться на незнакомом железе? Всё потому что есть набор поддерживаемых стандартов или стандартного железа. В мире ARM всё иначе. Каждой новое ARM устройство получается несовместимым с существующими операционными системами и требует какую-то свою уникальную прошивку, драйвера и хитрые настройки, известные только производителю.
Именно это сдерживает рынок ARM устройств от взрыва, способного снести Интел.
DDwrt100
Опять же, требуется всего лишь время, создадут альянс стандартизации, назовут как-нибудь унифицированная архитектура ARM, и будет счастье в этой области.
Насколько помню x86, что то подобное проходили или как раз пришли к этой идеологии в x86,
ss-nopol
Требуется время, да. Но не только время. Нужно ещё желание. Захочет ли этого, например, Эппл, который делает всё, вплоть до штекеров нестандартным? Если бы стандарт был нужен, его бы уже сделали. Похоже что пока всех, от кого это зависит, всё устраивает.
А значит Интел может пока расслабиться. К сожалению.
Gordon01
Да господи, интел завтра sleep() из микрокода уберет и выпустит очередные "революционные" процы, которые они хранили на случай проблем.
Как это было при переходе от Netburst к P6, перемаркированной в Core.
khajiit
P4 долго сливал их же P!!!, сперва в виде Tualatin, потом Pentium M и Core.
А потом его выкинули.
Gordon01
Core — это и есть перемаркированная и улучшенная P6 (это не Pentium 6, а название микроархитектуры).
Pentium 4 базировались на другой микроархитектуре — NetBurst
khajiit
Ага-аа… Оно же i686.
Осталось найти, в каком месте выкидывание sleep() из микрокода этих самых NetBurst (вместе со всей линейкой) привело к улучшению производительности P6, к ним отношения не имеющего.
Да и первые Core микроархитектурно сильно ушли от родоначальника.
khajiit
U-boot уже умеет заводить UEFI поверх себя.
DarkTiger
Пруфлинк, пожалуйста. Понятно, что это про ARM, а не про x86, но все равно очень смело звучит.
CodeRush
Давно уже.
khajiit
Ну и инструкция от xypron
zanac
Или закрывает патентами так, что сами не могут пользоваться(лайтниг передает привет, заставляют в ЕС переходить на usb type C) или никто не хочет(firewire передает привет с того света, жаль хорошая технология, для внешних hdd шик по сравнению usb 2.0 — выше скорость передачи, нулевая загрузка cpu)
screwer
Нулевая загрузка CPU, нулевая безопасность. Шикарная технология, да.
JerleShannara
DMA без проверок это плохо.
sumanai
Раньше так не считали. Да и сейчас я не удивлюсь, если через какой-нибудь Thunderbolt можно физически прочитать всю память. О безопасности думают в последнюю очередь.
khajiit
Например, вот
И, похоже, security к нему не первый год прикручивают. То ли резьба не та, то ли руки не той модели…
NickyX3
Плюс FW не в загрузке CPU, а в стабильности потока. Именно поэтому оно рулило в audio/video, где USB сливало из-за пакетной негарантированной скорости
DDwrt100
Компании подобные интел живут в перспективе лет 15.
До текущего времени была монополия на процессоры для рабочих станций, и серверов(AMD и Intel). Причем обе компании Американские.
Теперь Apple, пусть не самый большой игрок, но определенное значение в ИТ имеет, ставит в свою технику ARM. Тем самым показывая что процессоры доросли до премиум сегмента. Замечу, это несмотря на большие издержки по переносу ПО на новую архитектуру.
Второе Китай сейчас ссорится с Америкой, и они имеют мощности для производства своей компонентной базы. Что дает определенный вектор на создания алианса.
Третье в геополитической картине получилось так, что все кто опоздал, оказались не удел в создании процессоров(тут Америка всех выиграла и держит монополию), и нагнать на x86 архитектуре до последнего момента было не реально. А вот архитектура ARM позволяет сократить такой разрыв.
Поэтому может быть рано говорить что Intel не удел, но и не все так радужно со стороны Intel и AMD.
BD9
RISC-V убежал в Швейцарию подальше от США.
Британская архитектура во владении американской компании — в это остальным невыгодно вкладываться.
DDwrt100
вероятно Вы правы. В любом случае определенные движения «льда» есть.
sa1ntik
Я ни в коем случае не отрицаю возможных бонусов обратной совместимости и стандартизации.
Проблема тут только в одном: если бы оно действительно работало именно так, то не было бы тем вида «посоветуйте ноутбук под линукс», или «а какая сетевая карта заработает под FreeBSD?», или «а я установил OS-name и мой ноутбук стал работать от АКБ в три раза меньше» и не было бы списков совместимости.
То есть да, условная совместимость есть. И часть свежих операционных систем без серьёзных проблем стартанут на свежем железе. А вот будет ли оно пригодно к работе — вопрос. Например у фряхи есть определённые проблемы с рилтек сетевыми (сам сталкивался), которые могут проявляться в том числе и как зависание сетевого стека при определённой нагрузке. Решение в моём случае оказалось поставить другую сетевую карту от Intel.
SinsI
Так как там гетерогенная архитектура, то для оптимизированных программ ситуация может напоминать программирование для CUDA — тоже надо учитывать кучу всяких ограничений для получения ожидаемого прироста производительности.
DDwrt100
это входит в 20% того что будет сложно изменить.
Такие технологии обычно держат крупные игроки, я думаю они найдут ресурсы допилить, или скрыть еще очередным уровнем абстракции.
event1
проблема не в компиляторе, а в том, что чипы от разных производителей включают совершенно разные наборы устройств: у qualcomm одно устройство управления питанием, у apple — другое, а у samsung, вообще, третье.
То есть, выражаясь иными словами, x86 это экосистема и архитектура, а ARM — это просто набор команд центрального процессора. Через это, их и сравнивать-то не корректно.
wormball
Выход один — выпускать писюк, но только на арме.
event1
В принципе, да. Не строго IBM PC (там количестов древностей превышает запасники Эрмитажа), но разработать и внедрить аналогичный стандарт для систем на процессорах ARM, или даже общий для всех RISC архитектур. Сегодня сделать такое, может, пожалуй, только Майкрософт.
wormball
Ну вот моё предложение как раз в том, чтобы выпустить компьютер с тем же самым железом, кроме собственно процессора. Тогда и разрабатывать ничего не надо будет (почти).
screwer
Armv8 никогда не был RISC
checkpoint
ARM stands for Advanced/Acorn RISC Machine.
Но отчасти соглашусь, современный ARM это совсем не RISC и тянет за собой legacy хвост подлинее интелловского x86.
beeruser
ARMv8 создана с нуля в 2011г. Какой там хвост?
event1
В принципе, конечно, аббревиатура RISC включает слово Reduced, что подразумевает некоторую относительность. Однако же, основным критериям armv8 вполне удовлетворяет: фиксированная длина команд, архитектура load/store, много регистров, отсутствие значительного микрокода.
screwer
Если ограничиться только длиной команд, числом регистров и ld/st — то безумный квалкрммовскийи Hexagon тоже RISC. А это вообще VLIW DSP.
Причем забавно, что сама Qualcomm его при этом RISC не считает:
This packet is claimed by Qualcomm to be equal to 29 classic RISC operations; it includes vector add (4x 16-bit), complex multiply operation and hardware loop support. All instructions of the packet are done in the same cycle.
event1
А почему Hexagon — безумный?
Обычно, разделение RISC/CISC применяют к процессорам общего назначения. VLIW DSP к ним не относится. Кроме того, само наличие VLIW, как бы отменяет RISC, по-моему.
screwer
Вы программировали под него на ассемблере? Я — да. И реверсил. Это самая странная архитектура, с некоторой я имел дело до этого. Так что "безумный" — мое оценочное суждение.
Насчёт RISC я всего лишь взял ваше определение. К которому вы аппелировали в случае с ARMv8. И по нему выходит что шестиугольник — тоже RISC.
event1
Я без претензии спрашивал. Из любопытства. Сам когда-то писал под Oak и Carmel DSP, там тоже VLIW, аппаратные циклы и параллельное программирование на уровне ассемблера. Старшие товарищи рассказывали, что это на всех DSP так.
Всё-таки, в DSP обычно есть инструкции которые под RISC никак не подходят.
С другой стороны, и в ARM, и в MIPS, есть DSP расширения (да и другие всякие расширения), так что все эти определения и категории довольно условны
khajiit
Вы имеете ввиду команды SIMD для обработки векторов, матриц, FFT и тому подобных вещей?
event1
Да. Они официально называются DSP Extensions
screwer
Согласен.
В то же время ARM32 значительно «прямолинейнее» и проще. Регистры доступны все. Флаги в инструкции всегда. Вплоть до того, что переходы это загрузка в PC, а относительная адресация от PC использует неявно длину конвеера, и это вынужденно тянется с рождения. И то его Thumb/Thumb2 уже врядли можно считать RISC. (Там уже и про фиксированный размер инструкций как-то забыли постепенно, и условное исполнение блоков добавили).
Кстати, посмотрите как кодируется длинный прыжок в Thumb, это просто адская жесть!
ARM64 ISA полная противоположность 32 битной. Забили на простой декодер ради более компактного кода. Огромное количество сложных инструкций. Их длина действительно фиксирована. Нет прыжков между режимами. Отказ от свободной манипуляции регистрами (PC, SP) — например RET это RET, а не MOV PC, LR. Вместо сумбурных команд с этими операндами (которые не всегда имеют смысл) довольно стройно вписался [W/X]ZR.
Субьективно, основное отличие от CISC (навроде AMD64) только в фиксированной длине команды.
beeruser
С чего бы?
В RISC не упаковывают несколько независимых команд в одну широкую команду.
В признаках, идентифицирующих RISC такого и быть не должно.
Это специфическое свойство VLIW и есть одно из основных его отличий от других.
Вы можете сказать про ARM-овский add+shift, но это одна команда с модификатором источника. Как и lea на х86.
screwer
Вы потеряли нить разговора. Hexagon был приведён как контр-пример предложенным RISC атрибутам: 1) фиксированная длина инструкций 2) большое число регистров общего назначения 3) выделенные команды загрузки/сохранения данных.
Заметьте, ни слова о пакетной обработке или характере самих инструкций.
По этим критериям оппонент классифицировал ARMv8 как RISC. Хексагон удовлетворяет всем этим критериям. Но он, очевидно, не RISC.
valeriyk
С тем же успехом можно сказать, что VLIW вообще ортогональна RISC-у. Это просто один из способов распараллелить последовательные вычисления. Т.е. RISC может быть «классическим», суперскалярным или VLIW, в зависимости от того, кто и где параллелит.
screwer
Квалкомм не согласна, т.к не считает свои шестиугольники RISC.
Имхо все просто — система команд примитивная? Да — RISC, нет — CISC.
cepera_ang
Всё ещё проще — сейчас 1980-е? Да — это ещё важно, нет — нет.
khajiit
Еще проще — это процессор общего назначения?
Если нет, то это спор об эксцентриситете плоской Земли.
JerleShannara
Приложения — да, а вот операционные системы, точнее их ядра — это геморой. Вот я иду в магаз и покупаю себе компутер на х86, пофиг какой и т.д., главное, чтобы железки, которые я в него ставлю, имели дрова под выбранную операционку. Потом я беру и ставлю себе операционку и работаю, далее мне чего-то хочется и я докупаю себе какую-нибудь карту расширения, ну к примеру ТВ-Тюнер в PCIe, ставлю, ставлю её дрова и готово. Потом в пьяном угаре я заливаю пивом материнку, она ломается, я иду в магазин и покупаю другую(туже самую модель или другую — без разницы, главное, чтобы процессор мой туда встал и память), и всё опять работает.
А теперь заменяем x86 на AArch64 и получаю прикол вида «таак, а где devicetreeblock под конкретно эту плату». Сдохла старая материнка, купил другую — снова привет, надо для неё devicetree.
Ну а пакеты да, собираются и работают.
Gordon01
Apple как катализатор перемен выглядит слабо; они могут делать сколько угодно хорошее железо но всегда этому мешают фундаментальные ценности компании:
Помню как раньше Apple продвигали свои отвратительные интерфейсы (FireWire, Apple Display Connector и прочая дичь) и везде их ждала неудача. Хорошо хоть этим перестали заниматься и поставили USB-C как все остальные. Хотя lightning до сих пор живет.
kryvichh
USB-C их заставил поставить ЕС, унифицировав зарядки на своей территории. Причём эта инициатива (унификация зарядных устройств) последовательно продвигается как минимум с 1014 года.
sumanai
Так для телефонов USB-C до сих пор нет, только у ноутов, и в ноутах больше 1 разъёма USB-C и ровно 0 lightning.
tropico
И не будет. У айфона выход на финишную прямую — скоро не будет вообще никаких разъёмов.
logran
Наконец превратят полностью в настоящий кирпич со слоганом «ваше устройство не разрядится и не сломается, если оно не включается»? :)
Physmatik
Что-то медленно продвигается, если целую 1000 лет на это надо...
legolegs
Евробюрократия!
scrow
Я на полном серьезе нажал на ссылку с 1014 годом и ожидал почитать историю о том, какие проблемы были в Европе и как они страдали от разной ширины лошадей и невозможности договориться о едином размере стойла и каковы бюрократические процессы мешают этому вот уже 1000 лет.
А это всего лишь опечатка, эх.
sumanai
А что там такого отвратительного?
bm13kk
поддерживаю. FireWire обогнал свое время. Его наработки используются в ДисплейПорт, Сандерболт и последних ЮСБ.
Gordon01
Тем, что в тот момент уже был USB, который работал.
Apple с Сони 10 лет не могли поступить как мужчины и закончить никому не нужную войну форматов.
sumanai
Они ровесники. Просто разные отцы (Apple, Sony & прочие против Intel, Microsoft, Philips & прочие) и неправильная лицензионная политика.
При этом FireWire поддерживал такие фичи, как подключение нескольких устройств (есть в Thunderbolt) и возможность устройства быть как хостом, так и веломым (появилось с Type-C).
Areso
А можете раскрыть мысль подробнее? USB otg host в смартфонах появились задолго до Type-C; понятное дело, что их всё ещё можно было подключать к ББ как внешнее устройство.
sumanai
Вот как USB otg, только без специальных проводов, то есть ближе к Type-C. USB OTG выглядит как костыль, и появился только в 2001 году (а по факту я его до 2010 года и не видел).
Areso
Знаете, у меня было несколько коммуникаторов на Windows Mobile (до 2010), но я что-то не припомню, была ли в них такая возможность или нет, подключать клавиатуры/мыши/флешки, или нет (в случае, если в девайсе было что-то вроде mini-USB или micro-USB).
P.S.: нашёл, можно было (не ко всем моделям), но большинство имели usb-хабы и могло-таки работать в этом режиме.
У моего последнего устройства (Samsung WiTu/Omnia i900) был проприетарный разъём, там точно можно было.
Gordon01
Хост — это отдельный USB интерфейс и именно в этом и было преимущество USB перед FireWire: если хост не нужен, то его и не ставили. В FireWire все фичи были добровольно-принудителными, поэтому в лучшем случае жрали дополнительную энергию и увеличивали стоимость.
КПК с USB хостом появились уже в конце их эры и требовали переходников со своих проприетарных разъемов.
Совершенно другая проблема хостов в том, сама эта возможность не дает почти ничего: вся суть в поддержке со стороны ОС и наличии достаточного питания. Обычно они ограничивались мышками и клавиатурами.
Areso
Так и в Typo-C все те же проблемы — нужна поддержка, нужно питание.
Возможно, что хост теперь там стоит в обязательном порядке (и это плюс, которому всё еще нужны пункты 1 и 2), но если нет, то я тогда решительно не понимаю, о чём говорит sumanai
sumanai
Нет. Благодаря одинаковому разъёму сейчас можно соединить любые 2 устройства, но это не всегда имеет смысл.
Плюс тут в том, что не нужны дополнительные переходники и провода, всё может соединяться напрямую. А дальше всё лежит на реализации, да. Но возможностей с Type-C выходит больше.
Areso
Я смотрю на свой компьютер, и понимаю, что мне нужны «дополнительные» разъемы (на самом деле — нет), ну или провода (бывает, раз в год, видео перекинуть с телефона). На ноутбуке — тоже самое. На втором ноутбуке (кстати, современном и довольно дорогом), аналогично.
Удобство разъема еще ни о чём не говорит (но он, пожалуй, всё же удобнее microUSB), особенно, учитывая, что у нас теперь есть зоопарк всяких Gen'ов, PD, QC/-2/-3/-4, Thunderbolt'ов и прочих расширений и спецификаций, применимых как к устройствам, так конкретным разъёмам на этих устройствах, так и кабелям. Которые, казалось бы, должны быть универсальными (но нет. Какая ирония — Universal Serial Bus cable ни разу не универсален в нашу эпоху).
sumanai
Флешку с Type-C можно вставить напрямую в телефон с Type-C. А флешку с USB можно вставить в Micro-USB только через специальный переходник с замкнутым контактом. Это и есть прогресс. В будущем, если Type-C не отвалится и все на него перейдут, можно будет делать любые разумные комбинации, либо напрямую, либо обычным проводом, кои будут уже у всех.
Тут да, налажали. Но это цена за дешевизну. Всяким мышкам не нужны все эти гены, доставки поверов и прочие Thunderbolt.
Areso
противоречит друг другу. Мышкам, может быть и не нужны, а хостовым устройствам нужны. А еще мониторам нужны, чтобы они картинку показывали. В результате, если кабель обладает лишней «полезной» нагрузкой, и он вставлен одним концом в мышку (предположим, что там есть разъем), а другим в современный макбук, то он просто не задействует части возможностей. А если дешевый кабель, который выглядит как USB cable, пахнет USB cable, и продаётся как USB cable, но не передаёт видео, будучи вставленным в монитор и в макбук другим концом, то это проблема.
Что касамео флешек — у меня были двусторонние флешки. С одной стороны microUSB, с другой USB. Тоже работало.
Вы сводите всё удобство к единообразию разъема и только лишь. Единообразие разъема — одно из условий, но не единственное.
Ndochp
Кажется с этим ужасом долго и упорно боролись, а теперь опять пришли к нему же. Даже в шлейфах к флопикам разные пины заклёпывали, чтобы нельзя было соединить 2 устройства так, чтобы это не имело смысла.
Gordon01
Вы все правильно поняли)
Хост все еще не обязателен, Type-C это вообще только спецификация разъема, можно сделать абсолютно пассивный порт и подключить его к древнему микроконтроллеру, который умеет только USB 2.0 slave и все будет работать. Вот этим USB и хорош.
О том, что Apple в очередной раз создали мегареволюционную, опередившую время технологию, но злые люди не поняли Великих Гениев и ставили везде отсталый медленный USB, не желая платить Apple по двадцать баксов с устройства за разъем, обязательный логотип и микросхему — интерфейс.
Если бы не злые дяди из USB-IF, то у нас сейчас бы были флешки, которые можно было бы соединять друг с другом и копировать между ними файлы! А, забыл, благодаря уникальной технологии DaisyChain можно было бы в задницу одной флешки втыкать другую и экономить порт!
Gordon01
Какой смысл в этой демагогии, если USB был лучше изначально и поэтому и стал самым массовым стандартом подключения периферии?
bagamut
FireWire был лучше и быстрее, но дороже
USB был хуже и медленнее, но сильно дешевле
dartraiden
На Хабре есть перевод отличной статьи об истории FireWire
https://habr.com/ru/post/405673/
Gordon01
А вы можете мне скинуть pdf этой статьи на FireWire — флешку? Ха-ха)
В той статье не написано главное: стандарт убила жадность Apple, которая привела к тому, что разъем, лицензия на обязательный логотип и микросхема-контроллер стоили дороже, чем 99% устройств, которые хотелось подключать.
Мертворожденный стандарт, который почти всем технически хуже USB.
sumanai
Но ведь не хуже же. Местами даже лучше.
Gordon01
Хуже сложностью, дороговизной, неприспособленностью к реальной жизни, энергопотреблением и наличием бесполезных фич, которые в реальности никогда не работали.
Взять тот же DaisyChain, на бумаге классно, а в реальности скорость выставлялась по самому медленному устройству. Подключил мышку к сканеру — он начинает сканировать в десять раз медленнее. То есть реально это было применимо к мышкам и клавиатурам, а во всех остальных устройствах нисходящего порта не было.
Жаль, что в USB не было возможности сделать клавиатуру с USB портом для мышки… а постойте-ка, в USB есть хабы, которые к тому же могли согласовывать скорости и такого бреда, как в FireWire, когда одна мышка замедляла всю ветвь дерева не было.
По сути FireWire — это коаксиал с шинной топологией, продолжение ADB, а USB — это витая пара со свитчами.
sumanai
Прямо сейчас такая.
Пишут, что и на USB бывает такое с некоторыми хабами.
Gordon01
А ты точно умеешь в сарказм и чтение предложений целиком?)
Жаль, что в USB не было возможности сделать клавиатуру с USB портом для мышки… а постойте-ка, в USB есть хабы, которые к тому же могли согласовывать скорости.
А у FireWire это бывает всегда. Потому что выбор шинной топологии был ошибкой.
daggert
Я скину, прысылайте флешку :D
khajiit
У этого есть одна, на 20 (а может уже и 40) ГБ. Ей лет 15 уже.
Ritan
Она у вас что, растёт с годами?
khajiit
Это у родителей. USB/1394 mini-ide hdd case, и для него точно каджит передавал парочку винчестеров. Правда, на 80 был дохлый.
markmariner
Эээ, чё? Эппл были первыми, кто массово поставил USB в свои компьютеры, а FireWire использовались для потоковой передачи данных с аудио- и видеоустройств, чего в те времена USB просто не снилось.
cepera_ang
Да лаааадно! Apple слабенький как катализатор перемен? Сходу кажется совсем наоборот, Apple частый катализатор перемен, только эти перемены касаются не так приятных уху и уму гика характеристик, типа видов портов, скоростей, частот и размеров памяти, а того, что можно не задумываясь делать с железкой.
sumanai
Но ведь с Apple железкой нельзя ничего сделать, пока она не jailbreak.
SamaRazor
Где мне раздобыть этот ваш jailbreak для своего mbp 16?
sumanai
Понятия не имею, я расстался с продукцией Apple во времена iPhone 3G.
Но замечу, что в современных ноутбуках с чипом T2 или вот этих новых на M1 вполне себе есть проблемы с работой других ОС, к примеру. Не знаю как с ПО, думаю, всё идёт к тому, что скоро и тут появятся локи.
cepera_ang
Возиться с железкой действительно не получается, а пользоваться ей как бытовой техникой — вполне. Не знаю, зачем мне на айпаде jailbrake, потому что потрахаться у меня замечательно получается с raspberry pi.
Ну серьёзно, подавляющему большинству пользователей вообще не хочется и не нужно возиться с внутренностями, для них интерфейс с железкой — это её практичная функциональность — воспроизведение звука/видео, открытие книжек/вебстраничек, игрушки, карты/переводчик/магазины. А не микроархитектура процессора, API операционной системы, электрические детали разьёмов и особенности использования радиоэфира.
И эпл в этом плане почти всегда молодцы — миллиард пользователей спокойно подключают свои айрподсы простым поднесением наушника к телефону и всё "просто работает" и не требует лезть куда-нибудь в кишки настроек, командную строку, перебирать "блютус-стеки" и подобное шаманство из мира других реализаций, которые "были первыми, а эпл только повторяет".
logran
Это всё прекрасно. Я немного далек от сегодняшнего состояния эпл (обладаю устаревшими данными), а по сему вопрос: могу ли я как простой пользователь просто подключить iPhone по USB к рандомному ПК на Windows (без тунца) — как флешку — и закинуть туда свои книжки с флибусты и свою музыку, которую я заботливо отсортировал по папкам (а не по тегам и прочим пожеланиям тунца), и потом так же легко как на пк или Andoid её по папкам воспроизвести?
Или всё еще на работе/в гостях я должен искать ПК с тунцом (он же ведь у каждого, правда?), сортировку музыки доверять плееру, который превратил теги моих скачанных непойми откуда MP3 в крякозябры, а для доступа к файлам по папкам творить шаманства с потрохами, джейлом и сторонними файловыми менеджерами?
cepera_ang
Простой пользователь сейчас слушает спотифай — нажал кнопку и тебе в уши льётся индивидуальное радио подобранное под тебя заботливым алгоритмом. Серьёзно, это весьма интересная логика требовать возможности добровольно возиться с папками, прописыванием тегов, какими-то проводами, тунцом или флешками, чтобы получить на 95% тот же результат — в ушах играет музыка. И это эпл как раз даёт такую новую возможность — отказаться от этой "возможности" возиться с компьютером/телефоном/плеером. Да, ты получаешь органиченную функциональность, но зато сразу и без лишних телодвижений. А кому хочется большего — никто же не заставляет, гиковские альтернативы никуда не деваются, хочешь андроид шей-перешивай, хочешь пайнфон, хочешь на распбери собери себе плеер/приставку, будет от души возни со всякими внутренностями и всё-всё-всё придётся самому руками потрать, чтобы заработало.
VolCh
Гугл показывает, что аудитория спотифай порядка 160 млн человек (интересно, включая меня, который зарегался, покликал, подумал "хрень какая-то, да ещё трафик жрёт постоянно" и закрыл навсегда, или не включая). А аудитория только Андроида наверное уже под три миллиарда.
onlinehead
Ну Spotify здесь собирательный же образ. Есть Google Music (YouTube Music вроде сейчас) с аудиторией с 15+ миллиона подписчиков, Tidal с 3 миллионами, Amazon Music с 55+ миллионами, Deezer с 16 миллионами пользователей/7 миллионами подписчиков. Наверняка есть ещё менее известные национальные в Азии и Индии, допустим.
Даже у Яндекс.Музыки и Вк музыки больше 2 миллионов платных подписчиков, а бесплатных пользователей на порядок больше. Это из того что работает на Android.
Подписчиков Apple Music больше 70 миллионов.
В целом, я уже очень давно (лет 5, не меньше) не видел никого, кто реально пользуется флешкчками и качает музыку с торрентов на телефон, чтобы ее потом послушать. Стриминг сейчас стоит практически ничего (как и мобильный интернет). Ну то есть если у тебя DAC внешний и хочется флака, но жалко денег на HiFi подписку от Tidal то да, придётся морочиться. Если хватает mp3 320 kbit/s или его аналогов — любой стриминговый сервис закроет вопрос с легкостью.
VolCh
Значит мы не встречались :) С флешечками, конечно, не бегаю, просто синк папки на телефоне с папкой на ноутбуке. С марта, правда, не актуально — акустика лучше на ноутбуке
onlinehead
Это точно, я бы запомнил человека, который может без вреда для психики и ушей на ноуте музыку слушать :) Оно же отвратительное примерно везде.
А, ну у нас совершенно разные юзкейсы.
К окончанию периода, когда я локально хранил музычку, объем коллекции у меня уверенно перевалил за 100Гб (flac конечно, какой смысл хранить mp3, раз уж качаешь), а количество устройств стало больше двух. У меня достаточно разнообразный музыкальный вкус, чтобы коллекция пухла достаточно быстро и я иногда что-то рендомное из нее слушал, причем я сам себе заранее сказать даже не могу что это будет, чтобы подготовиться, то есть сильно желательно все всегда иметь с собой.
К примеру сейчас любое решение про локальный сторадж будет просто очень сложным. Куча устройств (десктоп, телефон, планшет, ресивер), плейлисты непонятно как переносить, желание послушать что-нибудь эдакое за рулем в дали от дома, просто физические проблемы с синком нескольких сотен гигабайт (ну или даже пары десятков, если заморочиться рекодингом, но это опять же время и гемор). Не, можно конечно айфон на полтерабайта купить и заливать в него (ну или другой телефон), но это надо помнить, синкать, тратить время на поиск и отслушивание новой музыки, потом качать, складывать это куда-то. Да ну нахрен, оно даже на 10% не так удобно, как со стримингом.
VolCh
Ну я не меломан, да, как вы поняли, устройства только два, на древнем телефоне 128 Гб памяти, почти ничем иным, кроме mp3, не занятой. Пока вполне устраивает.
Онлайн сервисы пробовал, но всего интересного не нашёл, а своё только вк позволял закачивать
Sequoza
Локальный стрим сервер дома должен помочь. Используете спотифай/Deezer/whatever как радио, потом покупаете альбом и стримите у себя с локал сторэджа на мобилу. Качество + нет «Can't play this track by any reason».
onlinehead
Ну, если не учитывать время и силы, которые нужны на то, чтобы все это админить, то:
1. Диски не бесплатные. А надо два как минимум, обидно потерять коллекцию.
2. Электричество небесплатное но ок, пусть оно живет на основном компе и представим что там есть место для дисков (так себе затея конечно, не поковырять, не сломать, но ладно).
3. Интернет без static IP и ассиметрик (другого для физиков не продают), оно конечно в целом будет и на 60 мегабитах шевелиться (если какой синк не запустится и не выжрет исходящий канал), но учитывая дабл-нат есть шанс огрести проблем.
4. Внезапно хороший софт для домашнего стрим-сервера тоже стоит денег. По крайней мере стоил, когда я последний раз этим всем интересовался.
Радио с поганым качеством, кстати. На бесплатных тарифах там и качество 128 или ниже, и реклама еще. А если с нормальным — все равно платить, смысл тогда всей затеи?
Я такого почти никогда не встречал за пределами СНГ, то есть оно по сути проблемой не является.
Sequoza
Это решение, когда стриминговые сервисы не могут в то, что вам нужно. Например В спотифай нет всех выпусков A state of trance Armшт van Buuren'а. Да и к тому же, некоторые стриминговые сервисы любят в эксклюзивы (Tidal). Т.е. нужно сразу за несколько платить.
cepera_ang
Ну, у меня самого просто папочка закинутая на телефон (андроид, ага), но я это сделал один раз при покупке телефона и забыл уже. Как будто сейчас андроид нормально подключишь по юсб с этими их "медиа-девайсами" и реальной тормознутостью.
В то же время, на айпаде прекрасно открывается приложение files (ага, такое появилось когда-то давно) и заходит на обычную samba шару, где можно всё смотреть/копировать. Да и флешку можно подключить через usb-c переходник, правда только sdшку так пробовал с фотками, не знаю как музыка будет показываться.
JerleShannara
Так и на андроид есть куча софта, который умеет в SMB и локальную файловую систему. Плюс флешка через переходник цепляется и работает в стандартном (или что там производители телефонов ставят) файловом менеджере.
cepera_ang
Ну да, я и не отрицал этого, только говорил, что "просто воткнуть по юсб как флешку" работает хреново, а воткнуть флешку в телефон или по сети кидать — работает.
ProFfeSsoRr
khajiit
Эта зараза то убивает песни, долго собираемые в плейлист, то "не доступно в вашем регионе", то плейлист становится на паузу, потому что "18+, я понимаю и хочу продолжить", то рандомно вылетает с плейлиста на какую-то ей возомнившуюся хрень, то подсовывает полные альбомы одним файлом без деления на главы даже, то часовые миксы…
Единственное, что сделали хорошо — это возможность переключения видео/звук.
И то, по дефолту оно в видео…
ВК и яндекс урезали возможности прослушивания незарегистрированым.
В общем, с локальной коллекцией все это конкурирует как-то ну очень слабо. Разве что как вынужденная замена радио.
Другое дело, что многих устраивает просто чтобы что-то как-то звучало.
Но это не те люди, которые будут что-то качать =)
onlinehead
Вполне возможно. Последние 4 года сижу на семейном Deezer, после переезда в европу купил еще Spotify себе лично, алгоритмы там больше нравятся. Жена вот дизером пользуется. До этого да, был и apple music, и google music. У эпла алгоритмы говно, у гугла тоже говно, но не такое фатальное.
ss-nopol
Яндекс.музыка работает пока не пересечёшь границу.
logran
Захожу я на всё перечисленное, пытаюсь найти треки вокалоидов, которые слушаю — а их нет. И заботливо рипнутых с ютуба каверов тоже нет. И еще много чего нет из того, что заботливо качалось на винт годами (оно потому и качалось). Есть в основном лишь популярное и мейнстримное.
Есть конечно ВК, в который я и другие пользователи заливают подобное, но он периодически хочет, чтобы мейл.ру заплатили донатной монетой (даже в кастомных клиентах).
А еще мир не ограничивается США с гигабинтым интернетом — в моей прекрасное стране хватает мест с нулевым сигналом мобильной сети — даже смс не всегда отправляются. Какие уж тут стриминговые сервисы. А вот с флешки нормально играет.
Юзкейс «подключить смартфон к компу чтобы что-то скинуть и потом там открыть» — не такой уж редкий среди простых пользователей. И когда для этого надо отдельный софт чисто под скидывание, а потом еще шаманство для открытия — это уже не то, «что можно не задумываясь делать».
onlinehead
Вы не очень правильно себе США представляете. Там на самом мест, где нифига нормально не ловит и интернет через DSL больше, чем во всем СНГ вместе взятом. И безлимиты (даже кабельные домашние, про мобильный интернет я вообще молчу) далеко не везде и не всегда доступны. По средней скорости доступа и финансовой доступности (а так же вообще по доступности безлимитов, в том числе мобильных) страны экс-СССР на лидирующих местах в мире. Хотя даже в той же Польше, где я живу, есть только один оператор, который предоставляет один (!) тариф для бизнеса, который еще хрен найдешь, в котором есть мобильный безлимит, который вроде как дейсвительно безлимит и физику его купить анрил. А самый жирный абонимент, который предлагается за 1.5 тысячи рублей предполагает 75 Гб на симку в месяц на нормальной скорости, дальше шейпер и мегабит. Ну или можно за 400 рублей купить услугу безлимита для медиасервисов и социалочек, туда весь стриминг входит.
Тем не менее, даже этого вполне хватает совершенно без проблем весь месяц слушать музыку по несколько часов не страдая от недостатка трафика.
Да, вот это правда, с народным творчеством там туговато и если хочется именно его, то вариант со стримингом действительно не вариант.
VolCh
Есть мнение, что это следствие лидирующих с конца мест СССР в мире по телефонизации и кабелетелевизации.
sumanai
Не без этого.
logran
Если всё реально так, то на фоне этого меня еще больше поражает тот факт, что все инсталляторы (особенно проф.софта вроде той же Visual Studio) от американских компаний превращаются по сути в лаунчеры-загрузчики, без дистрибутивов для оффлайн-установки… На кого они рассчитаны?)
cepera_ang
На тех, кто ставит рабочий софт на работе, а там нормальный интернет, потому что работа в городе в большом офисе с гигабитами и всем таким. Да ещё и всякие "облака" амазонов практически прямым кабелем. Ставил я как-то софт лаунчером-загрузчиком в офисе — как с локального диска, с S3 работать — одно удовольстие :)
vanxant
на нормальной работе софт ставят специально обученные эникеи из msi
cepera_ang
Разработчикам тоже?
vanxant
Вы таки будете смеяться, но я работал в конторе, где Visual Studio и прочий офис ставился через AD. Была дадена отдельная учётка с правами локального админа на всякий случай, но основной софт, тем более он подписной, ставился так.
На самом деле это даже удобно, можно сесть за любой комп да хоть в бухгалтерии и буквально через сколько-то минут работать.
UPD: да, прямо в коридорах возле кухни и курилки стояли компы, народ постоянно что-то друг другу показывал.
cepera_ang
Верю, но как-то всё-таки кажется, что в мелких/средних компаниях работает больше людей, чем больших корпорациях, где "всё по уму" (на самом деле просто по-другому, сложнее по понятным причинам).
Опять же, сейчас куча разработчиков работают на маке/линуксе, где основной софт ставится через homebrew/apt-get и трудно представить как встала бы разработка, если бы обновление какого-нибудь tensorflow следовало корпоративным бюрократическим процессам чейндж менеджмента по итилю =)
vanxant
Вот насчёт тензорфлоу очень плохой пример, как мне кажется. В смысле, корпоративные политики и стандартизация версий среди всех разработчиков тут более чем уместны.
cepera_ang
Если отдельная команда работает над каким-нибудь набором моделей и их выходной результат — натренированная модель в каком-то стандартном виде и они хотят поддерживать актуальность версий фреймворка внутри команды, а им для этого надо будет проходить через тяжеловесный процесс с отделом айти и т.д., как если бы это была установка дорогущего софта на компьютеры обычных пользователей — то это будет значить лишь одно: версия никогда не будет обновляться (чем вас tf 1.1 не устраивает?).
Написал это и кажется понял, почему у квалкома их фреймворк требует питон 3.4
0xd34df00d
Ну очень просто: оно бы обновлялось раз в год-два.
Chamie
Areso
Зачастую — да.
Причем регулярно я вижу не только, что там нет каверов, что там и оригиналов, выложенных на Ютубе нет. Точнее они есть, показываются в разделе видеороликов, но воспроизводить их нельзя. Вот так вот.
cepera_ang
Ну да, к этому ещё нужно добавить, что значительная часть из упомянутых трёх миллиардов — чрезвычайно дешёвые мобильники в Азии и Африке, и у многих там нет никакого "большого брата", к которому можно подцепить флешечку и т.д., поэтому всё через браузер самого мобильничка, как уж они там страдают, по блютусу может друг другу передают мп3шки :)
ProFfeSsoRr
Нет, потому что простой пользователь айфона это не делает. У него подписка на Apple Music или че-то еще, и там «просто уже есть» вся музыка, что этому простому пользователю нужна. А если чего нет — подписка меняется на аналогичную по цене в другом сервисе. В следующем айфоне, по слухам, вообще не будет разъемов, зарядка бесконтактная будет, кабель для передачи данных уже давно никто не подключает. Скачивание — это уже удел гиков, простые пользователи смотрят и слушают прямо с интернета по подписке.
sumanai
У меня вот свои кейсы, и техника Apple туда просто не проходит.
cepera_ang
Но это не отменяет значительного эффекта Эпла на всех остальных :)
BD9
cepera_ang
Всего-то миллиард-полтора человек, разве это тянет на перемены? :)
Firz
Посмотрел описание последней(вышла пару недель назад) операционки, поддерживает ноутбуки 2013 года и новее. Получается 7-8 лет минимум.
olegi
странно. а где же великая х86 переносимость? Винда работает нативно, а профилей нет.
чё-то вы забыли про USB
Gordon01
Питанием управляет другая микросхема, драйвера и профили для которой Apple не предоставляет. Сделано это, конечно же, специально, чтобы макбуки работали нормально только с MacOS.
USB продвигает USB-IF с Intel во главе
olegi
может быть потому что у винды нет режимов которые есть в macOS, например, powernap?
ниже указали, что Apple Inc.'s iMac was the first mainstream product with USB and the iMac's success popularized USB itself.
sumanai
Понапридумывают всякой фигни вместо стандартных S0-S5.
Gordon01
Давайте вы покажите инструкцию х86, которая занимается этим, чтобы не быть голословным.
Вы не понимаете о чем говорите.
Ага, с долей рынка менее 1% (на конец девяностых).
iago
4. Неправда, Apple до конца тянет свои ноутбуки. Мой старый 2013 года спокойно обновляется и даже не тормозит в повседневных нуждах. Новый взял исключительно из-за оперативной памяти (да, с возможностью апгрейда у них ужас).
Про телефоны я вообще молчу — тянет до последнего, пока совсем не отомрут.
По всем остальным пунктам полностью согласен.
Gordon01
А вот аймак 2013 навсегда останется на каталине. /s
Rutel_Nsk
Идеальная ситуация, сейчас в вычислительной технике стагнация.
Большинство фирм начинают что то делать только в случае реальной угрозы своему существованию (удачно или нет это отдельный разговор).
Сейчас у интела нет другого пути, измениться или умереть.
Денег у них много и могут замутить очень суровые проекты.
Я как исследователь, обращаюсь в компании — создал новые вещи, внедряйте.
В спокойные времена получаю один ответ: Нам ничего кардинально нового ненужно, нам и на наших традиционных рынках хорошо.
Сейчас наступает мое время — готовьтесь- мало не покажется ))))
ILaeeeee
Как бы напомню в чём был успех платформы PC и почему Apple в своё время практически загнулась. PC — открытая модульная концепция. Открытые стандарты, по которым могут делать разные производители, тут и разнообразие, и конкуренция, и объём. Если за новыми процессорами не будут приходит публичные стандарты, по которым могут делать что-то сторонние производители, то мало что сильно распространиться.
sumanai
Времена сейчас другие, всем подавай платформу и законченное устройство.
Areso
Но только не сотне производителей матплат, видеоплат и других -плат, из которых можно собрать компьютер (или, скажем, ноутбук, если у вас есть маленький заводик).
sumanai
Основных производителей менее десятка, и им ничто не мешает переконфигурироваться на производство только готовых изделий. Рынок отдельных запчастей не думаю что сейчас растёт.
Areso
У них нет их экосистемы. А без экосистемы изделия никому не нужны.
Apple зарабатывает на сервисах и магазине. Sony (PS), Microsoft (X-Box/WinStore/Azure/Office 35), Google (сервисы), а остальные в пролёте на этом празднике жизни. Либо уходить, либо довольствоваться низкомаржинальными продажами «готовых устройств» под чужую дудку.
sumanai
Мне нужны, я наоборот покупаю устройства без экосистемы и выстраиваю её сам, чтобы не заниматься выбором, кому я буду сливать все свои данные.
olegi
а какая экосистема у производителей матплат и видеокарт?
Areso
А их нет. Они живут на высоконкурентном и относительно низкомаржинальном бизнесе, пытаются сделать свои бренды «зонтичными» (та самая экосистема, хоть и хардварная), выделяют «премиум» сегменты (ради бОльших наценок), и надеются, что на их улице перевернется грузовик с
пандемиеймайнерами.olegi
поэтому их можно не брать в расчет при смене парадигмы. им нужно сейчас бежать партнерится с новым Intel (Qualcomm) и AMD (Samsung\MTK), и убеждать их в выпуске «открытых» платформ.
ILaeeeee
Я думаю, и раньше, законченное устройство, куда более привлекательно выглядело, чем конструктор. Просто, есть люди, которые любят под себя затачивать. Как и специфические задачи никуда не денутся, которые требуют гибкой конфигурации системы. У Apple же, как видно по последним продуктам, противоположная концепция: уменьшение кастомизации.
sumanai
Ну вот и останутся 3,5 гика и линейка проф оборудования за соответствующий ценник.
M_AJ
Такое говорят про ПК в принципе. Всем остальным, кроме гиков и профи, достаточно дескать планшета с клавиатурой. С ужасом представляю, что однажды это может оказаться правдой. Дай бог здоровья ПК-геймингу…
dartraiden
Уже неоднократно за последние пару лет встречал людей, у которых возникала проблема при прошивке роутера на первом же пункте "подключитесь к роутеру по проводу". У них банально не было ни компьютера, ни ноутбука.
VolCh
Или провода достаточной длины. Кабель от провайдера в прихожую заведён, десктоп на противоположном конце квартиры
sumanai
В своё время мне протянули кабель до самого ПК, стоящего в дальнем углу. Потом я купил роутер, и у меня теперь моток лишнего провода.
olegi
несколько раз прошивал zyxel без провода. или у других не так?
dartraiden
Конкретно в описываемых случаях (перепрошивка Xiaomi R3G) происходила радикальная смена прошивки (т.е. не апгрейд, а полный переход на совершенно иную) через вход в загрузчик, а там без провода никак.
olegi
радикальная — это например, смена фирменной на WTP или как там они называются?
Areso
OpenWRT
dartraiden
Да, смена стоковой на OpenWrt, Padavan, KeeneticOS. Первые две можно прошить и из стоковой прошивки, но через загрузчик намного проще. А прошивку от Keenetic, например, кроме как через загрузчик, и не поставишь.
NoRegrets
Заголовок про Intel и его кончину, а текст про Apple, айфоны и новый «революционный» процессор. Ну как так можно-то?
Не фанат Intel — 10 лет производительность процессоров не особенно поднималась, сдерживали развитие и почивали на лаврах, пока конкуренции не было, поделом им. Но нельзя просто так взять и сказать «Крушение Интел произошло» ©. Если есть такая уверенность, надо шортить интел на все плечи, а не такие статьи писать. Будет самой удачной инвестицией в жизни. Вот только подкрепить деньгами свое мнение о крушении интела — сумашедших мало.
Интел может выстрелить внезапно и без предупреждения, точно также как AMD. Вспомните, сколько лет AMD барахталась в кильватере Intel, пока не вышел Zen. Один процессор — и ситуация может кардинально поменяться. У Intel много кеша, большие вложения в R&D, большая доля рынка, так что не стоит пока его хоронить, баянов не напасетесь.
JerleShannara
Дык, в среде линукса очень моден «вендекапец», который вооооот-вот настанет уже как лет двадцать. Теперь появился ещё «интелукапец», который настанет вот-вот.
khajiit
Причем сам капец на деле ведь никому не принесет выгоды.
BD9
Ну кое-кому принесёт.
Flammar
Shyrka
И конечно, связка «фотокамера+сеть», чтобы сразу свои фоточки и видосы показать всему миру. Особенно касается девушек. Вот представьте — что бы они делали с телефоном со всеми видами связи, но без камеры? Как себя показать-то? Для молодой девушки покупка телефона с камерой=выход в свет, если ты не фоткаешься и не размещаешь себя в сети, тебя как бы и нет.
popov654
Как же жили в мои молодые годы до появления айфонов и быстрого мобильного интернета?) Вроде, норм было всем… Обходились без этого
Areso
Зависит от годов, на которых пришлась ваша молодость.
Kodak Express?
Polaroid?
Farbefilm? (Nina Hagen — Du Hast den Farbfilm Vergessen 1974)
JerleShannara
Ну так можно было в фотобудку зайти. А ещё туда можно было затащить свою вторую половинку, а далее от целомудренности и до «студия приват представляет.»
sumanai
Мне нравится, что меня нет ))
0xd34df00d
Так вы, наверное, не молодая девушка.
sumanai
Откуда вы…
Flammar
Справедливости ради, ко времени появления iPhone найти в продаже телефон без камеры было труднее, чем с камерой.
popov654
Идентификация по номерам сотовых, особенно обязательная, пришла всё-таки на 4-5 лет позже выхода первого iPhone. Мне кстати ещё любопытно, почему в те годы не взлетели смартфоны с кнопками. Неужели их использование было настолько неудобным по сравнению с сенсором?
Flammar
Наиболее вероятно — отнимали место у экрана.
El_Kraken_Feliz
У меня был Asus P525, отличный аппарат, был им доволен :)
Qinabu
AMD тоже хоронили, особенно конкуренты.
Ilirium
Не одна Интел в 2005 году не увидела будущего. Sony, HP, Casio и другие массово прекратили выпуск PDA, все писали о смерте карманных компьютеров. На фоне этого продажа Интелом своих ARM процессоров выглядела разумным шагом. Palm и Psion просто померли. Смесь PDA + сотовый под названием коммуникатор не полетела. Гора совместимого софта просто ушла в утиль. Все переписали заново и зачастую другие компании. Windows CE/PocketPC/Mobile тоже оказались на свалке истории.
Areso
Они просто были дорогими, и не особо удобными именно для звонков.
Напомню: нажимаешь кнопку поднятия — девайс тупит N секунд. Нажимаешь отбой — аналогично. Пропущенные звонки из-за зависшего радиомодуля?) Ха-ха. Опаздания на работу из-за будильников — да как здрасьте.
А так их было куча — заместо выбывших приходили новенькие — QTek (HTC), Samsung, Asus, Acer, в самом экономе были Gigabyte, еще дешевле — в России — были Rovio. Все клепали коммуникаторы в достаточном разнообразии.
popov654
А нетупящих надёжных моделей не было ни у кого из вендоров? Просто лично я пользовался только HP, за всех говорить не могу. Из явных косяков помню только два: постоянное сбитие точности калибровки экрана и смерть аккумулятора, если долго не заряжать устройство. Это буквально превращало девайс в кирпич, и иногда дале установка полностью новой съёмной батареи не спасала сразу, нужно было как минимум долго ждать, пока зарядится внутренний резервный аккумулятор.
olegi
Sony, HP, Casio — их начал пожирать Симбиан и winmobile
quwy
Intel всю свою историю выпускала «целероны», только назывались они по-другому:
8086 имел удешевленную версию в виде 8088.
386 мог быть полновесным DX и упрощенным/удешевленным SX.
486 аналогично: нормальный DX и дешевый SX без модуля FPU.
Упрощенных моделей не было только у двух «пользовательских» поколений: 286 и Pentium. Остальные шли парами с самого начала.
DGG
Причем Pentium с оговорками — параллельно с самыми первыми Pentium, Intel параллельно запускала новые модели 486 в нише более дешевых.
Pentium MMX же одно время шел параллельно первым pentium II, и занимал ту нишу в которой потом вышел Celeron
BD9
Тут Интел применила маркетологовый приём, увеличив ценность основной марки, создав менее ценную, повысив в итоге доходы и давление на соперников.
Но автор статьи таких подробностей не знает. И много ещё чего.
cryptoz
Вообще-то Pinebook Pro вышел задолго до анонса MacBook на чипе M1. И уже тогда можно было сказать, что сделан первый шаг к полноценному рабочему компьютеру на чипе ARM. Так что не стоит отдавать Apple первенство в этом деле, но в целом, появление достойного конкурента это хорошо, рынок подобных устройств будет развиваться.
Viknet
Efika MX Smartbook выходил вообще за 10 лет до этого. И тоже можно было что-то про него сказать.
Но вот с производительностью у него не задалось, да и софт никто портировать не бросился. Как и с Pinebook.
le1ic
Прикупил акций. А надо было месяц назад.
Gumanoid
Intel или Apple?
le1ic
Intel. apple растет и растет, растет и растет, нет удобного момента для входа
M_AJ
Говорить о кончине всего Интела, только потому, что одной компании, с одним процессором удалось показать интересные результаты в одном сегменте рынка — сегменте ультрабуков, немного странно. Особенно с учетом того, что как минимум пока, эти процессоры не поддерживают сторонние видеоадаптеры, и тех же Mac Pro на них не анонсировано.
Аргумент, что
Выглядит сомнительно хотя бы потому, что Qualcomm еще весной 2019 тут писала
о своем процессоре для ноутбуков, да только тогда у них видимо не особо получилось, откуда в таком случае уверенность, что получится сейчас?
amirosta
TSMC конечно не диктовала никакой дизайн.
Ибо она им не занимается.
WhiteWhiteWalker
Хотелось бы, конечно, чтобы Microsoft пошла по пути The Qt Company и сделала бы две версии своих продуктов — свою и комьюнити, а еще лучше — выложила бы исходники в открытый доступ, оставляя за собой все права. В итоге корпоративный сегмент так бы и дальше покупал лицензии с обновлениями, а домашние юзеры сидели на сборках от васяна, но при этом винда спокойно поглотила бы ARM сегмент рынка.
AndrewTishkin
Я уж думал бизнес-рекламный-термин какой…
Samoglas
Такая же фигня, полез в поисковик. Ан нет, это у нас такие "внимательные" редакторы на Хабре.
vyacheslavchulkin
Столько всего хоронят, то вендекапец, то php умирает, то ещё чего) А на самом деле просто Apple со своей закрытой ос и железом отказалась в силу каких-то причин от intel. Я больше чем уверен что ещё долгие годы процессоры от intel будут устанавливаться и работать во множестве устройств, от простеньких ноутбуков до серьезных машин, а появление M1 если и подвинет этот рынок, то мне кажется не так уж и сильно как говорится в статье. А если уж говорить о линуксах, то сам Линус Торвальдс высказался скептически об M1 https://m.habr.com/ru/news/t/529764/
Areso
Почему что-то должно умереть в один день?
К тому же, php вполне себе развивается, 7-ая версия хороша, 8-ая тоже показывает довольно интересные нововведения.
Однако, если посмотреть безжалостной статистике в глаза, то Python сегодня представлен 3646 вакансиями в Москве, а PHP — 1542.
Посмотрите, ради интереса, этот обзор за 1 кв 2014 года:
ekaterinburg.hh.ru/article/14828
На секундочку, там у Питона 1,5%, а у Пыхи — 8,3%.
Если представить, что доля PHP не изменилась, то за 6 лет доля Питона выросла больше, чем в 10 раз.
P.S.: не хейтер, время от времени пишу и на PHP и на Python'е, в зависимости от задач.
MasteR_GeliOS
Пример про питон и пыху немного резанул глаз. Учитывая что мода на Data Science в поле моего зрения пришла около 2015-2016 года то я вижу новое разделение вакансий в долях как раз в появлении новой массовой ниши. А не в том что питон забрал долю рынка у пыха. Но возможно я заблуждаюсь.
Areso
Оттуда же: Python + ML (Machine Learning) — 298
Tensorflow 120
Pytorch 107
Keras 65
Да, в этом сегменте Пайтон суперпопулярный язык; но гораздо больше людей пишут бэкэнды для сайтов, прикладную автоматизацию, парсеры, ботов, инструменты для DevOps (Ansible), и так далее и тому подобное.
VolCh
Вот интересно сравнение бэкендов для сайтов на python и php в динамике...
0xd34df00d
Хороший обзор, и языки интересные. Можете показать пример программы на linux? И это, кстати, компилируемый или интерпретируемый язык?
Areso
То, что туда попал навык, не относящийся к ЯПам, не обнуляет собранную статистику. И да, я это тоже видел.
0xd34df00d
Не обнуляет, но вызывает вопросы к методологии.
Python просто очень распространённый клей, и его я видел даже в тех вакансиях, где на питоне гарантированно писать не будут.
bakotin
Про PHP и Python — смешно.
1) Отрезать вакансии, где Python указан одним из нужных языков (например, править конфигурации ansible время от времени)
2) Отрезать вакансии, где python не используется в веб-разработке (тестирование, девопс, дата-сеанс)
3) Выбрать именно веб-разработку на Пайтон и сравнить с пхп.
И вот тут Пайтон будет очень слабо представлен.
P.s. И нужно понимать, что гораздо проще с одного языка в веб-разработке перейти на другой язык в веб-разработке. Чем с Веб-разработки на Пайтон перейти на дата-саенс на том же пайтоне. Язык вторичен, специализация рулит.
vyacheslavchulkin
Если из вакансий убрать devops и ML, то у Python цифры уже будут в разы меньше, просто он сейчас взлетел и залез в свои ниши, а так да, немного потеснил php, но это не значит что он медленно умирает. У php есть своя ниша CMS, блогов, форумов где нужно просто закинуть фалы на хостинг и оно работает, в эту нишу в обозримом будущем мало кто залезет на мой взгляд, ну плюс есть symfony, laravel которые много где применяются. PHP всего лишь потерял часть рынка, но хоронить его рано, тем более после 7 когда появилась строгая типизация и значительно ускорено время работы.
flashmozzg
https://www.commitstrip.com/en/2020/12/01/the-best-bet-for-2030/
speshuric
Хорошо так в 2020 году предсказывать за 2005 год. Только контекст нехило вспомнить — 2005 год — как раз осознание фейла с NetBurst и его последователями. Выход с Core 2 был о-очень удачный — десятилетие с лишним тотального доминирования.
Вообще у intel была масса фейлов. Rambus RD-RAM, Itanium, NetBurst (+Northwood, +Prescott), упустили 64-битную архитектуру (amd64), упустили многоядерность, упустили Zen, фейл с Xeon Phi, прозевали мобильную революцию, из древнего — можно вспомнить iAPX 432, не взлетел i80860. Это я только по крупным микропроцессорным фейлам прошёлся. И ничего — утирались, делали выводы, разрабатывали новые продукты.
Чего все взорвались с этим M1, который хорошо себя проявил на распаянной разогнанной памяти в однопотоке? Не, ну Apple, конечно, это не мелочь — это чувствительно, но вот прям сразу "крушение"? Крушение может быть, если Google, AWS, Azure и прочие клауды начнут уходить на ARM (пока это фантастика — скорее на EPIC). Крушение может быть, если массово недорогие и производительные ноутбуки и ПК на ARM начнут делать (не Apple, а остальные). Ну и инерция у Intel огромная, их на поле CPU AMD очень существенно кусает 3 года. И через 3 года всё ещё на серверном и ноутбучном рынке Intel очень прочно держится.
BD9
Простое освоение рекламного бюджета.
onlinehead
Aigir
у Интела было много мертворожденных продуктов, например:
iAPX432 — процессор, ориентированный на язык АДА
i860/i960/ — RISK-процессоры
checkpoint
Как сказал кто-то из известных, Intel помрет вместе с последним пользователем Windows.
В этом свете хотелось бы поговорить вот в чем. Есть такое мнение, и не только у меня лично, что все попытки крупных игроков технологического бизнеса насадить пользователю какую-то идею (поиски т.н. «next big thing») и потом еще десяток-другой лет жить с этого — заведомо обречены на провал. Технологический прорыв прийдет с низу, от потребностей людей, от небольших университетских проектов, от небольших компаний и от open source сообщества (Linux большой тому пример), которые тихо, мирно и постепенно произведут революцию, а не от желаний динозавров продолжать доить своих потребителей. Кто нибудь может вспомнить, когда последний раз слышал что-либо про IBM? А что нибудь произведенное IBM давно видели своими глазами? А ведь IBM на пике своего могущества вкидывал в исследования гигатонны кэша и это не дало ровным счетом ни какого результата (кроме того факта, что 50% всех мировых патентов принадлежит IBM-у). Вот, то же самое будет и с Intel, и вероятно, с Apple как только общество «потеряет веру» в iPhone. Про Apple вообще разговор отдельный — вся их империя держится на чистой вере, не более того.
Я думаю, что понастоящему перспективными являются любые направления, делающие нас (общество) независимыми от конкретного производителя или поставщика технологий или услуг. В этом смысле я хотел бы выделить следующие идеи:
1. Linux десктоп на базе ARM, в том числе одноплатные ПК типа Raspberry Pi, BeagleBone и Pine64. Вышедшый недавно «ПК в клавиатуре» RPi 400 это шаг в нужном направлении. Жду не дождусь, когда какой нибудь SoC на базе ARM по производительности, по энергопотреблению и по цене задвинет Intel и я смогу наконец прибрести себе ноутбук с ARM равной или может быть даже большей производительности чем Core i7. И я думаю, что этот час не за горами.
2. RISC-V — открытая система команд и совместно с ним бурно развивающийся инструментарий разработки микросхем на основе open source уже сейчас делают производство микропроцессоров массово доступным для небольших коллективов, как посредством синтеза вычислительных ядер на ПЛИСах, так и прямое «выпекание» кристаллов — что раньше было доступно только крупным компания с сотнями высокооплачиваемых разработчиков. А это, в свою очередь, открывает бесконечные перспективы к творчеству и изобретению все более и более производительных и доступных по цене рядовому пользователю систем. Как вам, например, 400 ядер RISC-V в одной ПЛИС, каждое с тактовой частотой 360МГц. Вещь специфическая конечно, но каков масштаб? При этом стоимость такой системы — по цене микросхемы ПЛИС «с полки магазина». На RISC-V запускается Linux и очень не плохо себя показывает. Американский стартап SiFive выпустил одноплатку с четырех ядерным RISC-V по проиводительности близкой к ARM Cortex-A55 и продемонстрировал полноценный десктоп с Ubunto Linux на её основе с графикой и youtube-ом разумеется. Ценик на платку пока достаточно высок, так как это всего лишь «демонстрация возможностей», но в три раза ниже чем материнка с процессором Эльбрус.
В общем, я считаю, что нужно всячески поддерживать RISC-V и по возможности отказываться от всего проприетарного или затянутого на одного производителя (Apple, Wintel).
daggert
UPD: Ответ checkpoint, не знаю почему уехал мимо.
Ну послушайте, байку про распберьки лично я слышу с выхода первой версии и что "оно уже почти заменяет компьютер", однако, как показывает практика, распберька это игрушка для гиков лежащая на полке под слоем пыли. Да, можно заставить на нем страдать своих родителей/супруга/ребенка, однако c2d 2006 года за 3000р с GF710 все еще интересней в качестве тестонабивочной машинки или как компьютер для ютуба, а с SSD там и десятка живет вполне ничего + получаем возможность апгрейда. На что-то большее распберька не способна, монтировать даже простенькое 1080р видео на ней уже мучение. Я конечно тоже хочу себе вариант в клавиатуре, но реальных кейсов для него я не вижу.
Производительность АРМа будет на уровне i7 когда в магазине будут отдельно продаваться матплаты и процы под него, а скачать дрова с сайта производителя я могу просто выбрав архитектуру ARM. Вот тогда начнется и гонка и нормальное движение.
krab4yar
очередная статья написанная по данным с презентации apple, что такое независимые тесты производительности все забыли?
RifleR
А что там по независимым тестам производительности? М1 в них уступает процессорам Интел/АМД со схожими теплопакетами?
Alekseyz
del
HEKOT
Браво!
SquareRootOfZero
«Microsoft is Dead»?
Sergani
Статья кликбейт. Я в IT с 1997 года и постоянно слышу про интелкапец от их конкурентов. Уже все эти конкуренты давно умерли и имена их забыли, а интелкапец остался. Этот мертворождённый М1 из той же серии. Через 5 лет о нем никто и не вспомнит.
beduin01
Что-то не верится что вы в ИТ с 1997 года. Думаете Apple опять на x86 вернётся?
VolCh
Ну про M1 забудут. Кто сейчас вспоминает про 8088? :)
kulikovDenis
Рановато похоронку выписывать Intel.
То что она прозевала рынок iPhone, да не приятно, но не критично. Потеряла рынок Mac, эти единицы процентов от рынка ПК, их вообще мало интересовали. Microsoft, тоже похоронила свой проект Singularity конкурент Android буквально за год или два, как тот пошел в массы — Microsoft не умерла.
А насчет технологических новаций, у Intel есть в багаже FPGA, и они их активно двигают в серверном сегменте. В этом направление тоже возможен прорыв.
Я так понял, в компании которую представляет автор, там не то что компетентных специалистов нет, для этих платформ, там даже не знают об таком направлении.
А это уже серьезная проблема для облачного провайдера, когда его предел технических мечтаний — это выкатить AMD сервера, пока они выигрывают по цене с Intel.
Могли бы предложить ARM сервера, чисто для наработки опыта, а то так техническая революция пройдет мимо, пока похоронки будете выписывать IT гигантам.
paranoya_prod
a) Apple не будет продавать свой чип сторонним компаниям
б) ARM-процесоры не от Apple не такие быстрые по тестам
в) Не все производители ARM-процессоров способны сделать такой быстрый чип
г) Майкрософт не слезет с x86 пока ARM-процессоры не такие быстрые
д) Пока Майкрософт не слезет с x86 компаниям Intel и AMD нечего бояться
Итог: Интелкапец отменяется.
Sequoza
Майкрософт уже старается не быть синонимом x86. Продажи пк лет 8 падают, ноутбуки стали заменяться планшетами. Остаются серверы. Даже если они не перейдут на arm, эти деньги — остатки былой роскоши для intel и amd. Так что на майков им явно не стоит рассчитывать.
paranoya_prod
Планшет не средство ввода информации, а для подавляющего числа работ нужен ввод информации. Да и по всяким статистикам на тех-же ixbt и 3dnews пишут, что продажи планшетов падают.
Ну и продажи ПК падать могут не по причине перехода всех на смартфоны и планшеты, а по причине банального насыщения рынка.
На счёт Майкрософт — не быть синонимом x86 она может хотеть, но экосистема софта под Винду выстроена на x86 платформе. Такую систему не просто будет перевести на ARM.
Sequoza
Так в том-то и дело, что ютубчик, вк, одноклассники, инста и т.п. — для этого достаточно планшета или телефона. Компьютер уже не обязателен в каждом доме. У меня недавно спросили, где аппстор на винду? Это один из показателей, что пк (а собственно и windows) не нужен пользователям.
Планшеты можно обновлять раз в 5 лет, а то и больше для фильмов и серфинга пойдут. Раньше интерфейс винды и пк всем был привычен, поэтому майкрософт чувствовал себя королем, теперь же, если дадите юзеру хромбук или макбук, через пару дней он почувствует себя как рыба в воде, т.к. почти так же, как и в смартфоне всё. С виндой такое уже не прокатывает. Microsoft уже чуть-ли не насильно перетягивает всех на кроссплатформенный office 365 (вроде как офис и облака у них ключевой источник дохода).
Их экосистема медленно сдает свои позиции и становится нишевой. Если эплу удасться убедить всех в том, что ещё и final cut, photoshop со всеми продуктами на арме — это замысле самого всевышнего, то ждем всплеска устройств на Windows 10 ARM.
BD9
www.microsoft.com/ru-RU/store/apps
Микрософт повторяет за Яблоком, как и раньше было.
Это — сознательный выбор руководства Микрософт.
Sequoza
Пользователи перестали пользоваться виндой и уже применяют свой опыт работы со смартфоном на десктоп. Т.е. основная «фишка» винды (сделать её привычным окружением) утеряна. Теперь, сделав интерфейс андроида, можно всех бухгалтеров, хоть на chrome os сажать. Всё же так же, как в телефоне. Софт, благодаря, действительно, огромному рынку, подтянут. Посыл был такой.
Так только на x86 денег много не заработаешь. Всё правильно.
chaynick
Маленькая проблемка есть — называется энтерпрайз. Расскажите пожалуйста — когда к примеру Microfocus переведет свое (нет) поделие на ARM?
shifttstas
Энтерпрайз сидит на VDI, а на другой стороне — тонкие клиенты и те же планшеты/слабые ноуты. Т.е x64 нужен только на серверах в таком случае, конечные устройства предпочтительнее на Arm.
chaynick
shifttstas
Так а зачем на arm его переводить, если оно может работать через vdi?
VolCh
Это в каком смысле? Не могут спроектировать или не могут по готовым "чертежам" того же Apple изготовить такой быстрый чип?
sumanai
А кто им даст?
VolCh
Я к тому, что в мире ARM сильно распространено разделение труда: одни процессоры проектируют, а другие производят. Собственно с эппловскими ровно то же: проектируют сами, производство на аутсорсе.
onlinehead
А причём тут ARM? AMD вот тоже fabless компания и ничего, прекрасно живут.
VolCh
Я лишь уточнял, что имеется в виду. Не все способны сделать или не все способны спроектировать.
paranoya_prod
В данном случае не спроектировав не выпустишь под своим брендом. А кто физически их штампует уже давно не имеет значение.
VolCh
Угу, не могут удовлетворить спрос, чуть ли не полгода вперёд всё распродано уже.
sumanai
Я к тому, что Apple не даст свои прекрасные процессоры для производства под другими марками. Так что им придётся проектировать его самим.
VolCh
Не им, не производителям ARM процессоров.
flashmozzg
И? Как это относится к проблеме с "чертежами"? (Не говоря уже о том, что там гарантированно ещё патентами присыпанно).
Lord_Ahriman
Я уже столько раз за последние лет 20 регулярно слышал, что Microsoft/Intel/NVIDIA/любая другая крупная компания ВСЁ, что у меня реакция одна: шо, опять?
VolCh
ATI — помните такую?
khajiit
3Dfx
BD9
ATI не исчезла в небытие.
3Dfx была злонамеренно уничтожена «эффективным» менеджером.
Transmeta, Cyrix, NexGen, Centaur, SiS, S3, Diamond, Gateway, ULi, ALi, Hercules, Tseng Labs, Aureal,…
Много их полегло.
VIA сильно уменьшилась.
khajiit
О, вы помните историю еще с MDA/CGA. Да, в начале пути разнообразие было куда больше.
Lord_Ahriman
Помню. Все же у ATI совсем другая история была, нежели у Интела. Да и комментарий я написал к тому, что для того, чтобы делать такие заявления, нужна какая-никакая серьезная аналитика, а не скам типа "%companyname1% выпустила супер-продукт, теперь-то %companyname2% точно звиздец!".
ilyamodder
Nokia
domix32
уже?
MaximRV
Заголовок статьи удался, браво маркетологу.
А по сути. Ждал появления эпиков с набортной памятью HBM, Интересно появятся ли?
MaximRV
Насчет похорон интел. Да, на данном этапе её теснят не по детски
«Довольно слабо на фоне Ryzen 7 5800X смотрятся и процессоры Intel. Даже 10-ядерный флагман Core i9-10900K уступает новому восьмиядернику с микроархитектурой Zen 3 во всех сценариях PCMark 10.»
3dnews.ru/1026573/obzor-amd-ryzen-7-5800x/page-2.html#%D0%9F%D1%80%D0%BE%D0%B8%D0%B7%D0%B2%D0%BE%D0%B4%D0%B8%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D0%BE%D1%81%D1%82%D1%8C%20%D0%B2%20%D0%BA%D0%BE%D0%BC%D0%BF%D0%BB%D0%B5%D0%BA%D1%81%D0%BD%D1%8B%D1%85%20%D1%82%D0%B5%D1%81%D1%82%D0%B0%D1%85
Honeyman
Как-то странно говорить про потерю монополии архитектуры Intel/x86 на рынке, про то, что AMD и Intel не приходилось беспокоиться и задумываться, что происходит на рынках альтернативных архитектур, и упомянуть только M1. И не упомянуть ещё одно интересное слово, по поводу которого AMD и Intel стоило бы занервничать ещё больше.
Graviton.
Ещё 5 лет назад Amazon купил одну израильскую компанию, разрабатывающую ARM-процессоры. Всё-таки у Амазон в их расходах на хостинг-центры немалую долю составляет закупка оборудования.
Вот в 2018-ом году на AWS Summit уже и были анонсированы первые Graviton-ы, ARM-процессоры для серверов (а ещё и Inferentia, какие-то системы именно для алгоритмов обучения).
А в 2019-ом – Graviton2. На архитектуре Arm Neoverse N1, именно ориентированном на серверы варианте Arm.
И сейчас инстансы с этими Graviton2 понемногу появляются и для платформенного использования («как виртуалки»),… но и для software-as-a-service (например, Amazon RDS – когда пользователь получает «СУБД как услугу»).
И вот тут уже стоило бы забояться ещё больше. Дорогие (но известные) ноутбуки — это одно. А массовый хостинг, в котором вместо «дебиана на интел» можно запустить «дебиан на арм» и (возможно) обнаружить, что нужную тебе производительность ты получаешь за меньшие деньги — это очень опасно. А когда ты даже не должен разбираться с особенностями архитектуры, а получаешь «одну и ту же СУБД, но на твой выбор или на интеловском процессоре или на ARM» – то переключиться с интел на арм и обратно становится совсем просто.
И это ещё вопрос, с чего на что переключаться — в списке «инстансов с оптимизированной памятью», например, инстансы на Graviton2 стоят вообще по умолчанию.
И вот тут, если вдруг окажется, что пользователям Amazon AWS Graviton2 вполне нравится – тут уже речь пойдёт о том, что Amazon перестанет закупать серверные процессоры в таком количестве. И влияние на доходы Intel будет не менее заметным.
wigneddoom
Хорошее дополнение. Внезапно даже сервера от Хуавей на ARM вполне себе неплохими оказались. Процессор конечно проигрывает intel, но в примерно туже цену они смогли запихать вполне хорошую перефферию: сетвые карты, HBA.
turone
Заголок слишком хайповый, хотя до развязки очень далеко и выводы делать рано. Да — интел сглупила, но при её финансах и доминируещем положении на рынке — ещё не поздно всё переиграть. Вон АМД кучу лет пасла задних, потом напряглась и вот видим уже в топе. Так что, я бы так категорично не загадывал, потому как очень глупо ожидать со стороны интел пассивного ожидания, видя присходящее. Думаю, что через 2-3 года мы увидим неслабый ответ от интел и вполне возможно как раз на мобильном рынке.
Lofer
Если все верно, то пока не очень понятно за счет чего эта «магия» работает так хорошо.
Фактически Apple взяла и сваяла процессор без «legacy» и для него нужно «дорабывать напильником» софт с «обычного ARM».
Не настолько же все вокруг идиоты, что бы не использовать что-то из уже известного или комбинации из известных приемов? Полагаю, кто-то уже давно бы развил сходную производительность.
Единственное, что приходит в голову, это оптимизаиция на уровне компилятора, под конкретный процессор. И одновременная оптимизация процессора, под используемые шаблоны исполняемого кода.
Был ли где-то анализ — чем отличается скомпилированный код для M1 и «обычного ARM»? Или как исполняется на уровне команд, предсказания, попадания\промаха в кеш и т.д.?
khajiit
Если этот правильно понимает, то с точки зрения системы команд — абсолютно ничем (если не считать проприетарные специализированные блоки).
Но у него 8 декодеров на входе, соответствующее количество Execution Units, ReOrdering Buffer на 600+ op's, гигантские кеши (L1/L2 тех же размеров, что и L2/L3 у Zen+) и быстрая широкая память на той же подложке. И это наверняка еще не все микроархитектурные отличия.
В общем, он сильно заточен под то, чтобы быстро получать и обрабатывать инструкции и данные в большом количестве.
А по системе команд он полностью совместим с соответствующим семейством.
Viknet
Вот тут в статье очень хорошее объяснение "на пальцах": https://news.ycombinator.com/item?id=25257932
Lofer
Еще некоторый материал: Разработчик Эрик Энгхейм объяснил причины высокой производительности чипа Apple M1
Viknet
Вы статью по ссылке открыли вообще? Там простыми словами пытаются донести технологические преимущества микроархитектуры CPU, разработанной Apple. Как именно у них получается выполнять на десятки процентов больше инструкций на такт в сравнении с последними x86.
А вы что находите в ответ? Кривой пересказ предисловия этой же статьи сводящийся к "Ну там сопроцессоры, нечестно."
Lofer
По Вашей ссылке «простынка», по этой ссылке «выжимка» на пол экрана «каким путем пошли». А «честно» или нет, я не заметил мнения. В чем проблема? Мне, например, нет сейчас времени разбираться с точность до «килобайта» в размерах кешей и количестве конвейеров. Будет время — на выходных внимательно прочитаю Вашу сслыку.
Viknet
Это не выжимка, а пересказ предисловия к статье-объяснению, где дальше рассказывается, что не всё так просто.
cepera_ang
Классное обсуждение, серьёзнее чем здесь, спасибо.
valeriyk
Вот и ответ. Ничем принципиально M1 не отличается от других процессоров. Все то, о чем понаписано по ссылке, было изобретено еще в конце 1980-х. Просто куча железа + хороший техпроцесс + быстрая память. Идеальный вариант для ноутбуков. А теперь посмотрим, как они присобачат 32ГБ оперативки, которые от них уже видеографы всякие требуют :)
AMD серверные процессоры с ARM-овым декодером лет 10 назад стала разрабатывать — и что? Технически это вообще не проблема — тогда вопрос на засыпку: в чем же проблема? :)
Viknet
Просто рисковая ставка на увеличение процессора в ширину, которое до этого почти всегда приводило к росту энергопотребления. Просто reorder buffer в 3 раза больше конкурентов и алгоритмы, способные выжать из него пользу. Просто лучше branch predictor https://twitter.com/andreif7/status/1307645405883183104
Ничего особенного, просто никто другой в индустрии такого сделать не может.
sumanai
Посмотрим, может, через 5 лет и выкатят даже лучше.
Viknet
Через 5 лет и Apple не будет стоять на месте. Но да, только будущее покажет.
Меня раздражает, как некоторые люди отмахиваются от многолетней инженерной работы, которая наконец начала давать существенные плоды, комментариями типа "Ничем принципиально M1 не отличается от других процессоров. Все то, о чем понаписано по ссылке, было изобретено еще в конце 1980-х."
Современные процессоры — фантастически сложные устройства, разрабатываемые в жёстких рамках физических, алгоритмических, финансовых и просто человеческих ограничений.
И тут приходит такой "эксперт" и высказывает своё "ценное мнение", что тут просто техпроцесс получше купили и память разогнали, а так ничего особенного.
valeriyk
Прошу прощения, что смею высказывать свое «ценное мнение», но и увеличение процессора «в ширину» не ново под луной. Проблема в том, что в среднем в обычном general-purpose коде всего четыре-пять команд между соседними командами ветвлений/переходов. И можно параллельно декодировать хоть 100, но КПД будет как у паровоза (если только это не спецпроцессор для DSP или AI). Да, глубина reorder buffer-а меняется одной строкой в коде (да и вообще, в процессоре изменение одной строки его кода может увеличить площадь в несколько раз — так, к сведению).
Что касается того, что никто другой в индустрии такого сделать не может — это неправда. Western Digital, например, скупил у Оракла всю команду разработчиков OpenSPARC для своих новых RISC-V — я уверен, что они могли бы сделать такое. Интел мог бы, АМД мог бы, Самсунг мог бы, Квалкомм мог бы, ХайСиликон мог бы. Просто это дорого, и кроме Эппла никто не смог бы такой процессор монетизировать. Здесь уже маркетинг и экосистема важнее.
cepera_ang
Могли бы, могли бы могли бы, но не стали по экономическим причинам — это тоже самое, что не могли бы. Если в реальном мире не материализовалось, значит не смогли :)
Wingtiger
не захотели из-за высокой себестоимости
Viknet
Но мы видим на реальном коде, что M1 работает практически со скоростью топовых Zen 3, только потребляет 5 Вт на ядро. Так что КПД получился куда лучше, чем у любых конкурентов.
Ахаха. А как заполнять его, менять очерёдность команд и шедулить по исполнительным блокам та же строка кода придумает.
Вас послушаешь, так все "могли бы", но не сделали. Samsung пытался некоторое время назад, и свернул направление. А они на своих фабриках печатаются, и смартфонов больше Apple выпускают.
Что именно дорого? Можете привести расчёты, насколько именно дороже сделать ядро шире? И почему это не оправдывает конкурентного преимущества: снижения энергопотребления в 3-4 раза?
Если бы AMD выпустил такой процессор, Intel в лаптопах просто перестали бы покупать совсем.
valeriyk
1. По вашей же ссылке есть комментарий: «The i7-1165G7 is within 20% on single core performance of the M1. The Ryzen 4800U is within 20% on multi-core performance. Both are sustained ~25W parts similar to the M1. If you turned x64 SMT/AVX2 off, normalized for cores (Intel/AMD 4/8 vs Apple 4+4), on-die cache (Intel/AMD 12M L2+L3 vs Apple 32MB L2+L3) and frequency (Apple 3.2 vs AMD/Intel 4.2/4.7), you'd likely get very close results on 5nm or 7nm-equivalent same process. Zen 3 2666 vs 3200 RAM alone is about a 10% difference. The M1 is 4266 RAM IIRC.»
2. Ну если у вас есть процессор, который УЖЕ умеет все это, просто для трех команд в параллель, то как вы думаете, сложно ли переделать его, чтоб он делал то же самое для восьми? Ответ: это просто. Сделать так, чтоб при этом он не стал работать медленнее и жрать сильно больше — гораздо сложнее. Верифицировать это все — еще сложнее (но не думаю, что Эппл покажет Errata на этот чип :D )
3. Подождите, причем здесь смартфоны? Мы говорим про НОУТБУЧНЫЙ проц! Не видел ни одного хипстера в кофейне с самсунговским ноутом
4. Разработка дорогая. Один американский инженер стоит им как минимум $120к в год. Думаю, они делали этот чип минимум 2-3 года. Сколько народу работало — 100 или 1000 — я не знаю, но можете прикинуть сами. Плюс новый техпроцесс, который завсегда подкидывает проблем. Если бы AMD выпустил такой процессор, на нем должен был бы работать Windows и все игрушки.
Viknet
Этот комментарий не стоит ничего без ссылок на измерения.
i7-1165G7 бустится до 50 Вт при однопоточной нагрузке, а при ограничении потребления до 15 Вт вообще печален.
Ryzen 4800U при многопоточной нагрузке начинает обходить M1 только при 26 Вт и 12 потоках на 8 ядрах. Напомню, M1 имеет только 4 производительных ядра, и потребляет 15 Вт.
Это становится далеко не так просто, когда команды переменной длины (врождённый недостаток x86 в сравнении с ARMv8). А алгоритмы реордеринга становятся экспоненциально сложнее с ростом буфера и количества исполняемых блоков, если вспомнить, что они должны отрабатывать за единицы тактов.
Собственно, Apple это и сделала.
Apple начала делать широкую микроархитектуру на смартфонных чипах, много лет назад. M1 появился как следствие.
Т.е. вы намекаете, что ни у кого в мире нет такой сильной команды инженеров, как у Apple? Да, это вполне вероятно. Именно это я и имел в виду под "никто другой в индустрии такого сделать не может".
Вам осталось только ответить на ваш же вопрос:
cepera_ang
Кек, то есть "это всё просто, любой конкурент мог бы сделать, если бы захотел" оказывает равняется двум-трём тысячам человеко-лет очень высокооплачиваемых инженеров?
Интересно, а сотни-тысячи инженеров, которые у конкурентов могли бы подобное сделать, но не сделали — они у них как, в режиме пониженного энергопотребления всё это время сидят? Или другими задачами занимаются? Или их просто нет в таких количествах?
valeriyk
Непонятен ваш сарказм. Разумеется, равняется — чипы-то на деревьях не растут. Инженеры такие есть у всех компаний, что я перечислил, а еще у них много проектов — намного больше, чем вы думаете. Так что да, они занимаются другими задачами. Не хочу вторгаться в мир розовых пони, но я знаю, как работает эта индустрия.
cepera_ang
Мне теперь интересно, что в вашей картине мира считается сложным, если разработка на 3к человеко-лет, да ещё по готовой базе десятилетия прошлых разработок, что больше никто не желает (и не может) повторить — это "просто".
valeriyk
Я не говорил, что это просто. Как и любая продвинутая технология, разработка процессоров выглядит для непосвященных магией. Тем не менее, фактически процессорное ядро — это просто огромный набор кубиков, которые можно по-разному состыковать. Можно выбрать кубики разного цвета и разного размера, но они все друг с другом стыкуются, как лего. И они уже все придуманы и даже описаны в статьях. Разумеется, собрать динозавра из этих кубиков сложно, но это не магия. Просто нужны люди и время и деньги на зарплату, да и на сами кубики тоже. Лично на мой взгляд, сделать быстро и хорошо работающий многоядерный процессор сложнее, чем отдельное ядро (я уж молчу про софт для него).
Вот, кстати, их ускоритель AI на том же чипе — это уже другие кубики, какие-то треугольные.
cepera_ang
Ну как же так? "Просто куча железа + техпроцесс + память".
Кто вообще говорил про магию? :) Просто, только нужен топовый техпроцесс (а это сложно), просто, только нужные готовые кубики (а это сложно), просто только нужны инженеры (а это сложно) и финансирование (и это тоже сложно). Ну и собрать всё это дело, приправив щепоткой табака тоже просто, но на самом деле сложно. Но не магия конечно.
То, что в общих чертах кубики ещё в 1980-х годах описаны ещё не значит, что кубики в реальном процессоре просто взял и скопипастил из статьи в ядро :) Вон systolic arrays ещё в 1984 году описали, а потребовался Гугл, чтобы в 2015 TPU на этой идее разработать.
Wingtiger
бульдозер собрали из кубиков. А вот райзен уже ковыряли более глубоко.
Для понимания подобного мне хватило курса в инсте по разработке АЛУ ("проц" без декодера и кеша, почти что Z80 :) ) плюс радиотехника (понимание схем и как оно всё работает).
Из "кубиков" собрать можно, но это часто будет больше, жирнее, тормознее, с бОльшим потреблением… А вот объединение разных функций в одной схеме даст уменьшение количества компонентов, потребления, задержек… Это если упрощённо.
Ещё аналогия — в программировании копипаста и простыня кода в main vs собственная архитектура с использованием циклов и функций — разный размер кода, производительность, поддержка… Много чего.
И ещё, что нервирует — фреймворки в вебразработке. Тоже кубики.
cepera_ang
Сейчас студенты в топовых вузах на подобном курсе уже ОоО процессоры на миллионы транзисторов клепают :)
Думаю что чувак из компании производящей софт для проектирования этих кубиков примерно знает о чём говорит =)
beeruser
Электромобили появились в 19 веке.
А вы попробуйте сделать frontend с шириной 8. Intel/AMD тут и рядом не стояли. IBM может такое сделать в своих 200-300W печках.
Но в ядре с потреблением 4-6W не может.
При увеличение ширины запуска сложность соединений растёт очень быстро (квадратично).
Данные «в среднем по больнице» не интересны. Основное время код проводит в циклах.
Вот дураки — то в Интел и AMD. Не могут 1 строчку поправить :)
А ещё и кэши не могут увеличить как у Apple. Ведь это 1 строчка в коде(с)
Как сидели в 2003 с Pentium-M, так и сейчас сидят на 32/32 (L1I/L1D) в Comet Lake.
Ничего, что размер структур напрямую влияет на энергопотребление и задержки? ARM не любит большие ROB, потому как это заметно ухудшает энергоэффективность.
Apple, в отличии от всех остальных может делать большие структуры, которые быстро работают и при этом энергоэффективны.
Не смогли бы. Sparc всегда был днищем в микроархитектурном плане. Они так и не осилили нормальный OoO. Клепать микроконтроллеры для SSD — вот эта задача по зубам.
Интел мог бы, АМД мог бы,
Так чего же не сделали?
Самсунг мог бы,
Самсунг очень пытался, вливал бабло, но не смог не по производительности догнать Apple, ни тем более по энергоэффективности. Их продукты проигрывали даже стоковым ядрам ARM.
Итог: Команду уволили. (Команду которая до этого делала энергоэффективные ядра в AMD)
Квалкомм мог бы,
Смешно. Они заказывают модифицированный по их ТЗ стоковый дизайн у ARM.
У них и разработчиков ядер уже и не осталось поди.
Команду, которая занималась (серверными) кастомными ядрами давно уволили.
ХайСиликон мог бы.
Их собственное ядро и до старых ARM-овским стоковых ядер не дотягивает.
Прежде чем фантазировать о том чтобы достать до Apple, достали бы до ARM сначала.
Кроме упомянутых выше есть Ampere(AMCC), Marvell (Cavium(Broadcom)) — имея опытные команды с многолетним опытом они так же сдались. Идею о собственных ядрах пришлось забыть, а инженеров уволить.
Есть ещё nVidia, которая тоже не снискала успехов на этом поприще.
Итог такой: Apple сейчас State of Art. Никто и близко не подобрался по производительности на такт. Ждём Nuvia.
wigneddoom
А "ХайСиликон" разве не полным составом перешли в хуавей?
valeriyk
И в чем конкретно проблема сделать frontend с шириной 8? Делаем шину в L1 I-cache шире, 512 бит или 1024 бит — сколько не жалко. Добавляем декодеров, и вуаля. Ах да, компилятором анроллим все циклы, чтоб было чем загружать execution units, что увеличивает размер кода в разы и трэшит нам L1 I-cache. Бинго! Не удивительно, что у них >=192кБ L1 кэша для команд. Про IBM смешно, если б у них стояла задача сделать чип для лаптопа, то 300-ваттная печка превратилась бы в 15-ваттную путем замены одной библиотеки стандартных ячеек на другую — пара месяцев работы (работала бы медленнее, да).
Это не critical path, так что пофиг.
Это никак не отменяет того, что я сказал.
Не не могут, а не хотят. Потому что у них есть симуляторы, которые показывают, что это неэффективно. Но есть люди, которым всегда надо больше — больше МГц, больше ядер, больше мегапикселей, больше камер,… :D
У Эппла какая-то другая физика, или просто 5нм? :)
beeruser
Ахах. Всего-то нужно добавить декодеров =) «Глупые» интеловцы и AMD-шники и ARM-овцы делают uOP кэш и разметку в L1I чтобы хоть как-то расширить узкие 4-5 wide декодеры.
А больше они и не могут сделать. Без VLE это проще,
поэтому в Power-печке 6/12-wide декодер.
У них была такая задача, и они не справились. Вообще не смогли. Никак. Поэтому Apple прилось уходить на Intel.
Так в чём же проблема? Почему ни Интел, ни IBM, ни AMD не может выпустить какой-нибудь 24 ядерник в 15Вт? :))))
Как же так? Без ваших ценных указаний им не справиться?
Чтобы в 20 раз уменьшить потребление, нужно использовать старый советский…
Это делать не нужно. Вы не слышали про предсказатель ветвлений?
После всей сказочной ереси которую вы тут наговорили, я не удивлён.
Увеличение размера кэша L1D неэффективно? *** ROFL ***
Тогда зачем они его увеличили в Sunny Cove? :))))
У Apple топовая команда инженеров и приоритеты расставлены правильно. Qualcomm те же самые 5нм. Уже можно посмотреть насколько хвалёный X1 сливает A14 :)
browser.geekbench.com/v5/cpu/compare/5114111?baseline=5109194
valeriyk
Вы снова читаете не то, что я написал, а то, что вы хотите видеть. Не знаю, что там делают интеловцы со своей убогой ISA, но почему ARM не ставит больше декодеров? Поставить больше декодеров — это самое простое, что только можно сделать в процессоре (проще только кэш увеличить). Пока подумайте, ответ ниже.
Слышал, могу даже вам рассказать, как они работают. Кстати, они — одна из самых сложных частей процессора (при этом одна из самых маленьких). А теперь представьте себе обычный код: три команды, потом переход, потом две команды, еще переход, еще пять команд, потом два перехода подряд, потом еще пара команд. Итого 16. Некоторые переходы условные и зависят от результатов предыдущих команд. Теперь вы за раз вытаскиваете из кэша по 8 команд и декодируете их параллельно, а потом решаете, что делать дальше. Так вот, в этих 8 командах у вас два перехода, которые могут зависеть от результатов первой и второй команды соответственно. Окей, у нас предсказатель переходов, который говорит нам, что первый переход надо выполнить. Правда, за то время, за которое срабатывает предсказатель, мы спекулятивно вычитываем и декодируем еще, например, три раза по восемь команд. То есть мы достали и декодировали 32 команды, из которых смогли использовать только четыре. Ну ок. Возможно, этим оверхедом можно пожертвовать. Правда, на мой взгляд это как раз то, что превращает процессоры в печку. Что-то в этом есть от Pentium-4 :)
У меня есть замечательная книжка Майка Джонсона — одного из авторов AMD 29050. Это первый суперскалярный RISC от AMD — 1990 год, вроде бы. И в ней уже есть графики, сравнивающие эффективность декодера на 2 и 4 команды. Даже если мы забудем все доисторические мэйнфреймы, то декодер на четыре команды в обычном процессоре был представлен больше 30 лет назад! С тех пор частоты и количество транзисторов выросли астрономически, но до сих пор тот же ARM пихает декодер на те же четыре команды в самые распоследние Cortex-A7x. Вот же тупыыыые!
Viknet
Когда branch misprediction остаётся в пределах 10% на разнородной нагрузке, оверхедом действительно можно пожертвовать. Ведь в 9 раз из 10 мы не только вытащили и декодировали то, что нужно, но и спекулятивно исполнили на свободных исполнительных блоках.
Вообще на этой картинке любопытно посмотреть на IPC: на Intel 1.75 в среднем и 3 max, тогда как A12 показывает цифры около 3 в среднем, и до 5.5 на отдельных алгоритмах — это хорошо показывает, что уже он был бы ограничен в производительности (по крайней мере на каких-то отдельных нагрузках) при 4 декодерах, а M1 прилично больше производительности на частоту выдаёт.
Мы же обсуждаем существующий процессор, который можно купить в реальном устройстве. Он никак не похож на печку.
valeriyk
Здесь есть нюанс. Чтобы сделать частоту процессора быстрее, вы жертвуете эффективностью. Например, вы добавляете больше стадий в конвейер, что влияет на латентность команд и увеличивает оверхед при неправильно предсказанных переходах, увеличивает энергопотребление, и т.д. Посмотрим на два гипотетических процессора, сделанных по одному техпроцессу. Один из них разработан, чтоб работать на частоте 1ГГц, а другой — 2ГГц. У них будут разные архитектурные решения, чтоб этого добиться. Теперь, если вы возьмете второй и запустите на 1ГГц, вы увидите, что он менее эффективен (по тем же IPC) и больше жрет, чем первый. Если для вашего приложения 1ГГц достаточен, или у вас ограничение по энергопотреблению, то лучше выбрать первый. Но это не значит, что архитектура первого лучше, просто она другая.
Viknet
Если она показывает ту же производительность (благодаря большему IPC) при меньшем энергопотреблении (~частоте), то я считаю, что она объективно лучше, при прочих равных.
valeriyk
В этом плане я считаю, что миру наконец повезло, что нашлась компания, которая не считает деньги для того, чтоб отомстить x86 за i860 и i960 :D
cepera_ang
Обожаю читать вот такое "просто" и "ничего принципиального нового". Всё вокруг просто, принципиально старое и не проблема, всего лишь обычная инженерная работа.
Вот только не получается почти никогда ни у кого сделать сразу сложное и принципиально новое. А всё как-то небольшими шажками, тут улучшили, там улучшили. Причём люди карьеры делают и жизни тратят на то, чтобы какую-нибудь упаковку транзисторов в SRAM-ячейку улучшить на 10%, но для всех это "просто техпроцесс, просто куча железа".
Если архитектору из 1980-х показать М1 — он в обморок упадёт, а не скажет "хм, да тут всего лишь наши текущие идеи использованы".
valeriyk
Нет. Архитектор из 1980-х упал бы в обморок от количества EDA-софта, упрощающего разработку, и от скорости работы библиотек стандартных ячеек, но не от сложности процессора. Конечно, это сложный процессор. Но не сложнее интеловских, не уверен, что сильно сложнее какого-нибудь OpenSPARC или Power. Не прорыв. Не «The Next Big Thing».
sumanai
Архитектор упал бы в обморок от того, что 10 миллиардов транзисторов дают такое же время отклика в ПО, что и его 100 тысяч.
Wingtiger
была пара статей, что хуже, чем на компах 80ых.
beeruser
Ахах. Там пропасть по сложности. В Power традиционно слабый OoO движок, а OpenSPARC (T1/T2) это вообще простейший in-order процессор.
Почитали бы на досуге OpenSPARC T1 Micro Architecture Specification
www.oracle.com/servers/technologies/opensparc-t1-page.html
Ну как скажете :) Просто первый ARM опережающий топы х86 по абсолютной производительности потребляя 1/4 энергии. Сущие пустяки.
Хотя отчасти я согласен — настоящим прорывом был Apple A7. 7 лет шла упорная инженерная работа по выведению его на #1 по производительности.
DoubleW
И не забываем то что эпл владеет биткодом всего своего аппстора, что позволяет им проанализировать огромное число софта на типовые последовательности команд, наверняка это все ресерчилось и выбиралось под что следует заточить ЦПУ, и оптимизировать компилятор.
Антуту вот выбран не был потому и не показывает кратного скачка)
ну и кстати
и
Интересно
могут ли камни плотить налогимогут ли АМД подняв транзисторный бюджет в 3и раза увеличить скорость на треть?Или поставим вопрос шире, если АМД будет монополистом в какой либо нише, и будет обладать всеми бинарями ПО этой ниши, и компилятором под свои ЦПУ, смогут ли они в тестах(комплируемых их компилятором) поднять производительность тестов на треть?
При условии что только переход с 2666 памяти на 3200 дает прирост 10%
olegi
Скажите, пожалуйста, что показывает UX тест антуту?
Areso
Внезапно, но Хабр учёл мои интересы и показал статью про что-то подобное, где точно также обсуждают ноутбук с ARM'ом и грядущий Intel'окапец.
habr.com/ru/post/67673/#comment_13517655
2009 год, на минуточку.
beeruser
Вы реально не видите разницы между ОЕМ поделкой на Cortex-A8 которую сделали в 10 экземплярах и десятках миллионов ноутов с топовыми характеристиками и глобальной софтверной поддержкой?
Areso
Разницу вижу. А также я вижу то, что Apple может продасть что угодно, независимо от потребительских характеристик и глобальной софтовой поддержки (нет, свои приложения они перенесут, а вот дальше — это вопрос всё еще открытый). Прямо эффект зачарования. Тут про геймеров в писали — ну так сколько игр там портировано на MacOS? А сколько из них будет портировано для MacOS on ARM?
«Топовость» тоже, так скажем, дискуссионный вопрос. 8ГБ памяти — у меня в нетбуке из '14 за 15 тысяч рублей столько же памяти. Ну, и по процессору — Cortex-A8, для своего времени, был актуальным решением. Этот чип — тоже актуальное решение, лучше конкурентов, но я видел первые двухядерные решения — скажем, лэптопы на nVidia Tegra 2 — и несмотря на превосходство прямых конкурентов со старыми одноядерными ARM'ами — их распространенность была не очень большой. Хотя Toshiba с nVidia Tegra 2 я даже в руках держал. Неплохая машинка, лёгкая, но не без особенностей.
Потом много что было, и даже сейчас можно купить без особого труда Chromebook на ARM чипе.
Эти существующие устройства заняли какую-то нишу; эти нетбуки и ноутбуки за много-много денег от Apple тоже займут определенную нишу (в их миллионных тиражах я не сомневаюсь), а будет ли вышеупомянутый x86-капец — это вопрос.
beeruser
Вообще не волнует.
Меньше игр — меньше конкурентов :)
В х86 игры на macOS можно спокойно играть на M1 и даже лучше чем в нативе.
Спасибо Интел за днищенские видеокарты.
Вопрос в том, можете ли вы редактировать несколько 4К потоков в реалтайме на своём нетбуке или нет. Сможете собрать ядро линукса в виртуалке за пару минут?
Для компа? Разумеется не был. Подсказать что было актуальным?
Nehalem 4 ядра 8 потоков 3ГГц. Между ними 50x разница по скорости.
AC100? На Андроиде. Без магазина. Без софта. Без апдейтов. Cortex-A9 без NEON.
КОМУ он был нужен вообще и для чего?
У меня такой есть с Линуксом. Разумеется линукс там работает через жопу из-за архикостыльного железа. За все годы его так и не смогли заставить работать нормально.
Нишевое устройство для интернета на слабых ARM-ах, которые никакую конкуренцию х86 не оказывают.
Areso
Хорошо, что у маководов с этим легче, чем у Linux c WINE/Proton.
Не редактирую видео, но, думаю, нет. Ядра не собираю, но то, что я компилирую, компилируется достаточно быстро — мои игры собираются за секунды, числадробилки — за доли секунды. Чего не хватает — так это то, что устройство в 2,5 раза быстрее моего первого нетбука (который, к слову, тянул студию или несколько окон Линяги или Вовки), не может параллельно держать видеозвонок в Дискорде и, скажем, скроллить карту. Подвисает :)
Но это вопрос к современному Electron-софту и JS-разработчикам.
Мы всё ещё говорим об устройствах весом меньше 1300 грамм и с жизнью батарейки от 6 и более часов? Указанные вами процы, хоть и были анонсированы раньше, вышли позже этого _устройства_, и их никогда не вставляли в нетбуки и ультрабуки. А вставляли Intel Celeron M, Intel Atom'ы, и вот АРМы в качестве Proof-of-Concept. Потому что, если мы уберем любые разумные ограничения (накладываемые на указанный форм-фактор, вес, и время жизни), и оставим топовые решения, то топовые решения и сегодня легко обойдут M1.
Говоря об актуальном решении я сравнивал сравнимое с сравнимым — ARMы. И тут, спору нет, кастомное решение от Яблок лучше всего остального на сегодня.
Как я и сказал, не без особенностей.
Впрочем, как и вот эти нетбуки с M1.
Их собирают сотнями тысяч (если не миллионами) штук и раздают школьникам в Америках и Европах.
Тоже самое могу сказать про обозначенные в теме устройства: нишевые устройство для посиделок в кафе, которые никакую конкуренцию х86 не оказывают /s
Ddnn
Как я понимаю, это разные вещи. Речь идет о том, чтобы на MacOS ARM запустить приложение под MacOS x86-64. Wine/Proton — это чтобы запустить на Linux x86-64 приложение под Windows x86-64. Для запуска приложений под Linux ARM на Linux x86-64 красивых трансляторов вроде Rosetta нет (могу ошибаться), и обычно используют qemu.
Zverienish
Но дело в том, что под линем в основном вращается опенсоурсный софт, который уже давно компилируется под армы, банально на медленных малинках вполне запускается и работает много чего (m1 быстрее процев в 4-ых малинках в 10 раз). Корпоративный софт часто на джаве, там вообще пофиг какой проц, главное джава машину под него иметь.
Zverienish
Ну не за много-много денег, такой же категории ультрабуки так же стоят.
cepera_ang
Классика экспоненциального подрыва (а не крушения, как херово перевели в заголовке) :)
Сначала десять лет, чтобы добраться до 1%, потом ещё десять лет, чтобы добраться до 5%, а потом внезапно вытеснить большую часть, как только станет очевидно превосходство.
Там в комментариях забавно — "но ведь основную работую делают на больших компьютерах", "да посмотрите как на армах видео тормозит", а в наше время — "ну на больших компьютерах же ещё можно найти какие-то тяжелые задачи, где они побеждают", "так не честно, у эпла специальные акселераторы для видео".
Так что у нас есть ещё лет 20 до интелокапца, но если тогда интел был тотальным топом, то сейчас — всего лишь один из многих игроков на рынке. Десктопный рынок — сжимается, мобильный — прошёл мимо, техпроцессное лидерство — потеряно, корона скорости — дважды (АМД и даже армам), рынки всяких акселераторов — большой вопрос, модемы — не выходят особо, память — продали. При всём этом рекордная выручка и не успевают печатать процессоры :)
Viknet
Думаю, скоро выйдут. Только под другой маркой
Zverienish
Не известно протянут ли 20 лет, если не изменят конечно свою политику, как МС в свое время и не приспособятся к окружающему миру. Под виндой возможно тоже бум сейчас в ближайшие лет 5 будет армов. Рынок ультрабуков вероятно в сторону эпл сильно перекосится за год-два. АМД вполне возможно может в ближайшие времена преметнуться на АРМ архитектуру. В общем в ближайшее время будет весело и интересно.
wigneddoom
Я не верю в крушение Intel, да и в целом x86. M1 вообще не конкурент. ARM чипы уже десяток лет со всех сторон наступают, но как только ты с ними пработаешь — сразу понятно, что старый добрый x86 ПОКА лучше в 90% случаев, кроме мобильный телефонов, приставок и т.д.
Что касается Apple, мне интересна больше всего интеграция приложений с iPhone на Macbook. Если это будет сделано в удобоваримом варианте, то лично для меня это будет киллер-фича. Можно долго разговаривать о том, что 8 GB памяти на ноутбуке это мало. Но, меня просто бомбит от всякого навоза типа Slack, Skype и прочих выродков. Именно они жрут память гигабайтами на десктопе. При этом на iPhone они вполне нормально работают. Мне даже пришлось сходить в википедию, чтобы узнать сколько RAM на 7-м iPhone — 2 GB.
Хорошая интеграция приложений между Mac и iOS сходу обеспечит большинство пользователей Apple всем необхоимым. Но да, любители доккера будут страдать.
Zverienish
Скорее всего не долго будут страдать.
Zverienish
Да и в чем могли страдать, если их фактически не было на ноутбучном и десктопном рынке. Либо что-то специфичное очень. Просто АРМ дозрел до ПК.
VolCh
Так в том-то и дело, что АРМов не было и любители докера (я в контексте веб-разработки, если что) запускали на маках обычные amd64 образа для Линукса в обычной виртуалке почти без проседания производительности (монтирование в контейнеры локальной ФС замнём для ясности). А теперь непонятно, то ли на АРМ-образы переходить (а на серверах и у команды amd64, то есть нужно если не два набора докерфайлов и прочих конфигов, то параметризировать существующие), то ли уходить с маков на amd64, то ли всю компанию переводить на АРМ
khajiit
Как вариант — платформонезависимые сборки. Зависимой частью остается костяк, притягиваемый из репов (скажем, nginx + lua + redis + postgres), остальное на эрланге/питоне/ноде/яве/черте_рогатом.
Гошечку придется отложить или собирать версию под арм.
DoubleW
Мне вот интересно, а на фоне этой истерики вакханалии и улюлюканья, хоть кто либо попытался занизить частоты AVX домена на 9900/10900(скажем занизить до 1Ггц или 800мгц) и прогнать гикбенчи, синебенчи да сравнить разницу до и после.
Как бы там не оказалось что на М1
у ней внутре NEON'кавсе векторизованно по самое не балуй (принудительно эплом, который раздал подписанный бинарь на юзера), а на интеле там какой нить гцц старенький прости господи компилировал, который дай бог чтобы sse2 воткнул.И кстати это хорошо обьясняет результаты антуту, который видимо запускали айфон версию, скомпилированную старым хкодом, где не было хорошей подготовки кода под особенности М1. Возможно это же обьясняет результаты синебенча.
Zverienish
Нет не все векторно. Реально проц быстрее. Видел тесты в которых векторных операций нет. (бенч-тесты для сборки golang) и m1 быстрее i7-9750H заметно. Есть отдельные тесты выпадают и криптооперации сильно (для них у интеловских процев отдельные команды есть).
Zverienish
Вообще, еще бы сделали потом запуск макос приложений на iphone, подключение к монитору. Вообще бы рынок домашних ПК бы убило. По крайней мере сильно урезало.
sumanai
Скорее iOS запустят на Мас.
nmrulin
Да, книга «Дилемма иноватора» очень верная и точная в плане предсказания экономических процессов.
ARM вряд ли убьёт ПК, но вот откусить нижний сегмент ноутбуков они способны, учитывая огромное количество программного обеспечение для Android.
NIKOSV
Эх, а могли Эпл сидеть на пятой точке и продолжать стричь бабло слекга улучшая прошлогоднии продукты как это делают другие компании. Но нет же, вечно им не сидится и лезут создавать новые устройства или делать революцию в существующих. То с айфонами своими вылезли, то на планшеты половину пользователей ноутбуков пересадили, то часы всех заставили носить вновь, теперь на х86 замахнулись. А ведь уже на пороге революция в экранах (MicroLED), которую тоже эпл начал.
DoubleW
HTC Touch Diamond появился ранее первого айфона
не стоит идеализировать эту компанию, не она так кто либо другой бы сделал это.
И если для юзеров все не плохо, то в целом качество софта и харда для девелоперов это полное ссаное гавно, когда ссаный макбук ТМ, на ссаной макоси ТМ, через фирменный ссаный переходничок ТМ за 120 баксов, да фирменный ссаный кабель не может увидеть воткнутый ссаный айфон на ссаной макоси — то это не эволюция, а ссаная деградация.
dravor
Статья может и хороша в технических подробностях, но автор не стал давать объяснение на вопрос «почему?». А он для такой огромной, я бы даже сказал раздутой, компании виден на примере даже реагирования на выход новых процов AMD. Тупизна набранных корпоративных чиновников, которых интересует только з/п есть всегда, но в успешных компаниях она подавляется руководящим составом.
Энди Гроув был визионером и 100% паровым катком ездил по всем несогласным с новыми или рисковыми идеями. Потом сбылась мечта инвесторов и stakeholder'ов — его «ушли» и можно было перевести ползунок «доходность» в максимум: плевать что там через 10 лет какие-то проблемы рынков будут, «дивиденты здесь и сейчас» — это синица в руках.
На волне прошлого кризиса и падения доходов интересно было разглядывать отчетность крупных софтовых вендоров: управляемые частниками (создавшими компанию, а не получившими на блюдечке) оставляли финансирование R&D, акционерами — всё в дивиденты.