Компания Intel была королем процессорного рынка с самого его зарождения, и многие думали, что так будет всегда. 50 лет абсолютного доминирования и превосходства, узнаваемости и успешности, закончились одним решением человека, которого совсем недавно считали святым. Одним решением, которое отбросило Intel на десятилетие назад и лишило всех финансовых перспектив. Это была ошибка, которая обрушила акции Intel более чем вдвое за последние 9 месяцев. Это была ошибка ценой в 50 лет.
Сегодня компания Intel стоит почти втрое меньше своего вечного конкурента – AMD. И у этого была… всего одна причина.
И имя ей – Пэт Гелсингер.
Начало. Как Zen 3 сломал хребет титану
Обстоятельства, которые привели Intel к печальным итогам сегодняшнего дня, начались задолго до недавних событий. В 2020 году компания AMD представила очередную линейку процессоров Ryzen, в этот раз на базе архитектуры Zen 3. Это было семейство Ryzen 5000, призванное развить потенциал инновационной технологии чиплетов, представленных в Zen 2, а также доработать слабые стороны – производительность на ядро, и необходимость использования планов питания из-за проблем с планировщиком Windows 10. Оптимистичные ожидания от новой архитектуры не были чем-то из ряда вон выходящим, но именно в тот момент случился перелом, который стал проклятием компании Intel на все последующие годы.
Камнем преткновения стала… энергоэффективность.
На первый взгляд это прозвучит странно, ведь в те времена Intel еще не страдала от серьезных проблем с питанием, а директор компании Боб Суон рекомендовал пореже смотреть на бенчмарки, успехи процессоров AMD в которых было сложно не замечать. Впрочем, обильные инвестиции Intel в проект UserBenchmark помогали несколько остудить интерес массовой публики к красным процессорам – пусть и ненадолго.
Но проблема температур и питания на самом деле была у Intel уже тогда – i7-10900k, вышедший в том же 2020 году, работал на высоких частотах выше 5 ГГц, но при этом потреблял значительно больше паспортных 125 Вт, разогреваясь опасно близко к предельным 100 градусам, указанным в спецификациях производителя.
Архитектурные лимиты Comet Lake фактически были достигнуты, но, к несчастью для Intel, для AMD движение вверх только начиналось.
Рост продаж серверных процессоров EPYC в том же 2020 году бил все рекорды, и в 2021 только ускорился, когда в марте на рынок вышли процессоры Milan с ядрами на архитектуре Zen 3.
Intel отвечали агрессивными скидками на свои решения Ксеоны семейства Cascade Lake, но было очевидно, что без радикальных изменений компания продолжит терять позиции. Именно тогда случилось неизбежное – Боб Суон сложил полномочия, и 1 февраля 2021 года руководителем Intel стал Пэт Гелсингер.
Все ожидали начала новой эпохи. И новая эпоха действительно началась.
Пэть и грязная медь
Пэт Гелсингер – не финансист и не управленец. Совет директоров Intel, явно вдохновившись примером лидерства Лизы Су (вытащившей AMD со дна с капитализацией чуть более миллиарда), выбрал человека, обладающего не менее признанными талантами.
Заслуженный инженер, один из основных разработчиков легендарного процессора 80386 (на котором даже выгравированы его инициалы), ведущий разработчик архитектуры Intel Core, которая когда-то сделала компанию лидером отрасли после сложных нулевых, оказался в кресле руководителя Intel и сразу же принялся за работу.
В числе глобальных задач нового директора Intel было, к примеру, решение проблемы технологического отставания компании в технологиях производства. Гелсингер пообещал создать в США до 20 тысяч новых рабочих мест с развертыванием производственного комплекса Intel на домашней земле – заводы в Аризоне, Нью-Мехико, Огайо и Орегоне, получившие поддержку Байдена и ставшие своего рода рекламой для «новой эры Intel», забуксовали на этапе бюрократии – и по последним оценкам, должны запуститься не раньше 2026 года.
Тем временем внутренний менеджмент Intel погрузился в хаос. Пока разные команды работали над проектами архитектур будущих ядер, AMD неожиданно представила 5800X3D – процессор, отличительной особенностью которого стало использование вертикальной компоновки кристалла, где большие блоки L3-кэша располагались поверх процессорных блоков ядер, общаясь с ними через медные проводники-инсуляторы.
Именно разработку медных инсуляторов в своей дипломной работе когда-то описывала Лиза Су, будущий директор AMD.
Процессор в один момент уничтожил игровое преимущество «Синих».
Быстрый и объёмный кэш решил все проблемы с задержками и обеспечил производительность, сопоставимую с i9-12900k во многих процессорозависимых играх. Но самым унизительным для Intel здесь было то, что энергопотребление при подобном скачке производительности практически не выросло на фоне эффективных процессоров Zen 3 – и новый процессор от AMD в стресс-тестах при максимальной нагрузке потреблял в 2 раза меньше флагмана Intel.
Это был момент, когда все поняли – у «синих» появилась проблема.
Вся надежда была на совершенно новую, инновационную архитектуру, ради которой Intel приглашала легендарного Джима Келлера для создания новой прорывной базы для будущих процессоров.
Новаторское ядро, которое в медиа успели прозвать Royal Core, так и не было разработано – из-за того, что Джим Келлер и Пэт Гелсингер не смогли найти общий язык в процессе работы над проектом.
Прорывная архитектура, от которой во многом зависела судьба Intel, отправилась в мусор. А что оставалось? Проверять лимиты текущей архитектуры на прочность.
И именно в этом заключалась главная проблема. Пока AMD приводила в порядок платформу AM5, морально готовив юзеров к затратному апгрейду, Raptor Lake, процессоры Intel 13 и 14 поколения, были быстрыми и производительными, но достигали поставленных целей исключительно за счет повышения частот, которые в дополнение к двум типам ядер (P-core и E-core – производительное и энергоэффективное ядро соответственно) разогревали кристалл до предела при снятии лимитов по потреблению.
Аппетиты процессоров, стремящихся к отметке в 6 ГГц по частотам, иногда приближались к отметке в 400 Вт, что на фоне холодных и мощных Райзенов выглядело как какой-то абсурд. Выпуск 7800X3D, объединивший энергоэффективность Zen 4 с запредельно скоростным буфером кэша, стал для «синих» последней каплей – AMD отняли у Intel игровое преимущество так дерзко, что даже 14900k не выглядел как равноценное решение. Это был тупик во всех отношениях.
Но его обсуждения так и остались бы конфликтами фанатов в Интернете, если бы не одно маленькое происшествие на заводе Intel.
Когда-то в 2022 году на заводе Intel произошло загрязнение производственной линии. Из-за окисления медных контактных площадок под кристаллом процессора со временем нарушалась электропроводность и чип полностью выходил из строя.
Эта проблема на первый взгляд была очень локальной – и долгое время считалось, что число затронутых ей процессоров невелико. При этом с учетом датировки считалось, что проблема затрагивала лишь производство процессоров 13 поколения, и не касалась Raptor Lake Refresh, вышедших в октябре 2023 года.
И именно в момент, когда информация о возможном загрязнении линии оказалась публичной, Пэт Гелсингер совершил свою главную ошибку. Ошибку, которая стоила Intel сотни миллиардов долларов.
Он промолчал.
Первые трудности с процессорами Raptor Lake начали появляться еще в конце осени 2023 года – тогда это были единичные сообщения на форумах, где люди жаловались на краши, синие экраны, зависания и другие вещи, которые ПК-геймеры и опытные пользователи привыкли ассоциировать с типовыми «железными» проблемами – сбоями питания, недостатком охлаждения, некорректной конфигурацией памяти. На первый взгляд и здесь всё было точно также, но с течением времени сообщений от обеспокоенных владельцев Raptor Lake (а потом и Raptor Lake Refresh, 14 поколения) становилось всё больше. Симптомы у всех были схожими, но к проблемам нестабильности начали добавляться летальные исходы. Расширение географии неполадок затронуло и графические драйвера nVidia, после чего к весне 2024 года число заявлений от пострадавших юзеров уже не умещалось в аккуратный список «неудачников».
Настал момент истины. Глава Intel мог решить все возникшие проблемы одним точным, четким заявлением.
29 апреля 2024 года компания Intel опубликовала официальное заявление.
«Intel обнаружила, что причина проблемы может заключаться в поддержании высокого напряжения и высокого нагрева», - заявили в компании. – «Это происходит, когда процессоры работают вне рекомендованных спецификаций Intel <…> Хотя корень проблемы еще остается неопределенным, большинство сообщения об ошибках поступает от владельцев материнских плат с поддержкой разблокированных множителей/разгона».
Да, вам не показалось. Intel обвинили в проблемах производителей материнских плат.
Эти заявления мгновенно растиражировали все СМИ. Юзеры ликовали – ведь достаточно было скорректировать настройки, и всё сразу нормализовывалось, верно? Как показало время, нет.
Но озвучивать реальную причину проблем в компании не стали. Вместо этого через несколько недель Intel заявили, что проблема появилась… из-за ошибок в микрокоде, и обновление, конечно же, было «уже в разработке».
Но как уточняли в Intel, всё это не было причиной нестабильности. Причина оказалась роковой.
Момент истины. Рынок меняет сторону
Наиболее уязвимыми точками для Intel всегда были два сегмента рынка – ноутбуки и серверный рынок. И первый, и второй на протяжении многих лет безраздельно принадлежали Intel, принося компании десятки миллиардов долларов в год, однако появление Ryzen начало мутить воду не только в ноутбучном направлении, но и в критически важном серверном сегменте. С ростом производительности архитектуры Zen всё больше компаний начало проявлять интерес к перспективам закупки серверов на базе EPYC взамен стареющих решений Intel, в связи с чем «синие» сначала резко снижали цены на Ксеоны, а дальше сосредоточились на рекламе новых поколений процессоров – впрочем, для AMD это не стало какой-то проблемой.
Начало трудностей со стабильностью процессоров на базе Raptor Lake не оставило равнодушным и больших клиентов чип-гиганта – многие начали задаваться вопросом, а не затронет ли проблема стабильности серверные решения? И если затронет, то насколько масштабным будет ущерб?
Именно такие вопросы вынудили корпорацию выпустить своё долгожданное заявление. В июле 2024 года Intel наконец признала, что главной проблемой стабильности послужило загрязнение производственной линии. То самое, о котором в компании упорно молчали почти два года.
Инвесторы отреагировали мгновенно. Акции Intel потеряли треть стоимости за считанные дни, и учитывая плавное падение на протяжении всего 2024 года, легендарная компания стала стоить почти в 3 раза меньше, чем AMD. Той самой AMD, которая совсем недавно уступала капитализации Intel более чем вдвое.
Скрытый текст
AMD в 2017-м стоила 9 миллиардов. Сегодня это 230 миллиардов. Intel в 2017 стоила 216. Сейчас меньше 100)
Многие крупные компании в свете недавних событий начали переезд на новейшие процессоры EPYC, а Intel сосредоточилась на попытке максимально сократить публичный ущерб репутации – но признать, что под угрозой порчи из-за ошибки на производстве могло оказаться до 8 миллионов процессоров двух поколений, так и не решилась.
Intel и будущее. Куда идёт великая синева?
Выдающийся инженер Пэт Гелсингер на деле оказался самым бездарным руководителем компании как минимум за последние 25 лет. Вместо того, чтобы под началом Джима Келлера создать то самое «Королевское ядро» и открыть новую эру, не уступающую успеху Intel Core, он разругался с легендарным инженером, отменил и закрыл несколько ключевых архитектурных проектов (и «реорганизовал» GPU-подразделение), в итоге приняв ключевое решение, отнявшее у Intel корону, которая, казалось бы, всегда принадлежала корпорации. Каскад возникших проблем, странные управленческие решения и бездарная работа с партнерами в итоге привели компанию к худшему периоду за все более чем полвека активной работы.
Но важнее всего не финансовые потери и не поводы для срачей в Интернете. Важнее всего то, что ключевые гиганты IT-индустрии (от Microsoft до Amazon) своими глазами увидели, чего стоит безоговорочное доверие к корпорации Intel. За все 2 года, пока руководство корпорации (и лично Пэт Гелсингер) знали о производственных проблемах, никто не поспешил оповестить партнеров о возможных рисках для процессоров Xeon, а когда пришло время для предъявления доказательств, их в руках компании не оказалось. Потери ключевых клиентов в лице мегакорпораций создают для Intel беспрецедентные финансовые риски, ведь серверный сегмент – это десятки миллиардов долларов в год, которые еще с 2018 года неторопливо откусывает компания AMD. Прежние 8% рынка превратились в 24%, а значит уже четверть безумно прибыльного сегмента рынка ушла конкуренту. Похожая история разворачивается и в настольном сегменте – во времена великих «Фуфыксов» доля процессоров AMD не превышала 8%, но после появления Ryzen ситуация начала постепенно меняться, и сегодня прежние 8% превратились в 36.7% - больше трети парка геймерских машин в Steam построены на процессорах компании AMD.
Но искренние поклонники Intel, ожидающие красивого камбека, находятся в замешательстве. Они не видят на горизонте долгожданной революции, о которой так много говорили несколько лет назад. Проект трехмерной компоновки Foveros (о котором говорили еще в 2018 году!!!) по заявлениям Гелсингера вот-вот сменит традиционную компоновку в производстве процессоров, но на деле может оказаться всё также далёк от воплощения, как прежде. Ребрендинг процессоров Intel Core, которые теперь будут называться Ultra 9, Ultra 7 и Ultra 5, уже успел обескуражить фанатов отсутствием гипертрединга и странной игровой производительностью. Попытка уйти от ассоциаций с названиями 14700k и 14900k, мелькающих в новостях и на Ютубе, выглядит понятным пиар-ходом, но мы до сих пор не знаем, что стало первопричиной загрязнения производственных линий - и не можем быть уверены, что это не повторится.
Каков итог? В свете последних событий, когда на днях Intel и AMD объявили о создании «консорциума лидеров х86», по сути объявляя войну подступающим ARM-инициативам и отдельным проектам процессорных разработок (одной из которых, например, занимается Google), становится ясно, что никакой твердой почвы под ногами некогда великой корпорации уже не осталось. Еще несколько лет назад было невозможно представить, чтобы Intel снизошла до конкурента и заключила какое-то стратегическое партнерство. Но время идёт – и всё меняется. В конце концов, всегда можно подправить пострадавший публичный образ или выиграть гонку с черным пиаром, но вот вернуть утраченное доверие больших компаний, которые своими глазами увидели, чего стоит пресловутый Intel Inside на самом деле – увы, нельзя.
Комментарии (264)
propell-ant
04.11.2024 08:12Мне вот понравился стиль статьи, даже опечатки несут налет поэтики. "Отсутствием гипертрейдинга" - это звучит.
nagayev
04.11.2024 08:12Да ну, Пэт как раз не так плох.
Его главная заслуга - при нем решились перенести производство на TSMC. То, что AMD сделала еще в 2008 (отказалась от производства своими силами) Пэт воплощает прямо сейчас. Потом, новые Core Ultra. Судя по тестам, они едят в 2 раза меньше прошлого поколения, правда производительность временами правда странная.
Тем не менее, микроархитектуру нормально прокачали (особенно радуют энергоэффективные ядра и +1 АЛУ)
Я думаю еще полгода-год патчей и новые Core Ultra будут совсем ничего.
Dr9vik
04.11.2024 08:12особенно радуют энергоэффективные ядра
да еще немного и станут лучше чем бульдозеры
nagayev
04.11.2024 08:12Я про то что в этом поколении их прокачали: прирост на 60+% в операциях с плавающей точкой. Очень хочется посмотреть на реальных задачах, но звучит интересно.
Okeu
04.11.2024 08:12я тестил е-ядра первого поколения из alder lake, они выдавали мощи, сопоставимые с обычными ядрами Coffee Lake Refresh, поэтому каким раком тут кукуруза из прошлого десятилетия, не совсем понятно. Видимо очевидная неудачная шутка из красного лагеря)
vitalyvitaly
04.11.2024 08:12А как именно они разогнали до такое степени исходное ядро "Атома"? Ведь изначально разница в скорости там со Skylake была в несколько порядков. Вот, например, китайцы, которые мучают древние ядра VIA, обычно только обещают такие подвиги, но на практике со скоростью их работы все остается очень плохо.
Okeu
04.11.2024 08:12со времен атомов почти 10 лет прошло, поэтому мне кажется, что чисто эволюционно за такой срок, энергоэффективные решения х86 догнали бы своих старших братьев, как это сделали ARM)
vitalyvitaly
04.11.2024 08:12Могу ошибаться, но отставание по ядру Atom (P54) vs. Nehalem изначально было вроде бы порядка 7-кратного, ибо первый был близок к Pentium 1 без внеочередного выполнения операций, а второй-то собственно сильно апнутое ядро Pentium 3. С тех пор Атомы перевели на внеочередное исполнение операций (примерно в 2014 году), это пиарилось как революция, но реальные отзывы в те времена, которые я читал, описывали эффект от этого апгрейда ядра более сдержанно. Не знаю, что было дальше, хотелось бы узнать интересные подробности. Но считаю, что семикратный рост производительности на ядро это реально крайне впечатляющее достижение, если так посмотреть.
Armmaster
04.11.2024 08:12Перенос производства на Tsmc произошёл до Гелсингера
nagayev
04.11.2024 08:12Разве? Первыми были Meteor Lake, а они вышли уже после 21 года (когда назначали Пэта). Ну может разрабатывать начали до него, но выпустили уже при нем.
Armmaster
04.11.2024 08:12Вы же понимаете, что цикл разработки процессора занимает несколько лет, и если он вышел в 2021-ом на Tsmc, то решение об использовании другой фабы было принято задолго до этого, тк разработка сильно привязана к конкретному техпроцессу
nagayev
04.11.2024 08:12Да, конечно. Но Meteor Lake это конец 2023, а Пэт CEO с начала 2021.
В сентябре 2020 вышло 11 поколение, а Meteor lake уже 14.
Думаю их уже целиком при Пэте делали.
nidalee
04.11.2024 08:12Судя по тестам, они едят в 2 раза меньше прошлого поколения
Ну... Не совсем.
Хитрые редиски просто перенесли часть нагрузки с 4\8pin-CPU на ATX12V:
mydigitalhabb
04.11.2024 08:12Никто не мешает делать замеры бенчмарков через умную розетку.
Кстати подскажите, какие из них могут строить графики вплоть до секунд ?
Hesed
04.11.2024 08:12особенно радуют энергоэффективные ядра
Худшее архитектурное решение от синих за долгое время. И в винде, и в линуксе приходится или плясать с бубном вокруг шедулера и/или кернела, или отрубать их к чёрту. Е - это в лучшем случае Embarrassing. В итоге в личном парке я до сих пор сижу на 10-м и 12-м поколениях, а для мест, где важно энергопотребление, есть Е и T индексные процы, или вообще альтернативы в втже embedded или arm.
Fahrain
04.11.2024 08:12Я, кстати, до сих пор не могу понять, почему шедулер винды не сует в первую очередь на энергоэффективные ядра внутренние процессы ОС. Т.е. для меня выглядит логично скинуть на одно-два выделенных ядра весь постоянно работающий хлам, типа проверки почты, обновлений и т.п. вещей, а остальной софт крутить на полноценных процессорах...
Sly_tom_cat
04.11.2024 08:12А метку "хлам" на коде уже внедрили?
Вы может хлам почту проверять а у кого-то это может быть первоочередной инструмент для работы. И как тогда эти лейблы развесить? Пользователю отдать? И каждый пользователь должен с этим разбираться?Fahrain
04.11.2024 08:12Ну во-первых, такое может сделать сама МС - она-то знает, где у неё не сильно важные по времени выполнения процессы, а где - нет. Во-вторых, да, почему бы и не дать программистам возможность помечать приоритетность процесса для размещения на нужных ядрах? Или дать возможность управлять этим пользователям? Без всяких вот этих приседаний с не-мс софтом, как сейчас.
Ну и вообще, у меня долгое время уже висит вопрос... Вот у нас есть процессор, там куча ядер - без нагрузки они снижают частоты или вообще выключаются. Экономим энергию, да и температуры ниже. Тут внезапно прибегает шедулер винды и их будит, чтобы загрузить ядро на 0,5-1%. Зачем? Нельзя весь этот малонагружающий "мусор" скинуть куда-то на одно ядро, а не будить и не греть какие попало? Причем сделать под такие процессы именно отдельное мелкое ядро с производительностью уровня Atom - им этого хватит с большим запасом.
Sly_tom_cat
04.11.2024 08:12Осталось только это все реализовать.
В ваших рассуждениях много логичного и правильного. Ну вот возьмите и запрограммируйте это. Ну в винду так планировщик linux можно MR сделать с этими предложениями.
ert112
04.11.2024 08:12Когда ОС вообще стала потреблять cpu? Мне сложно на вскидку вспомнить, какие вообще процессы винды способы хотя бы на 5% загрузить современный кпу. Ну разве что танцы с ReFS или если это хост нагруженного гипервизора (насколько это можно считать частью ОС).
Вычислительные ресурсы потребляет приклад и МС к нему отношения не имеет.
Fahrain
04.11.2024 08:12Так я о том и говорю - в системе куча фоновых процессов, которые толком не грузят процессор, но при этом просто не дают ядрам спать. Причем винда их ещё и постоянно рандомно перекидывает между ядрами. Вон, тот же QuickCPU умеет в реальном времени наглядно отображать состояние ядер (спит/не спит) - там эти процессы переключений прям наглядно наблюдаемы.
Т.е. я не про то, сколько эти фоновые задачи едят ресурсы (даже суммарно там копейки) - я про то, что они банально не дают спать ядрам из-за такой странной работы диспетчера процессов. В итоге процессор даже в простое зазря молотит на повышенных частотах, жрет электричество и греется.
vanxant
04.11.2024 08:12Ну вообще i/o (диски и сеть) может неслабо так жрать проц. И даже жрёт. И часто это происходит именно в режиме ядря. То, что современные ОС вешают на графиках загрузки эти расходы на соответствующие процессы - это, ну, такая условность.
saboteur_kiev
04.11.2024 08:12Если точнее, то это мониторинг показывает загрузку cpu, поскольку драйвера работают в режиме ядра, но под капотом процессоры часто просто в режиме ожидания и не греться, а top может показывать 100%
JediPhilosopher
04.11.2024 08:12почему бы и не дать программистам возможность помечать приоритетность процесса для размещения на нужных ядрах
Предположу что потому, что все тут же кинутся ставить своему процессу максимальный приоритет, чтобы лагало поменьше и не приходилось пользователю объяснять что "это не у нас приложение тормозное, это ваш шедулер засунул его на медленное ядро".
vanxant
04.11.2024 08:12все тут же кинутся ставить своему процессу максимальный приоритет,
какой командой это сделать на
jqueryreact-e?
flx0
04.11.2024 08:12Ну во-первых, такое может сделать сама МС - она-то знает, где у неё не сильно важные по времени выполнения процессы, а где - нет.
По мнению МС, самые важные процессы в системе - это отображение рекламы в меню "пуск", отправка телеметрии, и автоматические обновления. Они-то на жирные ядра и поедут. А этот ваш солид воркс можно на маленькое ядро спихнуть.
Voldemaar
04.11.2024 08:12Неплохо бы ещё и возможность сообщать операционной системе, сколько процентов инструкций FPU у данной нити (thread), это для оптимального распределения нагрузки на процессор с SMT. После профилировки данная информация становится известной.
Fahrain
04.11.2024 08:12Да вся ОС в датчиках, можно налету мерять и собирать статистику. У нас же приложения не одноразовые, их рано или поздно повторно запустят.
И эта статистика полезна еще и для того, чтобы не бустить процессор, если ожидаемая нагрузка краткосрочная. А то у нас вечно 40 градусов - хлоп! - 95 градусов - хлоп! - 40 градусов. И не длительно, а за пару секунд туда-сюда. И все это ради того, чтобы запрос в интернет сделать для проверки не появилось ли обновление у программы - там вообще пофиг, если запрос даже на секунду дольше идти будет, зачем процессор до 5 Ггц бустить?
lightman
04.11.2024 08:12Насколько я знаю, у E ядер набор инструкций меньше, чем у P. Может быть с этим как-то всё связано - якобы не все задачи могут выполняться на E. Либо есть затруднение в перекидывании задачи на E, если она уже была начата на P. Дескать проще было сразу начать на E. Однако начинание на E делается неохотно, т.к. шедулер не знает, насколько трудоёмкая задача предстоит и не хочет рисковать разозлить пользователя тормозами. Но всё это не точно.
Okeu
04.11.2024 08:12вообще, до обновления на 11 винду, десятка наоборот грешила тем, что ресурсоемкие задачи вешала на E ядра. У меня 12700, там 1 блок на 4 ядра. И вот в игрушках молотили 4 ядра эти самые)
cdriper
04.11.2024 08:12с точки зрения общей производительности E ядра более выгодные и по энергопотреблению и по расходу транзисторов
в тех задачах, где нужна пиковая производительность на одно ядро, хватает P ядер
а кривой планировщик это кривой планировщик. это можно решить.
Hesed
04.11.2024 08:12Выгода по расходу транзисторов - это выгода производителя. Как потребитель я не стал платить меньше с появлением Е/Р процессоров. По энергопотреблению... возможно, но даже не затрагивая вопросы планировщика, на голом железе имеем:
i5-12400 (H0 степпинг, старый камень), ALPM on, ASPM on L1, C-States on C10 - 7 ватт в полном idle без дисков. С пятью дисками в idle, и двумя живыми NVMe - 18 ватт "из стены" c подключенной периферией и монитором без нагрузки. На homelab редддите есть темы, где народ не может опустить 13500 ниже 10 ватт в полном idle, а "из стены" в условиях, приближенных к описанным выше не падает ниже 28 ватт.
Не исключаю, что если капитально заморочиться и подобрать материнку, контроллеры и диски (а есть такие, которые блокируют систему в определённом C-state), то можно добиться схожих результатов (
а потом упарываться по taskset -cp*). Но тут встаёт проблема буханки хлеба и троллейбуса - зачем, если есть или 12-е поколение, или райзен 7940HS, который на китайской маме CWWK выдаёт 6-7 ватт из коробки в idle.Буду рад, если есть данные, что апгрейд поколения-другого с переходом к E/P ядрам объективно улучшает TCO (total cost of ownership) в потребительском сегменте, скажем, за счёт условно возросшей производительности.
mydigitalhabb
04.11.2024 08:124930k ivy bridge, 6 hdd, с 3070 в idle 100Вт из розетки, с 1060 80Вт.
Hesed
04.11.2024 08:12Немного не понял к чему это, речь во-первых о другом юзкейсе, а во-вторых вообще не про видяхи.
К тому же, 3070 не раскрывается в паре с ivy bridge, если её грузануть по полной, она в соло съест 200 ватт и не подавится съесть ещё 20 сверху. Верхний порог TGP (не путать с TDP) у founder's edition до 225W [link]. У заряженных моделей, вот, например, только что снятые данные с 3070 при запущенной игре на максималках:
vitalyvitaly
04.11.2024 08:12А если поставить Ivy Bridge-EP 14-ядерный (топовый), раскрывается или нет? А, например, топовые Haswell-EP и Broadwellß-EP насколько далеко от него ушли?
Hesed
04.11.2024 08:12Если смотреть детально, то ответ будет зависеть от условий использования (игра, разрешение и т.п.). Вот, например, картинка использования в игре, движок которой умеет работать только в один поток. Карта в прыжке загружена на 45%, хоть всё и выкручено в "ультра" на 2К разрешении.
Вот движок пободрее и поновее нагружает проц и видяху, раскидывая потоки. Соответственно, подрастает и утилизация карты.
Возвращаясь к старым процам - зависит от игры и разрешения. Чем выше разрешение, тем больше работы заберёт на себя карта. В FullHD всё упрётся в проц. При этом играть в большинство тайтлов на обычном уровне всё равно будет вполне комфортно - связка 4930k+3070 вывезет почти все современные тайтлы.
HyperWin
04.11.2024 08:12Спасибо за статью! Это как раз то, что было нужно, отвечает на все вопросы. Еще и вчера посмотрел видео от МК с разбором изменений в новой архитектуре процессоров Intel
zenhower
04.11.2024 08:12Очень странная статья. Прямо написано, мол именно Пэт Гелсингер и тянет компанию вниз. Который пришел на пост в 2021 году. Хотя, у компании самое большое ЧП случилось в 2019 году, когда они остановили заводы для внедрения 10 нм процесса, но наладить производство не получилось. А так как "переход на техпроцесс" - результат многолетних трудов, то это и откинуло компанию на много лет назад. Отсюда и сравнительные успехи AMD, отсюда и горячие процессоры от Intel. Отсюда и заказы процессоров Intel на мощностях tsmc .... а потом пришел Пэт Гелсингер и "все разрушил". Да и в статье так и не прозвучало каков же процент брака процов 13-14 поколений .. главное, что "он промолчал".
OlegMax
04.11.2024 08:12Еще бы статья не странная.
В июле 2024 года Intel наконец признала, что главной проблемой стабильности послужило загрязнение производственной линии.
И сразу под этим английским по белому: "it is NOT related to the instability issue"
AlexanderS
04.11.2024 08:12Так главный вывод из статьи, насколько я понимаю, это то, что к интел рухнуло корпоративное доверие. Понятно, что интел бы заменяла неисправное оборудование по гарантии, но в крупном бизнесе нужна стабильность. А если у тебя сервера как семечки начинают сыпаться - это риски простоя, убытки и всё сопутствующее. И про эти риски интел молчала, фактически подставляя партнёров. А в бизнесе доверие принято ценить.
Интел проводила политику скрытия крупной проблемы проведение которой не могло не быть санкционировано личной главой корпорации. Гелсингер допустил огромный управленческий косяк, который корпорация до сих пор не исправила. Стратегия поведения - точ-в-точ как с боингом: только под напором неопровержимых фактов приходится нехотя признавать огромные проблемы. И происходит это всё так, что репутационные потери начинают серьёзно превышать те, которые бы были выпусти они какое-никакое коммюнике сразу при обнаружении чисто технической проблемы. Как только компания начинает скрывать или лгать - налицо серьезные проблемы в управлении. И работать с такой конторой - это риски.
olezh
04.11.2024 08:12Про потерянное доверие понятно и терять его стали до Гелсингера, а про то, что:
Интел проводила политику скрытия крупной проблемы проведение которой не могло не быть санкционировано личной главой корпорации.
простите, не поверю, такой вопрос не решается лично главой. Как? Без совета директоров?
AlexanderS
04.11.2024 08:12Не стоит обесценивать главу как марионетку. Пошел бы на принцип - продавил бы своё решение. На него все надежды возлагали - можно было пользоваться. Он в принципе такой же технарь как и Келлер! Но один ушел когда не сработались, а другой - нет.
olezh
04.11.2024 08:12Вы немного не понимаете масштаб. То что будет сказано о проблеме публично - это лицо компании, это деньги инвесторов, это судьбы этих управленцев которые науправляли интелом до текущего момента. Большие деньги никогда не допустят ситуации, когда назначенный ими директор начнёт принимать решения касающиеся имиджа компании.
AlexanderS
04.11.2024 08:12Вопрос - исключительно в личностных качествах управленца. Он либо молча соглашается с текущим положением, либо уходит в знак несогласия. Внешне всё это оформляется цивильно - последние топы в программе Apple по полноценному автопилоту больше года не работали, уходя то в Tesla, то в GM. В сложившейся ситуации Гелсингер виноват только в том, что не ушёл)
Androgenom
04.11.2024 08:12Интересно было бы капнуть к корпоративную структуру, культуру и проблемы в управлении компанией. Компания уволила большое количество "дорогих" специалистов - не было ли это как-то связано с трендом в плане успехов компании?
Вспоминаем историю, как в компании появились энергосберегающие процессоры - их разработка велась в режиме строгой секретности и в отдельном подразделении, про которое многие в самом Интеле тогда и не знали - возможно, что не все так просто.
И... возможно, причины лежат не на поверхности, а внутри компании.stanislavshwartsman
04.11.2024 08:12Какой еще строгой секретности ? Ваша картина мира промыта слухами и конспирологией.
Никакой секретности, все было всегда на виду. Но гигагерцы продаются, пипл хавает и даже есть что-то лучше перевернуть рынок не просто.
Armmaster
04.11.2024 08:12Пэт вернулся в Интел в 2021-ом, а Джим Келлер покинул компанию в 2020-ом. Они не пересекались по работе. У чему все эти наезды на Гелсингера в части работы с Келлером, если это очевидная неправда?
RiddleRider Автор
04.11.2024 08:12Почему же неправда? Moore Law Is Dead когда-то про это рассказывал в числе прочего - ему об этом инсайды сообщали (которые у него, судя по всему, настоящие - ибо многое из прошлого, что они сливали, потом оказывалось правдой). Суть истории проста - Келлера наняли еще году в 2018 для дизайна совершенно новой архитектуры и ядра, которое получило название Golden Cove - там был 2х IPC и куда более эффективная система менеджмента кэша. В итоге Гелсингеру не понравились какие-то инженерные задумки Келлера (какие и почему - не уточняется), и Келлер был уволен. Даты, указанные в официальных источниках не самые точные. Далее уже сотрудники Intel (которые, как можно предположить, были частью команды разработки новой архитектуры), разрабатывали проект Beast Lake, но и он был закрыт по личному распоряжению Гелсингера.
Подробности крайны туманны, так как вся эта информация строго конфиденциальна. Нам известны лишь обрывки - детали мы если и узнаем, то позже, когда Гелсингер перестанет быть CEO Интела.Почему я верю этой инфе - те же инсайдеры рассказывали про Battlemage еще до того, как про видеокарты Интела было что-то публично объявлено. Причем там были и спеки и производительность.
Armmaster
04.11.2024 08:12Каким образом Гелсингеру могло что-то не понравиться, если его в данный момент просто не было в Интеле? Физически не было. Келлер уволился из Интела ДО прихода Гелсингера
RiddleRider Автор
04.11.2024 08:12Гелсингер отменил много перспективных проектов Интел, в том числе разработки Келлера
Armmaster
04.11.2024 08:12А вы не видите разницы в утверждении:
"Гелсингер отменил много перспективных проектов Интел, в том числе разработки Келлера" и тем, что вы утверждали до этого, цитирую:
В итоге Гелсингеру не понравились какие-то инженерные задумки Келлера (какие и почему - не уточняется), и Келлер был уволен
...
Джим Келлер и Пэт Гелсингер не смогли найти общий язык в процессе работы над проектом
...
Вместо того, чтобы под началом Джима Келлера создать то самое «Королевское ядро» и открыть новую эру, не уступающую успеху Intel Core, он разругался с легендарным инженером
?
И я нашёл это видео, на базе которого вы написали статью. Всё, что в нём говорится - это то, что в начале этого года Гелсингер закрыл проект Royal Core, у истоков которого стоял Келлер. Даже это слухи, но можем считать их условно правдивыми. Но могу сразу сказать, что все рассказы про 2х IPC можно сразу воспринимать со скепсисом, ибо таких чудес не бывает. И концепция Rentable Units тоже очень спорная, у неё есть обратная сторона медали так сказать. И без кучи цифр на руках нельзя уверенно утвеждать, что это действительно та микроархитектура, которую стоит выводить на рынок. И может так статься, что Гелсингер прав в своём решении.
Все остальные утверждения про конфликт Келлера и Гелсингера и т.д. - это откровенная желтизна, не имеющая никаких доказательств и просто противоречащая таймингу физического пребывания каждого из них в Интеле. Не место такому в серьёзной статье на хабре, имхо.
stanislavshwartsman
04.11.2024 08:12Я вам сейчас пару слов как инсайдер расскажу. Я был архитектором Golden Cove а после и Lunar Lake / Arrow Lake так же как и нескольких следующих поколений. Параллельно в Орегоне ваяли новую вундервафлю под именем Royal. Не первую, за последние лет 15 наверно уже пятую или шестую.
Так вот вкратце- все, что вы когда-то либо слышали про Royal к нему никакого отношения не имеет. Все эти слухи про 2x IPC, супер навороченный Beast Lake и т.п. Дизайн группа в Орегоне была на грани развала и ей нужно было получить проэкт. И они придумали Royal. Расписали себе нереалистичные фантастические цели вроде 2xIPC при 1xPower за счёт 50% freq reduction и уговорили Джима Келлера на это подписаться. И понеслось. Через несколько лет работы было уже за километр видно, что ребёнок мертворожденный. То есть 2xIPC от Golden Cove оно на бумаге конечно показывало, но при 4x area и с проблемами на всех фронтах. Ну и со сроками появления в железе к концу 2026. К тому времени Golden Cove уже станет историей и конвенцональный наследник Golden Cove будет %% на 40 больше IPC. Если его конечно сделать. И Royal на его фоне уже не такая уж аттракция - 50% больше IPC, 50% frequency - то есть финальный performance same. Но не забываем про 4x area и про то, что весь Royal пока только на бумаге и выглядит как ненужная фантастика в половине решений, которые должны быть имплементированы.
Pat Gerlsinger как раз в этот Royal сильно верил, тянул мёртвую корову и болота посылая её деньгами даже когда сами инженеры Royal сказали, что не взлетит. Первый RTL прототип Royal с трудом натянул 20% IPC over Arгow Lake про почти вдвое большей площади кристалла и вдвое меньше частоте. При этом начальство Royal продолжало давить ту же линию - это же первый прототип, вы только дайте нам ещё 2 года и мы уже ух! Наваяем вам Royal 2 который Cobra Lake (слышали название? про него тоже слухов распустили) и будет там все чики-пуки, правда как мы не расскажем потому что мы ж ещё в симуляторе этот Royal 2 не закончили.
Причём альтернатива была простая. Похоронить этот Royal навиг и передать его design группу работать с Хайфой над main stream. А то они физически не могут выпускать больше 5-15% improvement в год, которых не хватает от слова никак - у ВСЕХ конкурентов прирост как минимум не меньше, у многих даже больше. То есть хочется 15% каждый год, а получается 15% а потом 5% потому что прошлый проэкт все ресурсы забирает. Для полноценной тик-ток схемы надо 2 дизайн группы, а у нас вторая Royal ваяет, её трогать нельзя, это любимый проэкт Pat Gelsinger, он же в него так верит!
Пока финансы не победили и прикрыть Royal пришлось, просто потому что деньги нужны. Вот только сколько времени было упущено.
stanislavshwartsman
04.11.2024 08:12И главное что самое весёлое- Royal прикрыли совсем не красиво, не свернув их работу и не подготовив инженеров к сюрпризу. То есть просто сообщили, что бабки на вас кончились и вас закрывают. Сидите спокойно, мы всем найдём новый проэкт - вон в GPU новый AI ускоритель хотят нагородить- пойдете все туда !
В результате главный архитектор Royal и ещё 5 architecture lead увольняются в один день и - добро пожаловать новый startup Ahead Computing !
AmpereOne знаете ? Они тоже так же начинались. Не умеет Интел удержать таланты...
Armmaster
04.11.2024 08:12Огромное спасибо за инсайд. Наверное, ради таких комментариев я и читаю хабр)
В общем, вы отлично описали суровую реальность дизайна High Performance CPU. Все эти сладкие рассказы про 2xIPC и Rentable Units сразу попахивали мифотворчеством.
Если позволите, можно вопрос? Как вы оцениваете Келлера как специалиста в дизайне High Performance ядер? У меня просто есть некоторые наблюдения со стороны, которые хотелось бы проверить.
vitalyvitaly
04.11.2024 08:12Эх, я уже много лет мечтаю прочитать рассказ о внутренней кухне Моторолы тех времен, когда они окончательно похоронили архитектуру 68k. Кто же знает, что там внутри происходило? А в Амиге и Атари перед банкротством в середине 90х, со всей безумной кучей проектов разных фантастических железяк от Атари? А перипетии Сеги на марафоне от Saturn до похорон Dreamcast? Историю внутренних отношений и трений в малом мире клонов x86 между Cyrix, IBM, TI, C&T, IDT, Rise и всеми остальными аутсайдерами. И это только вершина айсберга. Есть ведь еще множество загадок из восьмидесятых и даже семидесятых годов ...
Daimos
04.11.2024 08:12Вы можете верить кому угодно, но факты-то другие - Келлер был уволен до прихода Гелсингера.
opusmode
04.11.2024 08:12На самом деле факты немного другие - Келлер не был уволен Келлер ушёл, сам, в июне 2020 года.
А Гелсингер был назначен (приглашён из VMWare) в январе 2021 года
По слухам же, его рассматривали на должность гендира интела, вместо Боба Сона (который изначально был временщиком).
Однако дальше произошло что-то мутное - или не договорились или её что (так как свалил Келлер ну очень резко, ведь ещё в мае он там раздавал интервью).
Вроде бы как именно это и побудило перейти к кандидатуре Гелсингера.
Но, однако, какая ещё может быть версия - все понимают, что такие вещи, как смена гендира, не происходит одномоментно. Вероятно переговоры с Гелсингером могли начаться ещё за полгода. Лично я не знаю, это просто попытка как-то состыковать события.
И есть вероятность, что Келлер сначала понял, что он не становится директором, а когда понял, кого назначат, решил смотать удочки.
Т.е. как и во многих процессах, сотрудники высокого ранга знают о переговорах и договорённости достигаются за какое-то время до свершения сделки, так как много юридических и управленческих деталей.
В случае со Своном это получилось быстро, так как можно сказать он был человеком изнутри и его перевели на другую должность. Это проще. Келлер бы Свона тоже сменил за пару дней.
stanislavshwartsman
04.11.2024 08:12Как раз люблю иногда посмотреть этого Moore law is dead. Прр Интел у гего набор слухов с точностью менее 10%. Походу его инсайдер даже не рядом ходит с настоящими проэктами - выглядит как чел из strategic planning или marketing.
Кстати и по amd у него точность не звезда. Пересмотрите видос про zen4, процентов 80 не соответствует...
Quackerjack
04.11.2024 08:12С подачи и доводов автора - больше похоже на козла отпущения, которого выставили в авангард под "аля-улю", и на второй день сразу за спиной связали руки, чтобы канализировать свои накопленные за лет 7-8 проблемы, по их плану, а не по его плану спасения.
Причем и "касту" подобрали как надо - инженер переквалифицировавшийся в менеджеры (типа, профессиональные менеджеры ИТ, такого - бы не допустили, не надо нас приплетать - мы хорошие), а сами по факту, наверно и руку из "куклы Пэта" не вынимали. Получить по их контракту парашют и дождь такой же вдогонку, и счастливо, наконец за полвека жизни, будет проводить время с семьей.
Kirillstavropol
04.11.2024 08:12С каких пор интелы греются до лимитов, лимиты 12900, 13900, 14900 свыше 125 градусов, они при нормальном озлаждении даже при высокой нагрузке едва отметку в 100 пересекаются, а какой нибудь 13600к и вовсе выше 60 температур не видит, с андервольтингом 43-53, а вот всякие 5600, 7600, 9600 и 80 и 100 имеют
affinity
04.11.2024 08:12лимиты 12900, 13900, 14900 свыше 125 градусов
Это с чего бы? 100 градусов там потолок, дальше сбрасывает частоты что бы не превышать
Intel® Core™ i9-12900 Processor
Intel® Core™ i9-13900 Processor
Intel® Core™ i9 processor 14900
Sasha_56756
04.11.2024 08:12Процессоры Intel никогда не грелись до 125 градусов, 100 потолок, лишь на некоторых моделях 105 градусов потолок.
polar_yogi
04.11.2024 08:12А поясните, пожалуйста, про медные инсуляторы. Даже в статье о Лизе Су по ссылке нашел только по медные соединения.
firehacker
04.11.2024 08:12На слове «проводники-инсуляторы» я чуть лицо фейспалмом не пробил...
ImagineTables
04.11.2024 08:12Я только хотел спросить, что такое «проводники-изоляторы». В этом есть смысл, или просто красивое выражение?
kt97679
04.11.2024 08:12Инсулятор (insulator) это изолятор. Медный изолятор это оксюморон. @riddlerider вы точно ничего не перепутали?
Andrey_Dolg
04.11.2024 08:12Это и было секретным рецептом AMD изобрести и добавить медный проводник-изолятор никто бы не додумался)
RS6
04.11.2024 08:12Это даже не "гуртовщики мыши", это выглядит как запредельный уровень галлюцинаций при переводе.
По ссылке это два предложения в разных параграфах. Как их можно было так скомпилировать?
"As a doctoral candidate, she was one of the first researchers to look into silicon-on-insulator (SOI) technology, a then unproven technique for increasing transistors' efficiency by building them atop layers of an insulating material.
After joining IBM in 1995, Su played a critical role in integrating copper connections into semiconductor chips, solving the problem of copper impurities contaminating the devices during production, which led to significantly faster chip speeds."
"В бытность аспирантом(?), она была одной из первых исследователей, изучавших технологию кремний-на-изоляторе (SOI) — тогда еще непроверенную методику, предназначенную для повышения эффективности транзисторов за счет их создания поверх слоя изоляционного материала.
После прихода в IBM в 1995 году Су сыграла ключевую роль во внедрении медных соединений в полупроводниковые чипы, решив проблему примесей в меди, загрязненявших устройства в процессе производства, что привело к значительному увеличению скорости работы чипов."firehacker
04.11.2024 08:12Я не увидел бирки, что это перевод. Но если это таки галлюцинаторный перевод, тогда у меня и к планам питания вопрос. Возможно это power planes, а power planes это совсем не планы питания...
opusmode
04.11.2024 08:12Это полная чушь.
Интел потерял всё задолго до второго пришествия Гелсингера. Фактически он встал у руля уже пикирующего самолёта.
Более того, лидерство интела во многом являлось случайностью.
Давайте начнём с простого - когда-то интел был не один. И я говорю не о клонах х86, а , например, о разработках IBM и мотороллы. Никто особо не мешал компании нормально выходить на потребительский рынок, который они сами же и создали, но они предпочли и дальше заключать договора с компаниями и делать чипы для их устройств. По итогу они зафакапили и это направлениеи хоть POWER в целом жива, это не те объёмы. А ведь это RISC архитектура.
Далее, мы помним, что вообще-то AMD и до райзенов имела успешные продукты, которые неплохо так затыкали интел. Например атлоны, которые пинали очень неплохие трtтьи пентюхи, а атлоны 64 для пентюхов 4 были почти тем же, что райзен сейчас.
И ведь интел никто не заставлял тогда гоняться за гигагерцами любой ценой, точнее только и делать, что гоняться за гигагерцами. Никто не заставлял выкидывать p6 и менять на NetBurst. Именно тогда зародились и длинные конвейры и гипертрейдинг.
Но тогда повезло сразу с двумя вещами - маркетинг позволял продавать больше конкурента, хотя здоровый кусок рынка был потерян, да и к тому моменту, как интел сообразил, что выстрелил себе в ногу, взял p6 и начал его допиливать, а после вывалил на рынок весьма приличные процы, AMD начала сама себе стрелять по ногам со своим бульдозером.
И вот, 2011 год, у интела на руках прекрасный Sandy Bridge, впереди Ivy Bridge и Haswell, а конкурент убил сам себя.
Что делает интел? Сначала выпускает весьма странный Broadwell, чего мало кто замечает, так как есть же Haswell, а потом интел начинает тонуть в озере.
Кто заставлял интел продавать ARM подразделение в 2006 году? Нет, я тоже когда-то продал эфир по 55, а было то за пару месяцев до бума майнинга. Но мне были нужны деньги и я обычный человек. А интел слил всё прямо на пороге новой эры.
Далее - Intel Atom, как попытка догнать уходящий поезд. Не догнали. Атомы были плохи. Все. Они были просто никакие.
Далее - Core M. Помните, году так в 2015 вышел Macbook 12, как раз на Core M? А помните, что он был, фактически, один и продолжения не получил? А вы заметили, что он, по ряду параметром, очень схож с Macbook Ait, который вышел в 2020, но уже на другом M чипе? Полагаю, что именно получив вот это, Apple и начал активнее копать в сторону собственных процессоров. В смысле у них уже тогда были свои процессоры, но вот в тот момент они начали их прям сильно прокачивать. И через пару лет вышел A11 Bionic, который имел и свою графику и нейронные ядра. Это было примерно за полшага до полного перехода.
А что интел? А ничего. По сути они сделали атом за номером 2, пусть и пошустрее. Ладно, окей, не атом, так как Cherry Trail вышел в тот же год, что и последний флагманский m, но вот типа m7-6Y75 , лучший из m, был реально на уровне 6100u - худшего из мобильных чипов. Т.е. они тупо взяли свой чип и зарезали энергопотребление, как могли. И получили тормоза.
Так, дальше был период, когда число ядер не росло, число герц особо не росло, были проблемы с теплопакетом, что, особенно, было видно на мобильных чипах. Как итог, интел 8ххх уже были так себе, но наверное пиком развития. После этого пошла куча костылей и refresh. И всё было бы у интела хорошо, но вот AMD тут вернулся с райзенами не вовремя. А потом да, случил Zen 3. И переломил он интел потому, что у тех уже был пятилетний застой. ОНи всё переделывали и переделывали skylake, задрав всех своими refresh и 10++++++++++ нм.
По итогу с тех пор у них ну хоть как-то получилось 12 поколение и то спорное.
Далее - вечные смены сокета. Ну, не сиделось им на одной площадке. В итоге сложилась ситуация, что апдейт проца всегда требовал смены и всего остального. Как минимум материнки. И вот, если даже твой конкурент стоил на 50 баксов дороже, он не требовал покупать вместе с собой ещё кучу всего. Люди это прочухали.
Но интелу было пофиг, он жил в серверном сегменте, потребительский был вторичным. Но и там стало всё тухно, ведь там использовались те же технологии, что в настольных, с теми же проблемами. Только там теплопакет был даже критичнее.
Как итог - к 2021 году интел, как компания, оброс бюрократией. Интел либо боялся эксперементировать, либо наоборот, бросался в авантюры. Вести несколько направлений им было не особо интересно.
Интел слил подразделение ARM и ядро XScale, хотя оно использовалось в iPod, коммуникаторах и планировалось для iPhone в рамках стратегического сотрудничества
Интел прибил свой же бизнес по производству сотовых модемов, хотя тот же Qualcomm в том числе на них заработал денег на покупку Intel,
Ребята так же долгое время забивали на видеокарты, сидя на своих HD. В итоге к моменту, когда они спохватились и выпустили Arc, он был примерно никому не нужен.
Интел упустил своего крупнейшего клиента, Apple. А консольщиков и прочие устройства у IBM увёл к себе AMD. Потому в боксах, плейстешнах и стимдеке стоит не интел. Хотя 10 лет назад Wintel был по сути базой для игр и это можно было развивать.
По Келлеру тоже самое - да, он крутой инженер и именно его, по хорошему, надо было ставить во главу, тогда бы, наверное, получилось как у Лизы Су. Но проблема тут в том, что AMD не была корпорацией. Им самолюбие не мешало признать ошибки. А интел это корпорация, они не могли поставить во главу не человека из системы, а человека, который не просто делает продукт, а который предлагал всё сломаь и перестроить, выкинув лишнее. Собственно именно Келлер же и выкинул из AMD бульдозер и начал пилить Zen. Он же, по сути, сделал первые собственные процессоры для Apple и заложил основу для М процессоров. Т.е. можно сказать, что он и прибил Интел. Ну, если утрировано. И да, он лучше всех на планете земля знал, чего нет у конкурентов интел и как сделать лучше и веселее.
Так что к 2021 году интел уже был в заднице и если этого кто-то не понимал, то этот человек слепой или глупый. Всё остальное это уже последствия. Просто за 3 года не случилось чуда, везение закончилось, а текущих шагов не достаточно. Интелу надо не просто выдать какой-то заметно отличающийся продукт и сменить маркетинговую политику, им надо очень сильно пересмотреть отношения с миром вокруг себя и понять, что они не исключительные
Daddy_Cool
04.11.2024 08:12Вооот! Наконец-то нормальный анализ.
У меня с дивана такое видение - когда зеленые отстали и вообще чуть ли не сошли с трассы, у синих был Санди и они расслабились. И расслаблялись долго. А когда зеленые подтянулись и нагнали... то... уже ой...vtal007
04.11.2024 08:12Простите, наверно все таки красные, а не зеленые. Зеленые это другие. в куртке :)
Daddy_Cool
04.11.2024 08:12Э... как же так?
https://overclockers.ru/blog/cosplay/show/24784/logotipy-produkcii-kompanii-amd-razlichnyh-pokolenij
Вот эта штучка после слова "AMD" раньше была зеленой...
Оказывается раньше не только трава была зеленее, но и логотип...ssj100
04.11.2024 08:12Ааа так это имели ввиду .... да помню зеленый желудь, но давно за зеленые считаю GF
stanislavshwartsman
04.11.2024 08:12Задница в Интеле началась как раз тогда, во время Broadwell. Техпроцесс до этого работавший как часы, дал сбой. Тик-ток схема пошла лесом потому что новый 14нм запаздывал больше чем на год. Я помню как Broadwell копировал RTL код из следующего за ним Skylake чтобы хоть как-то остаться релевантным. Уже тогда можно было задуматься и начать готовить backup plan. Но нет...
А кто мог подумать что Skylake окажется последним? Что 10нм так и не придёт и CannonLake (10 нм последователь Skylake по тик-ток схеме) так и останется на бумаге.
Что 5 лет нам будут говорить, что вот вот и будет вам следующий техпроцесс и уже готовый IceLake выйдет в свет. Внутреннее имя IceLake это P17. А вышел он в 2019 году. Причём первый раз на том же 14нм. То есть его переделали под старый техпроцесс.
И виноваты тут руководство Интела. Конкретно BK (Briyan Krizhanitch) который тогда CEOил. Такого количества вранья сверху вниз как было тогда не было и не будет никогда. Под его начальством Интел умер. Отстал во всем, в микроархитектуре, в производстве, в техпроцессе, во всем. Его ставленники такие как Murthy Renduchintala убили Intel. В 2016 году этот Murthy приезжал к нам в Хайфу делать open forum, вещал что все на фабриках налаживается и скоро Lenovo получит заказанный CannonLake. Кому он врал ? Мы же с этим работаем. И выход годных чипов 6 (шесть штук) на wafer говорит, что нам гонят...
Когда BK окончательно выгнали жопа уже была как чёрная дыра. Я думаю Jim Keller сбежал как только повертелся внутри и понял, что он не проктолог и лесть в эту жопу не хочет. Сразу убежал как только все понял.
А Pat полез. Причём с большими амбициями. Поднять давно лет на 5 отстающий техпроцесс до уровня tsmc. Вот только силы не рассчитал. Причём до сих пор не понятно если он провалился и просто ещё чуть чуть. До есть 20A провалился - выход годных чипов ok, но параметры процесса вроде частоты и power не конкурентоспособны. Дальше есть 18A. Пока говорят on track, но деньги и кредит доверия исчерпаны. Если 18A заработает, Intel будет снова на коне. Но вот верится с каждым днем все меньше и меньше...
vvzvlad
04.11.2024 08:12Кто заставлял интел продавать ARM подразделение в 2006 году? Нет, я тоже когда-то продал эфир по 55, а было то за пару месяцев до бума майнинга. Но мне были нужны деньги и я обычный человек. А интел слил всё прямо на пороге новой эры.
У них внутри компании дрочево на х86 просто, и все, что могло пошатнуть положение х86 на рынке, зарезалось корпоративными играми.
opusmode
04.11.2024 08:12Ну, дык, вот вам и причина. Хотя, по сути, никто не мешает поделить компанию на подразделения под единым брендом. Да и тогда ARM ещё даже близко не являлся кокурентом настольникам
Jogker
04.11.2024 08:12Помню как на какую-то конференцию приезжали "разработчики" Atom и топили и со сцены, и в кулуарах за это чудо и "непроходящее" светлое будущее. Потом лет через 5 другие "разработчики" (а может и эти же)) рассказывали о новом "прорыве"... Но я плохо себе предсталяю, как приехать на форум и "мочить" собственный продукт. Он же денег стоит! )). А атомные EeePC, да, вон лежат.
opusmode
04.11.2024 08:12Да были у меня они. Был и 101 асус и какой-то планшет от них же на вин 8 и каком-то из последних атомов. Работало это всё очень плохо
checkpoint
04.11.2024 08:12Интелу надо не просто выдать какой-то заметно отличающийся продукт и сменить маркетинговую политику, им надо очень сильно пересмотреть отношения с миром вокруг себя и понять, что они не исключительные
Выпуск высокопроизводительного микропроцессора с системой команд RISC-V возможно и не спасет компанию, но точно откроет новую эпоху в процессоростроении. Интел мог бы сделать большое и доброе дело перед смертью.
opusmode
04.11.2024 08:12Не думаю, что интел умрёт. Too big to fail. Мобильное подразделение нокии не убило остальную компанию, как и компьютерное подразделение IBM. Они точно сохранят контрактное производство, они всё ещё крупные держатели лицензии ARM, да и деньги, как и доходы, завтра не закончатся. Сейчас речь о негативном тренде и так себе перспективах. Ну, что было и у амд, году так в 2012.
Плюс смотрим, что на рынок процев рвётся nvidia, у которой есть давний опыт с арм и которая чуть не купила арм. А еще nvidia рвется в серверный сегмент.
Не знаю, зачем им проц на RISK V. Арзитектура сырая и ей нужно кучу доработок.
Глобально я слышал ряд интересных мыслей. Они в том, что бизнес интел надо делить на части. Так же, по сути, им надо молить вернуться Келлера, ставить главой по процам и давать карт-бланш и кучу денег.
А дальше по ситуации, но с этими горячими монстрами точно надо что-то делать.
M_AJ
04.11.2024 08:12Не думаю, что интел умрёт. Too big to fail.
Еще это один из 2 производителей x86. Смерть одного определенно нежелательна для разных ведомств вроде Министерства обороны США, которое вполне может решить дать денег на "поддержание штанов". Да и можно посмотреть на AMD, она же как-то пережила свою эпоху застоя.
zebulon_stumpf
04.11.2024 08:12Работаю с бывшими старожилами Intel Fabs, они говорят что ARM для Intel был почти за даром, так как die размещали на окраинах wafer для pentium.
Они были здорово озадаченны когда intel свернул это направление.
Zobaken
04.11.2024 08:12Тот случай, когда комментарий лучше статьи. Теперь это всё выглядит логично, а не "пришёл один чел и всё развалил" (что, несомненно, случается - но гораздо реже, чем об этом пишут). Кстати не удивлюсь, если всё действительно свалят на Пэта на официальном уровне. Интел свои проколы никогда полноценно, как корпорация, не признаёт - гораздо удобнее найти крайнего.
Antimatter
04.11.2024 08:12Возможно Интел все потеряла, но у меня дома три компьютера на интелах, нас собран на интеле, на работе сервер на интелах, все рабочие компьютеры так же на интелах. А для поиграться лучше приставку.
nidalee
04.11.2024 08:12Возможно Интел все потеряла, но у меня дома три компьютера на интелах, нас собран на интеле, на работе сервер на интелах, все рабочие компьютеры так же на интелах.
Полагаю, что это либо уже в меру старые ПК, либо купленные просто по инерции. Объективно нет причин покупать Intel, когда для геймеров есть X3D процессоры, а для работяг - какие-нибудь 7950Х или даже Threadripper. Intel ни к селу, ни к городу.
Были одно время стереотипы, мол, Intel стабильнее и все дела - ну Intel сама их на корню зарезала своим позорным подходом к браку 13 и 14 поколений.
А уж Core Ultra вообще непонятно для кого делался, походу просто молились, чтобы никто не заметил их выкрутасов с ATX12V. Заметили. Кому теперь это продавать - не ясно, разве что обманом.
opusmode
04.11.2024 08:12Для геймеров, не самых ТОП, есть и 7500f. Хотя мне и 5600X до сих пор хватает. Геймеры это не только те, кто хапает последние АААА новинки.
И да, инерция была. И подрезано доверие было ещё на 8 поколении. 7, 9-11 тоже были хз для кого. 12 смотрелось ну окей, а 13-14 забили крышку.
И да, нет обьективных причин покупать интел, где-то примерно с выхода Zen 3. До того момента ещё были какие-то весы, после этого странно - амд поправил почти все детские болезни, был дешевле, холоднее и минимум не менее производительный
zebulon_stumpf
04.11.2024 08:12Разводка сложных FPGA все еше быстрее работает на Intel. Перепробовано несколько вариантов, Vivado справляется на 1.5 часа раньше AMD. Среднее время 6.5-7 часов, AMD от 8 и выше. И там и там 128 Гб DDR5
sanyvaa
04.11.2024 08:12а что скажете про процы Intel N100 (N95)?
недавно выбирал себе неттоп, так вот похоже N100 самый идеальный вариант. производительность на уровне i5 8го поколения, энергопотребление 6W впечатляет.
Grey83
04.11.2024 08:12Разве что с индексом U, судя по бенчмаркам, а так - аналог моего десктопного i5-2500 с чуть большим кэшем, более быстыми шинами (при вдвое меньшем их количестве) и вчетверо более производительным видеоядром. Ну и с потреблением раза в 8 меньше.
Вот тут можно производительность посравнивать во всяких бенчмарках и по характеристикам самих процев: https://www.notebookcheck.net/Mobile-Processors-Benchmark-List.2436.0.html
Если интересуют только какие-то конкретные из списка, то можно поставить галочки напротив них и нажать кнопку «Restrict».
khajiit
04.11.2024 08:12Такой есть на руках, в Dere T60.
Под виндой производительность достаточно скучная. В целом, пока винда не решит заняться какими-то своими делами, он шустр, но в любой момент может призадуматься на несколько секунд. Например, при открытии из трея KDE Connect.
Под пингвином — вполне норм, не хуже T440s (i5-4300U), при более быстром видео.
checkpoint
04.11.2024 08:12Возможно Интел все потеряла, но у меня дома три компьютера на интелах, нас собран на интеле, на работе сервер на интелах, все рабочие компьютеры так же на интелах.
У меня серваки в конторе тоже на интеллах, образца 2014 года кстати. Но это совершенно не значит что следующие тоже будут на интеллах.
opusmode
04.11.2024 08:12Ну таки и шо? А у меня последним интелом был 4770. Уже лет 5 у меня нет интелов, 5 лет я собираю людям устройства на амд, а последнее, что осталось, это мами ноут из 2018, который поанируется посенять. И о чём это говорит? Да ни о чём, совершенно. Хотя 10 устройств на интеле у вас дома, хоть 50 - даже если вы из каждый год обновляете, это капля в океане продаж. Там перепады считают миллионами экземпляров
andersong
04.11.2024 08:12Я вот много лет на интел, в сторону амд не смотрел, последнее собрал на i9-11900, думал когда будет новый сокет, занедорого обновиться на LGA1700, смотрел в сторону 13700, а они вон как, оказывается(
Как шарящий, подскажите, пожалуйста адекватный игровой конфиг на амд, по цене мать(чипсет)+цпу до 50круб под видюху 4070ти
Wijey
04.11.2024 08:12Ryzen 7 7700X + любая понравившаяся материнка на чипсете B650
andersong
04.11.2024 08:12Посмотрел, amd 7700x стоит как 13700kf, причем слабее процентов на 20-30, в чем выгода, непонятно.
Wijey
04.11.2024 08:12в том, что не превратится в тыкву, как все интелы 13 и 14 серий - в них неисправимый баг на уровне железа, натурально их убивающий со временем
Exesium
04.11.2024 08:12Выгода в том что это не 13700.
Это как раз один из самых проблемных процессоров
AVKinc
04.11.2024 08:12Раньше тоже все с Нокиями ходили и где она?
Grey83
04.11.2024 08:12Мобильное подразделение Нокии?
Продали другой финской компании, которая звонилки и смарты с ведроидом клепает под той же маркой.Astroscope
04.11.2024 08:12другой финской компании, которая звонилки и смарты с ведроидом клепает под той же маркой
Есть мнение, что конечным бенефициаром другой финской компании является китайская HMD Global или как оно там называется, тогда как эта конкретная другая финская компания - не более чем номинальная прокладка и возможность совершенно законно, хотя и глубоко ложно по сути, связать китайскую продукцию китайского производителя с Финляндией, что может дать маркетинговое преимущество. Я не пытаюсь сказать, что это хорошо или наоборот плохо, я лишь пытаюсь сказать, что весьма популярный какое-то время назад бренд, больше не подкреплен ничем, кроме воспоминаний о том, что раньше трава была зеленее и в целом жилось счастливее. Ну а падение потребительского сегмента тогдашней "большой Nokia", которую почти все ассоциировали с телефонами - тема для отдельной главы в учебнике по экономике. Потому что с полимерами там обходились образцово-показательно, многое там есть на чем воспитывать новые поколения эффективных менеджеров.
Grey83
04.11.2024 08:12Сейчас за чуть больше $60 можно неплохую звонилку от них купить (Nokia 235 4G (2024))
Про смарты с ведроидом не скажу: по обзорам/характеристикам вроде как средний китайфон сейчас.У мну был купленый (за 4,5к грн, емнип) в 2011 году N8-00 финской сборки и несколькими годами ранее 6120c венгерской. Я бы наверное и дальше брал их аппараты если бы не заглянувший на минутку из μ$ Элоп и угробивший maemo/meego ради Б~гомерзких плиткофонов, которые канули в Лету через несколько лет.
С месяц назад, кстати, видел в продаже 808 PureView в рабочем состоянии. Правда за него больше $110 просили, емнип.В общем поезд ушёл и это печально.
Astroscope
04.11.2024 08:12Сейчас за чуть больше $60 можно неплохую звонилку от них купить
Ой, я вообще не в курсе этого рынка, поэтому просто подтверждаю, что прочитал, но осмысленно прокомментировать не могу.
Про смарты с ведроидом не скажу: по обзорам/характеристикам вроде как средний китайфон сейчас.
Точно так же, мельком в каких-то обзорах видел - что-то обычное-заурядное, но знаю не более чем. Неинтересно.
У мну был купленый (за 4,5к грн, емнип) в 2011 году N8-00 финской сборки и несколькими годами ранее 6120c венгерской.
А напомните, курс тогда какой был? Не восемь ли где-то с половиной, что дает грубую оценку вашей покупки в $500?
Загуглил N8-00 - не проникся. У меня в те времена уже год или два как был Samsung i920 (CDMA версия Omnia II) - аппарат с шикарным по тем временам 4.7" AMOLED телевизором и WinMobile 6.5, которая уже начинала движение в сторону "пальцеориентированного интерфейса", но поддерживала весь ранее написанный софт, коего было, скажем так, очень много, и среди которого было немало субъективно очень нужного. Все аппараты, что были у меня до, мгновенно субъективно обесценились - из-за превосходства экрана в первую очередь. Ну а помимо экрана аппарат запомнился беспроблемностью и безглючностью в широком смысле слова. Ранее у меня не было своих телефонов Samsung, а чьи-то аппараты, что просил на посмотреть, своей заурядностью интереса не вызывали.
6120c - один из огромного количества странных аппаратов, которые формально вроде как смартфон - можно устанавливать свои программы, которые поддерживаются операционной системой телефона, но которые вроде как просто тупая звонилка, потому что пользовательский интерфейс в виде полутора десятков физических кнопок совершенно непригоден ни для какого серьезного взаимодействия с почти любым софтом кроме номеронабирателя.
Пожалуйста поймите меня правильно: я не пытаюсь сказать, что вы неправы в общем или где-то что-то сделали не так в частности - ни в коем случае нет! Мне просто искренне непонятны ваши мотивы, но я не оспариваю их, а просто спрашиваю, почему, что вы нашли такого, чего недосмотрел я, приводя пример своих решений и объясняя их как понятный контрпример, а не как объект бессмысленного спора.
Я бы наверное и дальше брал их аппараты если бы не заглянувший на минутку из μ$ Элоп и угробивший maemo/meego ради Б~гомерзких плиткофонов, которые канули в Лету через несколько лет.
Тут удивительно сошлись два вектора - затянувшийся системный кризис телефонного отделения Nokia и какого-то непонятного мне приступа идиотизма Microsoft. Обе конторы решили кинуть через колено своих более чем многочисленных лояльных потребителей, причем максимально жосско™ и максимально необратимо. Объединившись, они еще более усилились, и победа над лояльной аудиторией стала просто оглушительной.
С месяц назад, кстати, видел в продаже 808 PureView в рабочем состоянии. Правда за него больше $110 просили, емнип.
Неинтересно (моя субъективная оценка).
В общем поезд ушёл и это печально.
Да, печально. Я никогда не был фанатом Nokia - последний аппарат, который мне искренне нравился и с которым я не хотел расставаться, назывался 450 (если не ошибаюсь - внутренний индекс был THF-9). Зато я был фанатом WinMobile и настойчивость, с которой Microsoft убивали эту систему, меня неприятно удивляет до сих пор, равно как и две в принципе одинаковые попытки по-глупому, предсказуемо провально, вкатиться с WinPhone. В результате телефоны с аппаратной точки зрения менее разнообразны, а с программной точки зрения имеем фактическую дуополию, где оба конкурента тянут худшее друг у друга, вместо присутствия серьезного третьего игрока.
checkpoint
04.11.2024 08:12Интересно, а что мог сделать г-н Гелсингер в 2023-ем когда факап с дохнущими камнями вскрылся ? Безоговорочно заменить все 8 млн бракованых камней ? В этом случае пришлось бы продать что-нибудь ненужное (Altera например), процесс бы точно затянулся и плавно перекатился в банкротство.
И эта формулировка про "загрязнение линии" выгядить как лапша на уши инвестров. Проблема куда серьезнее - в технологии производства, которая оказалась "с душком", устранить который в кратчайшие строки не представляется возможным. И именно по этой причине Интел переносит производство на TSMC. Своё производство не тянет.
victor_1212
04.11.2024 08:12вероятно ничего, по слухам Гелсингер типа порядочный человек, также по слухам большие расходы связаны с новыми фабриками, но это стратегическое направление, поэтому упасть Intel скорее всего не дадут
checkpoint
04.11.2024 08:12Понятное дело, too big to fail. Перетасуют менеджмент, выдадут бессрочные беспроцентные ссуды и продолжат штамповать процессоры второго эшелона. Но для нас Интел будет уже не торт. :)
victor_1212
04.11.2024 08:12сказать прямо для меня он всегда примерно таким был, с тех пор как альфу угробили ради своего убогого itanium, + надежду на risc desktop, но технически могут пропустить через банкротство примерно как было с GM в 2009, т.е. со сменой владельцев и реорганизацией, типа если сейчас совет директоров контролируют бухгалтера из инвестиционных фондов, то будет правительство, поживем увидим, поставлена задача сделать свою TSMC, если понадобится вероятно могут даже национализировать в крайнем случае
checkpoint
04.11.2024 08:12Правительство США сейчас интересуют только фабы. Поэтому могут начать делить как когда-то поделили AT&T - производство отделить от R&D. Попутно отделить софтописателей и ПЛИСостротелей. Ничего хорошего это не сулит. Хотя Alter-а (или что там от неё осталось) может быть вздохнула спокойно.
vitalyvitaly
04.11.2024 08:12Могли бы фабрики третьему стратегическому поставщику отдать какому-нибудь. Как я понимаю, процессоры Harris 286 в девяностых годах появились именно так. Юзерам бюджетных сборок в развивающихся страных это было только на пользу.
themen2
04.11.2024 08:12Почему бы теперь не пригласить Джима Келлера на главный пост? Все равно, терять по сути нечего. Дать ему полный карт-бланш и делов то
ilja903
04.11.2024 08:12Причина как раз не в процессорах. Просто в интеле плохой фин менеджмент. Все компании росли и накидывали в цене акций, выдавали опционы и тд. Интел стоит в цене уже 20 дет почти, зачем работать хорошему инженеру там, а не в нвидии или амд например.
vignatovic
04.11.2024 08:12Проблема процессоров 13 и 14 поколений была не в окислении и не в микрокоде, а в том что под нагрузкой с повышением напряжения питания и температуры поплыл clock duty cycle (из 50%) и это вызывало повреждения. Это последняя версия от 25 сентября 2024, а до этого в Интеле не знали в чём проблема и что объявлять публике кроме того, что процессоры горят. https://community.intel.com/t5/Blogs/Tech-Innovation/Client/Intel-Core-13th-and-14th-Gen-Desktop-Instability-Root-Cause/post/1633239?s=31
Пост от Интел выше кстати отчасти ложный, вопреки их утверждениям топовые мобильные процессоры тоже массово "горят", по крайней мере их версии близкие к десктоповским.
perfect_genius
04.11.2024 08:12Если Intel APX не заброшен, то смог бы дать компании немного преимущества.
idregerge
04.11.2024 08:12желтушная статья, впрочем, как практически и все новости про интел с начала этого года. Амд сделала отличное вложение денег, инвестировав их в антипиар конкурента, вместо разработки и производства 9000й линейки своих процессоров.
GuverBy
04.11.2024 08:12Очень интересно, только когда Джим Келлер ушёл из Intel Пэт Гэлсингер был CEO VMWare. Они никак не могли вместе пересекаться. Все что советовал Келлер это уйти к тсмс, что собственно интел и сделал
Arkan0409
04.11.2024 08:12Уж сколько раз твердили миру, что если человек хорош в чем-то одном, то это совершенно не значит, что он хорош во всем остальном. Гелсингер вполне может быть хорошим техническим специалистом, но совсем не обязан быть хорошим управляющим. Я столько раз видел уже, как на эту должность назначали заслуженного кого-то там со словами, что сейчас-то он выведет нас из кризиса, и каждый раз это приводило к еще большим проблемам.
DieSlogan
04.11.2024 08:12А это не Слоун разве был, когда Интел сбагрила свой ARM компании Marvel?
И тут его сменил стрелочник и ату его, он во всём виноват! Нет, такие компании как Интел не свалить так, процесс уже шёл задолго до стрелочника.
Astroscope
04.11.2024 08:12Инвесторы отреагировали мгновенно. Акции Intel потеряли треть стоимости за считанные дни, и учитывая плавное падение на протяжении всего 2024 года, легендарная компания стала стоить почти в 3 раза меньше, чем AMD. Той самой AMD, которая совсем недавно уступала капитализации Intel более чем вдвое.
Мне кажется, эти казалось бы объективные сведение на самом деле не имеют отношения к реальному положению дел. У Intel есть много очень дорогих заводов, которые либо уже работают (большинство), либо еще строятся и, предположительно, заработают вскорости (тоже немало). Точное количество заводов и оценку стоимости каждого, уверен, можно найти в открытых источниках, но в любом случае речь об очень многих миллиардах долларов. Еще у Intel есть, упрощенно говоря, научно-исследовательские институты, тоже сильно более одного, географически распределенные. И огромное количество интеллектуальной собственности. Что из этого есть у AMD? Только второе и третье, причем я сходу не возьмусь сказать, в сопоставимом ли количестве. То есть стоимость активов Intel несравнимо выше стоимости активов AMD. И тут мы снова возвращаемся к процитированному: так называемая капитализация по сути не более чем индекс спекулятивных ожиданий держателей акций, имеющий малую, если вообще хоть какую-то, корреляцию с активами. Не следует ли делать хотя бы поверхностный обзор материального положения сравниваемых компаний перед тем, как приводить спекулятивные цены на их акции? Потому что следующим будет, что
ученый изнасиловал журналистаAMD "стоит" столько-то (много), а Intel "стоит" столько-то (мало), поэтому AMD может купить весь Intel и еще здача на покупку Apple останется - такого в статье, к счастью, нет, но в комментариях к статьям, где помимо прочего заходит речь о стоимости акций, случается регулярно.
niko1aev
04.11.2024 08:12Посмотрите на картинку про доли рынка
Там в октябре
Intel 65,62%
AMD 36,76%
И итоговый рост у AMD 4%
А ничего так, что 65,62 + 37,76 = 102,38!
То есть ошибка в 2.38% и вот уже рост у AMD может быть не 4,19% а 1,81%
Как вообще они считают
Intel: было 66,8%, стало 65,62% или падение 1,18%
А в таблице -1,76%
То есть рост AMD завышен, падение Intel завышено...
Очень и очень странные данные, выглядит как манипуляция общественным мнение и (не дай бог конечно) биржевыми котировкамиTempusVortex
04.11.2024 08:12Уменьшение доли с 66,8% до 65,62% — это падение на 1,76% или на 1,18 процентного пункта.
IceGerda
04.11.2024 08:12P -B ядра это бред для верхнего ценового диапазона. А в нижнем вроде неплохие процы, но за встроенное графическое ядро много хотят.. Поэтому АМД лучше и в верхнем диапозоне, и в нижнем..Хотя цены на материнки в последних поколениях - спекулянтские.
Rotmayer
04.11.2024 08:12Спасибо за статью, было очень интересно прочитать. Как раз сейчас планирую собрать комп, думал брать 13400f, но видимо надо брать AMD?
Autochthon
Главная ошибка - это неправильный выбор архитектуры в итаниум и как следствие упущенное время чтобы войти в risc и занять в нем доминирующее положение. А сейчас против арм у х86 нет шансов.
ganzmavag
До сих пор не понимаю, в чем вообще должно было быть преимущество Итаниума. Несовместимость с x86 сделали, а плюсы в чем?
SuvorovStyle
более экономичное энергопотребление
Tsimur_S
Да как и у любого VLIW идея была в том что бы напихать в один такт побольше инструкций и выплюнуть их результат одновременно. Оказалось что в реальном мире это работает так себе по причине злобных if else и отсутствия супер-умных компиляторов.
dmitrye1
Даже с имеющимися компиляторами можно было выжать дополнительную производительность. Собственно, я это делал в качестве эксперимента для openssl с поддержкой ребят из Intel. В компиляторах был режим компиляции кода с накоплением статистики работы, после чего статистика использовалось для повторной компиляции с оптимизацией спекулятивных выборок, ну или еще чего-то там. Я получил выигрыш 20+% на тестах openssl. Вроде хорошо, только меня мучал вопрос, почему я в коробке получил скомпилированную неоптимальным способом базовую библиотеку, почему я достаточно легко сделал профилирование компиляции, но это не сделал Интел. Потом мне светили какие-то тесты и пересборка всех пакетов дистрибутива, свои репозитории...
Осадочек остался, можно было выжать из процессора больше просто нормально сделав свою работу.
redf1sh
Как разработчик компилятора для Эльбруса (который тоже VLIW) и которому PGO (Profile Guided Optimizations) дают также прирост производительности могу сказать, что возможно OpenSSL собирал не Intel, а просто обычные программисты, которые никогда не заглядывали в список опций. Даже если открыть список GCC, можно очень долго перебирать те опции, которые есть. Когда опций больше 500, то определить те, которые дают прирост производительности очень сложно. У меня лежит штук 20 научных статей по методам автоматического подбора. А большинство приложений собираются с -O2 и не более.
checkpoint
Я бы предпочел систему для которой -O2 генерирует близкий к оптимальному машинный код. Спасибо.
redf1sh
Это невозможно технически, так как вы в статике не знаете самые горячие пути исполнения программы (если только вы руками до этого не профилировали и не вставляли подсказки). -fprofile-generate/-fprofile-use даёт вам возможность для заданного тестового набора данных оптимизировать программу лучше. Но нужно держать в голове, что если на train данных у вас будет исполнен один код, а при реальном использовании другой, то вы получите замедление.
Также, в простом режиме -O2 вы собираете программу без LTO оптимизаций. Inline у вас будет работать в пределах одного модуля (если только не вынести всё в headers). Поэтому эффективность будет крайне ограничена.
Поэтому для более быстрого кода старайтесь использовать хотя бы такой набор -O3 -flto (или -fwhole) и сборку с профильной информацией с актуальными train данных.
Также крайне желательно узнать что там с вычислениями с плавающей запятой. -ffast -ffast-math могут тоже сильно ускорить программу.
checkpoint
Для моих проектов -O2 -flto генерирует вполне годный код, дальнейшие улучшения возможны только нечеловеческими трудозатратами, что не всегда оправдано. А вот -O3 бывает генерирует неработоспособный код (особенно для микроконтроллерного железа), так что я стараюсь не использовать эту опцию. Что же касается VLIW, то для неё любая оптимизация потребует нечеловеческих усилий, в том числе динамического профилироваиния и чтобы основываясь на 20-ти статьях подобрать комбинацию из 500 опций. Зачем это все ?
blind_oracle
Строго говоря и без VLIW этот подход вполне используется. Как вручную используя макросы вроде
likely/unlikely
, так и автоматически - в том же Golang не так давно добавили профилировщик, который собирает статистику на проде и потом позволяет собрать бинарник более оптимально на основе анализа ветвлений и прочего.checkpoint
Меня всегда интерсовал ответ на вопрос: как поведет себя таким образом заоптимизированный код на VLIW если друг неожиданно изменится структура потока обрабатываемых данных. Не начнет ли система тупить, если вместо фамилии начнут указывать имя и наоборот ? Как часто требуется пересобирать проект на проде для адаптации под изменяющийся поток данных ? На RISC/CISC такой проблемы нет, там все оптимизации внутри конвейера и профайлинг делается один раз. А что на VLIW ?
redf1sh
Можете подробнее раскрыть "изменение потока данных"? Пока звучит так, что ошибка либо в данных (например, изменён порядок полей), либо в программе (она не учитывает какие-то особенности)
blind_oracle
Да проще всё: сначала одна ветвь if была горячая, а потом во внешнем мире что-то изменилось и горячей стала другая.
checkpoint
if это пол беды, VLIW процессоры с предсказателем ветвлений возможны. Но что если при изменении потока данных придется перетасовать размещение команд в длинном слове ? Это полная перекомпиляция проекта.
larasage
Сперва программа работала преимущественно с немецкими именами-фамилиями, потом пошли турецкие/курдские, потом арабские, а в конце - славянские.
checkpoint
Учитывая, что UTF-8 вещь весьма витиеватая, очень хороший пример.
Naves
Любая обработка видео, для которой как раз было бы выгодно использовать VLIW-процессоры.
Половина года зима, и поток со всех видеокамер идет темный, вторая половина года лето, и видеопоток идет пересвеченный.
А еще бывают дожди-грозы сумерки.
Или например, половина камер в переулке, где никого нет, а другая с интенсивным движением.
AndreyHenneberg
Чего-то сразу захотелось несколько сборок под разные профили и что-то умное, что эти сборки переключает. Это если использовать автоподстройку.
redfox0
Да легко: допустим, парсинг json, средняя длина строк-ключей была около 6-7 символов, а тут входные данные изменились и средняя длина строк стала 42 символа.
TimReset
Хм. Вот то что вы сейчас описали - очень напоминает JIT компиляцию в Java. Сначала интерпретируем код. Медленно, но зато собираем статистику. А потом компилируем. Мне кажется VM языки с JIT отлично бы прижились здесь.
tbl
Причем JVM и V8 умеют в деоптимизацию: когда меняется поток данных, они откатываются к неоптимальному коду с подсчетом новой статистики, а затем компилируют оптимальный код с новым профилем
VVS_AMD
И да и нет. Да, потому что реально крутая схема получения эффективного кода. Нет, потому что это надо делать в рантайме и JIT отнимает ресурсы у приложения, которое компилирует. Поищите на Ютубе доклад разработчиков JVM для E2K - ребят из ЮниПРО. Они подробно описали все сложности.
Для языка Rast, например, доступен компилятор LLVM, который обладает преимуществами JIT, но может себе позволить долгий процесс компиляции, потому что offline. Для С++ вроде тоже такой вариант доступен. Как я понял, именно о нём и писал выше redf1sh.
По сравнению с обычной компиляцией на С++ (через j++) java на Эльбрус 8С действительно очень сильно смотрится. Это я уже успел потестить.
Dinisoid
Проект скомпилированный при помощи -O3 может работать медленнее -O2, случаи и обсуждения легко найти в Google. Идеальный вариант смотреть флейм графы и иметь механизм трейсинга по горячим путям, тогда достаточно легко понять какие опции для конкретного проекта приносят бОльший прирост.
mydigitalhabb
Гентушники баловались PGO ещё 10-15 лет назад. Почему скомпилированные бинарники из коробки не PGOшные под основные архитектуры - действительно вопрос.
fen-sei
Считали офигенным плюсом именно избавиться от "проклятого легаси x86", но оказалось, что софта под 64-битные процессоры - мало, и потому более AMD-64 поддерживающие это легаси пользовались большей популярностью.
ganzmavag
Вопрос что вообще дал им отказ от совместимости. Они же по производительности от AMD-64 тоже не ушли вперед, тогда зачем?
Tsimur_S
Скорее всего вопрос политический. Itanium(EPIC) был результатом партнерки с HP, всем недовольным из отдела x86 закрыли рты под угрозой увольнения, любое внедрение x64 в пентиумы рассматривалось как сабботаж, и скорее всего сам itanium нужен был как способ выйти из соглашения с АМД о кросслицензировании.
Ну и в целом в те времена пиджаки заправлявшие этим бизнесом еще думали по другому. Переоценивали рынок "экзотических" процессоров для серверов и недооценивали вопросы обратной совместимости. В 93 году такой маневр мог и проканать, в 2010 он бы выглядел 100% идиотским.
Интелам не повезло провернуть его ровно в тот момент когда он таковым не выглядел но по факту являлся.
strvv
Ну Итаниумы, как и Бабаяновские Эльбрусы всем мозги забили ещё в 90-е.
Пиар был настолько душный и плотный...
По поводу кросс-лицензии - на Р5 и Р6 архитектуре, то есть в первой половине 90х, уже он был достаточно жидким.
Но тогда у Интела был непререкаемый авторитет, и зачастую принималось много идиотских решений, не технически обоснованных, а патентно-закрытых как например RamBus, и судами и прочими некрасивыми действиями они вытесняли конкурентов в х86 архитектуре 1990-2000е особенно активно, но не трогая, а поддерживая №1 конкурента, чтобы их не порвало на тряпки антимонопольное ведомство, как ранее, например в 80-е АТТ, ИБМ и прочих.
SIISII
64-разрядная IA-64 (официальное название архитектуры, Itanium -- торговая марка или как там её процессоров, реализующих эту архитектуру) много проще в железе, чем 32-разрядная IA-32 (которую обычно называют x86, хотя официальное название архитектуры таки IA-32). Упрощение достигается за счёт отказа от всяких железных ускорялок типа внеочередного выполнения команд и т.д. и т.п. -- что действительно очень сложно.
Предполагалось, что распараллеливание сделает компилятор (IA-64 -- архитектура с явным параллелизмом выполняемых операций: в одной команде задаётся сразу несколько одновременно выполняемых операций; IA-32, как и подавляющее большинство других архитектур концептуально выполняют операции строго последовательно). Но что-то пошло не так (с) В частности, оказалось, что распараллелить код на этапе компиляции не так-то просто. Хуже того, при реальном выполнении всё это распараллеливание нередко накрывается медным тазом из-за того, что процессор -- не единственное "живое существо" в компьютере. Скажем, компилятор думал, что можно этот доступ к памяти выполнить параллельно с этими операциями, а следующий -- с теми, и упаковал их в соответствующие команды. Но при выполнении оказалось, что память занята и не может вовремя ответить на запрос проца -- и он полностью останавливается, ожидая, пока память наконец-то разродится. А вот сложный суперскалярный IA-32 в такой ситуации может выполнять следующие команды, пока данные из памяти ему реально не понадобятся до такой степени, что он тоже вынужден будет остановиться. Ну, примерно так :)
И да, термины в статье используются, как обычно, неграмотно. И у современных процессоров Интел, и у современных процессоров АМД архитектура одна и та же -- AMD64 (Интел, позаимствовав её после провала итаниумов, переименовала её в Intel64, но сути это не меняет; нередко её обозначают x86-64, но это не её официальное обозначение). А всякие там Zen 3 -- это микроархитектура, т.е. внутреннее устройство процессора (архитектура -- это как процессор выглядит для программиста безотносительно к его внутреннему устройству).
phdnk
Описанная вами ситуация с низкой плотностью микрокоманд в коде IA-64 должна была быть обнаружена заранее, еще до производства процессоров. Я так понимаю, что компилятор и эмулятор пишутся сначала, а только потом запускают производство, рекламу и продажи процессоров.
Интересно, почему Intel и HP не отказалиь от EPIC еще на стадии проектирования.
vkni
Там масса средств была вложена в пеар, который привёл к убийству или стагнации конкурирующих серверных RISC архитектур, таких как Alpha, PA-RISC, MIPS, SPARC. В результате, в начале 2000х х86-е стали лидировать в однопотоке. Таким образом, если рассматривать всю эту деятельность целиком, Интел сильно выиграл.
svenkov
если быть еще точнее, то em64t или emt64.
mx-yh
У VLIW и RISC по сути отсутствует декодер команд. У x86 каждая инструкция декодируется, код инструкции является адресом подпрограммы в микрокоде, каждая инструкция это несколько шагов микрокода которые загружаются в конвейер, с системой предсказаний. И на каждом шаге микрокода выдаются сигналы управления вычислительной аппаратурой процессора. У VLIW этого нет, инструкция VLIW по сути состоит сразу из управляющих сигналов для вычислительной аппаратры. У RISC есть простейший декодер, который за два такта формирует управляющие сигналы.
И того у x86 есть декодер инструкций, микрокод, архитектура предсказаний, многоуровневые длинные конвейеры. И все это занимает огромную часть кристалла, и все это потребляет энергию на каждом такте.
То что делает эта аппаратура x86 , для VLIW и RISC делает компилятор на этапе сборки программы, один раз. За счет этого количество транзисторов у RISC значительно меньше при той же производительности. За счет этого RISC потребляет значительно меньше энергии на выполнение того же объема вычислений.
Да, за это приходится платить размером программы, и во времена 16 битных и 32 битных процессоров это было весомым преимуществом архитектуры x86. В те времена программа для RISC была в разы больше. Но во времена 64 битных процессоров, разница в объеме кода стала несущественной. И сейчас объем кода в любой программе в сотни и более раз меньше чем объем статических данных в программе, так что двадцати процентная разница в объеме исполняемого кода роли не играет
LAutour
В высокопроизводительных RISC тоже достаточно длинные конвееры и есть предсказатели переходов.
vanxant
Вы пересказываете оторванную от жизни теорию. Ещё и мешаете в кучу "конелюдей" (RISC и VLIW).
Конкретно у Итаниума было 128-битное машинное слово, в которое можно было запихать 2-3-4 инструкции, которые выполнялись "одновременно". И вот эти правила - что с чем можно паковать в одно слово, а с чем нет - были далеко не тривиальны. Поэтому, собственно, EPIC.
Декодер, как вы понимаете, там тоже был весьма замороченным.
VLIW там может и существовал, но уже внутри процессора после декодера.
khajiit
Проблема декодера не в том, что он огромный и жручий — он довольно-таки компактный, на ядре без кешей его сложно найти, чего уж говорить про полноценный снимок.
Проблема в самом CISC-подходе: нельзя взять и загрузить всю кеш-линию в серию декодеров as-is, чтобы они одновременно начали декодировать инструкции. Пока первая инструкция не пройдет несколько этапов декодирования — неясно, откуда начинать следующему простаивающему декодеру. Чем больше времени займет декодирование, тем больше будут простаивать другие соседние конвейры.
Частично это нивелируется большей сложностью самих инструкций (одна Complex Instruction может заменить две-три Restricted Instruction), частично усиливается большей длиной и сложностью конвейра.
В результате получается сложно, трудно для понимания — а значит и для сложнее для внесения изменений, и с гарантированными простоями, компенсировать которые можно только еще более усложняя инструкции.
SIISII
Нет неразрешимых проблем в том, чтобы обнаруживать границы команд до их полной обработки декодерами. Другое дело, что сложность этого процесса сильно зависит от архитектуры. Так, для IA-32 это крайне сложный процесс (длина команды от 1 до 15 байтов, причём надо анализировать их подряд, пока не станет ясно, какова же итоговая длина), а для хоть изначальной Системы 360, хоть современного её потомка в лице z/Architecture -- элементарно (длина составляет 2, 4 или 6 байтов и задаётся двумя старшими битами самого первого байта кода команды). И декодирование выполняется именно сразу для нескольких команд, без этого попросту невозможно запускать на выполнение несколько команд одновременно, что делают все суперскалярные процессоры.
khajiit
Про неразрешимые проблемы, требующие полного декодирования, никто и не говорил. Более того, это бы сделало второй декодер полностью бессмысленным.
Тем не менее, сама концепция CI предполагает, что пока 4 из 5 конвейров ждут первого — RI могут загружаться пачками в каждом такте во все 8.
С ними другая проблема — во-первых, накормить это чудовище (нужна ОЧЕНЬ быстрая память), а во-вторых — переварить все то, что способен выдать конвейерный банч. В частности, OoO имеет известную алгоритмическую сложность, регистровый файл подстановок (если используется) не бесконечен, и т.д. и т.п.
Предположим, что длина конвейра 20 стадий, и для определения адреса следующей инструкции нужно от 1 до 5 стадий, причем каждая стадия выполняется за 1 такт, а вычисление смещения для следующего конвейра может выполняться одновременно с очисткой первой стадии текущего, и занимает 1 такт. Тогда в самом идеальном случае следующий конвейр сможет запуститься через
31 (декодирование) + 1 (смещение) тактов (если кеш-линия не закончилась), а последний — через 10. В самом худшем, вероятно, конвейры 3, 4 и 5 останутся простаивать, ожидая, пока остальные не упрутся в зависимости по памяти и не встанут (вопрос префетчера пока опустим, для наглядности).Таким образом, даже в идеальном случае будут пропуски, когда конвейр не занят новой инструкцией.
Этот не специалист в z, но выглядит так, словно в этом плане он существенно ближе к RISC, и его конвейры, теоретически, можно загрузить параллельно, если потратить N+1 тактов на чтение бит, кодирующих длину, и загрузку их (функции) в мультиплексор. Однако, проблема все еще на месте: что так, что эдак придется ждать.
Fahrain
Сильное заявление. Но арм для десктопов и ноутбуков как не было в продаже, так и нет. Ну, я имею в виду массовый сегмент, а не отдельные девайсы за 100500 денег. Да и с серверным сегментом тоже не особо хорошо - какую-то долю арм там откусил, но дальнейшие перспективы как-то не обнадеживают.
Причем про "щас придет арм и x86 кирдык" я слышу уже больше десяти лет - а всё как было, так и остаётся. Реальных железок за разумные деньги просто нет. Конкурировать с x86 некому.
ganzmavag
За десять лет есть заметные изменения. Посмотрите, во-первых, долю смартфонов (зеленая), где сплошной ARM. Во-вторых, MacBook на M-процессорах это уже довольно массовые устройства и по цене они не сильно отличаются от виндовых ноутбуков своей категории. Не назвал бы их "отдельными девайсами". У MacOS доля в России за это же время подросла в два раза, и большинство как раз с M-процессорами. Это довольно большая ниша. И это только начало, переход тормозят Windows и ее обратная совместимость, но и там уже в последнее время начали появляться устройства.
На десктопе, конечно, преимущества не так очевидны, если питание от сети. Но, с другой стороны, посмотрите как сам десктоп сжимается.
Fahrain
Давайте начнем с того, что не-арм смартфонов не существует. Просто потому что тем, кто мог бы их делать - не дают соответствующие процессоры. Вспомним, например, Intel Atom, который планировали использовать в Windows Phone - и где это всё? Даже планшеты на винде по сути уже вымерли как класс - и не потому, что спроса нет, а потому что процессоров для них просто не делают. Новых моделей Atom'ов вообще уже давно нет, а старые тормозили ещё тогда, когда они только вышли, на сегодня их производительность совершенно ужасна.
Ну и AMD в мобильном рынке вообще не участвует. Она даже ноутбуками особо не хочет заниматься - выходят буквально единицы устройств, да и те днем с огнем не найти в продаже.
При этом на десктопах и ноутах всё прямо противоположно: арм просто не используется в каких-то заметных объемах. И я каждый год читаю статьи вида "новая Windows теперь ещё лучше поддерживает арм!" и "Щас Samsung новый арм-процессор для Windows выпустит на десктопах!". Но ничего не меняется - ни процессоров нет, ни железок для них. А единственный доступный вариант - это MS Surface, который стоит как крыло от Боинга. При том, что реально массово нужны железки ценой <30к руб.
StjarnornasFred
Так-то оно так, но Ryzen 7840HS и его ИИ-клон 8845HS - объективно лучшие на сегодня процессоры для ноутбуков, с самой мощной в мире встроенной графикой (вполне себе игровое решение, кроме новейших ААА-игр), отличным теплопакетом и поддержкой памяти.
Fahrain
У АМД проблема не в мобильных процессорах, а в том, что устройства на них очень сложно найти и купить. Потому что в магазинах их просто нет - слишком мало их делают. И самих вариантов моделей тоже мало. Я неоднократно встречал вопросы об этом на том же Реддите, но ответов нет. АМД почему-то принципиально забивает на производство под рынок ноутбуков - и никто не знает, почему... В итоге - всё забито ноутами на Интел, у которых большие проблемы с температурой и автономностью на фоне АМД.
ifap
Нет свободных мощностей, на которых можно было бы выпустить больше мобильных чипов не в ущерб производству десктопных. Зачем ограничивать в корме курицу, несущую золотые яйца, ради второй курици, которая вероятно тоже будет их нести, но это не точно.
slonopotamus
Мы в каких-то разных мирах живём. Навалом ноутбуков с AMD
Fahrain
Выбор устройств на АМД просто маленький. Но даже из того, что есть не всегда можно выбрать то, что нужно. Какой-нибудь ноут на 16'' с Райзеном делает куча компаний https://www.eldorado.ru/c/noutbuki/f/amd-ryzen-7/diagonal-16-169/ а такие же, но на 17'' - уже в 3 раза меньше вариантов. При этом разрыв предложений с Интелами - в 2-3 раза.
Но всё это так, красивые циферки. Потому что как только начинаешь пытаться купить выбранное, то почему-то часто оказывается, что его просто нет в наличии и неизвестно когда будет. Приходится брать что-то другое, а не то, что хотелось.
opusmode
Их очень легко и просто и найти и купить уже лет 5 как. Вал устройств по доступным ценам. Я весной продавал ленову на 4600u, которую покупал в 2020, в локдаун и пик кризиса полупроводников.
Прямо сейчас у меня просто в подборке ДНС валяется ноутов 5, так как думаю, что маме пора поменять ноут. Как-то весной не решились, но вот сейчас приедет и куплю. И это ноут по доступной цене.
Плюс там лежит ещё с десяток, которые я думаю взять себе, вторым, после мака. Хотя, может возьму платформер, чисто для оинуксовой лабы.
Их делают дофига и купить их прямо сейчас не проблема, в диапазоне от 50к до 300к.
Alexsandr_SE
Как владелец Интела подтверждаю. При батарее в 50 ватт, тянет до 2 часов. В режиме экономии, если прикрутить экран 2.5-3часа. Все. На работе АМД тянут около 8 часов и это покупались не дорогие машины. Диагонали одинаковые и батареи отличаются на 5 ватт.
lovermann
Может, просто в рынках дело, и вы взяли какой-то один? Вот, наш самый большой продавец компуктеров в Чехии (alza):
А вот, полная картинка
Да, их меньше, но точно нельзя сказать, что их тяжелее найти и купить. Это модели, которые можно купить сейчас (не реселлер какой-нибудь).
Okeu
Да как забивают-то? Apple тогда вообще вручную под заказ штучно выпускает)
navion
Из крупных производителей только Dell игнорирует AMD, видимо мешают какие-то договорённости с Intel. Зато у Lenovo они на равных с 4000-й серии вышедшей 5 лет назад.
На десктопах доля ниже из-за недавнего появления интегрированной графики и более сырой управлялки (DASH вживую никто не видел).
opusmode
Извините, я вас поправлю, но объективно лучшие уже полгода как Ryzen AI 9 HX 375. Хотя, конечно, на традиционные 10-15%, да и по цене есть вопросы, но в чистом виде лидер сменился
Okeu
ну про пол года это вы преувеличили)
Tsimur_S
У мак устройств порядка 15% рынка. Вполне заметный объем.
Ну мечтать конечно не вредно, но хотеть новое устройство за $300 в 2024 это не шибко продуктивно.
Fahrain
Маки - это те же мобильники, вид сбоку. Полностью своя платформа, у которой отсутствует проблема с поддержкой старого софта (Эппл его вовремя обновляет). При этом ОС на любом другом железе вы запустить не сможете. Т.е. как это можно считать конкурентом универсального x86?
Ну да, я ж должен покупать Surface на арме за 200-400к руб) Это прям офигенная альтернатива ПК на x86...
slonopotamus
В смысле "отсутствует проблема"? На Apple Silicon у меня перестаёт работать 2/3 стимовой библиотеки.
Fahrain
Так стим - это не маковский софт же, им на него пофик. По сути, маки занимают узкую нишу, причем монопольную и альтернатив макам от эппла в ней не существует в природе. Это же не замена x86, как не крути.
slonopotamus
"На проблему кладется хер теми кто мог бы её решить" != проблема отсутствует.
GeXoGeN
Game Porting Toolkit попробуй, скорее всего с ней будет работать на 2/3 больше игр, чем на MacOS под Intel. Понятно, что это костыль, но он работает и работает хорошо.
Alien-agent
А еще лучше Whisky (приятный интерфейс для Wine+GPTK с автоматической установкой) + Heroic Launcher (Epic Games / Steam для маков с автоматическим запуском через whisky)
Tsimur_S
Ну так можно конечно получить любую долю, какая нравится. Если определять как захотелось.
Легко можно считать. Разрабатываю на нем и не вижу не решаемых проблем или где бы он был хуже чем х86. Ни одной задачи кроме игр.
Тут игровой на x86 конечно будет получше, но он будет подороже и сильно тяжелее, да и батарея явно не сравнится.
Да причем тут альтернатива. Вы никакую альтернативу в данном сегменте не найдете кроме Б/У, x86 или arm не важно. Либо ноунейм китаец + i3, либо не-ноунейм китаец lenovo + celeron. Хз что лучше.
Fahrain
Ну проблема маков в том, что их делает ровно одна компания. Сегодня она есть, завтра померла - и всё, маков не станет. x86 делает десяток разных компаний, даже если Интел завтра помрет - x86 будет жить дальше. Именно поэтому я считаю, что мак - не конкурент x86.
Ну и отношение игровых компаний к макам. Проблемы с маками же не только в видеокартах (которые для них лидеры рынка просто не делают), а и в самих играх, которые в маки попадают по остаточному принципу или если разработчику что-то в голову стукнет. Это какой-то странный "конкурент" (существующий десятки лет, не новичок!), на которого часть компаний просто принципиально забивает...
Никто и не говорил, что арм - хуже x86. Я говорил о том, что арм, по факту, не может заменить x86 еще и потому, что его или физически нет в продаже, или продается за совершенно неразумные деньги. Маки тут как раз наглядно это и демонстрируют, со своими бешенными ценами. И ладно маки - но Винда до сих пор занимает бОльшую часть рынка десктопов, при этом запускать на армах её просто негде, никаких арм-устройств нет в продаже за исключением Surface.
Ну лет 10-15 назад была куча виндовых планшетов на Atom'ах N-серии. Но Интел просто перестала делать такие процессоры - и весь класс устройств просто вымер. Отсюда и такие цены на то, что осталось... Я так же полагаю, что и смерть нетбуков формфактора Eее PС тоже с этими процессорами связана. Проблема не в низком спросе, а в полнейшем отсутствии в продаже вообще хоть каких-то устройств.
Tsimur_S
Так мак не может конкурентом х86 по определению, так же как и асус не может быть конкурентом ARM. Вчера они на х86 штамповали сегодня на arm. Довольно неплохой эксперимент, не будь его про арм на десктопах никто бы не заикался.
Хз, ценник довольно вменяемый. Ноутбуки сопоставимые по весу, мощности, материалу корпуса, экрану, батарее будут стоить столько же. Найти ноутбуки дороже тоже ни разу не проблема.
Мы как бы уже третий комментарий подряд говорим про арм-устройства, не являющиеся Surface.
Ну пихать планшеты в сегмент ноутбуков это смелый ход. Планшеты в целом отмирают как сегмент.
Зачем продавать нетбуки если можно продавать ультрабуки? Маржинальность выше. Самые маленькие ноутбуки не обязательно самые дешевые, как пример GPD 3. Вот и разгадка почему они отмирали.
А в сегменте супердешевизны есть хромбуки, они вытеснили все эти eee и прочее. Пользоваться этим конечно сомнительно но если уж нужно максимально дешево.
Fahrain
Я не считаю, что между Surface и Mac есть какое-то существенное отличие. И то и это - дорогие нишевые устройства "для элиты". В то же время главное преимущество ПК - широкий диапазон стоимости и вариантов конфигураций (чего арм лишен напрочь, там всё железо прибито гвоздиками ещё на заводе).
Т.е. с моей точки зрения, сейчас арм проигрывает x86 практически по всем:
нет поддержки самой распространенной ОС и нет поддержки старого софта этой ОС
толком нет вариантов железок, выбирать особо не из чего
а то, что есть - стоит значительно дороже x86
при этом зачастую или не отличается производительностью или заметно хуже. Редкие исключения (типа как с новыми процессорами на маках) - нишевые, работают не везде и не при вяских условиях
всё это в условиях закрытой платформы и закрытых необновляющихся драйверов (точнее, они обновляются только при покупке нового железа)
Грубо говоря, покупая арм я теряю больше, чем получаю.
Планшеты вполне себе живы. У них специфическая ниша, которую нечем заменить: телефоны маленькие, а ноутбуки неудобны. В принципе, ноутбуки с отстегивающимся экраном могли бы заменить планшеты, но при их цене - вообще без шансов. И опять-таки, про винду: существенная проблема планшетов в том, что на них хуже работает софт, заточенный под телефоны и при этом отсутствует старый софт с винды. Получается и ни туды и ни сюды...
Ну я и говорю, проблема в ценах. Мало кто купит микрокомпьютер-игрушку за 100к руб, зато точно такого же размера дешевый для работы/поездок - многие бы купили. Но таких больше нет.
Не знаю... Мне они кажутся скорее попыткой сделать "второй эппл" с макбуками. Какая-то сильно ограниченная платформа, жестко прибитая к одному производителю ОС. Ну т.е. опять-таки это всё не конкурент x86 в смысле массовости. Какую-то часть рынка оно, несомненно, откушало на себя, но...
Tsimur_S
Большая часть ноутбуков сейчас такие, вне зависимости арм или не арм.
1) Верно.
2) Верно.
3) Не верно.
4) Отличаются в лучшую сторону и довольно сильно. И в плане мощности и в плане батареи.
5) Верно.
Проблема в том что вы сводите два разных признака в один: ценник и форм-фактор. Производители давно смекнули это и начали окучивать ниши порознь.
Что бы одновременно оба признака совпадали то это хромбуки. Но вы от них нос воротите.
Nick0las
Видимо с вашим опытом использования ПК разница не заметна, но на мой взгляд, она огромна. Многие разработчики используют MAC как рабочую машину. Дизайнеры тоже. Со случаями разработки на Surface мне сталкиваться не приходилось. При этом если говорить о работе в фотошопе, или о мобильной разработке на DART или о каком-нибудь веб, то использование MAC это просто вопрос удобства и привычки. А вот для iOS разработки мак безальтернативен. Все упирается в вопрос на какой платформе работает то ПО с которым вам надо работать.
Fahrain
Ну там следующее же предложение обосновывало)
Проблема в маках не в том, что там арм - а в том, что стоят они очень дорого. Причем даже десктопы - тут маки вообще с x86 конкурировать по цене не смогут, ибо слабенький комп можно собрать за 40-60 тыс (можно и ещё дешевле, в приниципе).
Ну, логично - они ж не для этого.
Ну дык Эппл сделали всё, чтобы вы не могли разрабатывать вовне платформы. Когда там Safari под винду последний раз обновлялся? 15 лет уже прошло, не?
lilillion
Mac mini m2 от 60т стоит, можно и комфортно в дотку поиграть, и даже симс (и нативно и через эмулятор виски). Вроде даже вполне сносно в бг3, но это уже я не пробовал. Причему умещается это все чуть ли не в карман. Какие именно устройства от mac для вас не могут конкурировать с десктопами с х86?
vvzvlad
Вы какую-то ерунду несете. x86 компаний де-факто, две: интел и амд, остальные занимают очень узкие ниши вроде слабых процессоров для станков. Заменить условный i9 последних поколений можно аналогом от амд, и.. и все.
А вот мощные армы делает реально десяток компаний — от гугла и до китайцев. Оно менее стандартное, чем x86, но везде запускается линукс и переезд с одного производителя на другого зачастую не сложнее, чем с интела на амд. Зоопарк больше, да.
Fahrain
Топовых x86 - две. А так-то еще с десяток мелких есть, там процы, конечно, очень сильно похуже, но знамя они подхватят, если что. Плюс куча независимых производителей железа под платформу на все случаи жизни.
А вот без Эппла - макбуки станут просто электронным мусором. Потому что там железо делает Эппл, софт пишет Эппл, ОС пишет Эппл и драйвера пишет она же.
Но при этом вы сегодня можете купить широкий диапазон вариантов процессоров - включая старые поколения. А у Эппла поддержка старого отсутствует. Потому что "надо еще больше золота, милорд!", а не по техническим причинам. Т.е. там выбор только между "дорого", "очень дорого" и "старое, пора выкидывать".
Ага. Вот только это специализированное железо не для всех. Либо смартфоны/планшеты, либо спец.железо для датацентров. А вот аналог домашнего ПК - пока только у Эппла с макбуками. Нет тут борьбы между x86 и армами - армы на эту битву просто не пришли.
vvzvlad
Не подхватят. Там такой разрыв в производительности между ними и топовыми x86, что десяток лет уйдет. А армы уже сейчас по производительности конкурируют
Я не понимаю, почему вы закрытость платформы одного производителя пытаетесь аргументировать несостоятельность арм-процессоров? Ну вот у производителя телефонов Х наглухо закрытый бутлоадер, который не взломать. Это как-то ставит крест на арм-процессорах для телефонов? Нифига. Ну не поставляет эппл процессоры, не дает документации, даже запущенный линукс на них через кровь, боль и реверс-инжиниринг. Так и что? Это просто означает, что никто не рассматривает эппловские процессоры как базу для своего продукта.
Ну, сейчас да. Отрасль инерционна, софтовая поддержка плохая, все предпочитают снимать сливки с мобильных устройств и серверов.
Речь-то о том, что нет никакой причины, почему х86 не сдаст позиции армам через 2/5/10 лет. Если 10 лет назад это было очевидно — есть слабые процессоры для телефонов и есть нормальные для компов, то сейчас производительность сравнялась, в этом плане конкурентное преимущество исчезло.
Да не, скорее "очень дорого, последние поколения", "цена выше средней по рынку, но обновляться будет еще 2-4 года", "старье, годное только в некоторых случаях". Типа, сейчас pro m1 14 стоит в районе 70-100к, и это немногим дороже ноутов со сравнимыми характеристиками, а обновляться он будет еще года 3-4.
ValdikSS
О чём вы вообще, рынок завален ноутбуками, convertable и мини-ПК на N95/N97/N100. Ренессанс.
Еще Lenovo, Samsung. Меня несколько раз спрашивали про goodbyedpi под Windows ARM, а это софт с, может, 500 тысячами пользователей максимум. Это не гипотетическое пожелание, а люди на своих ARM-ноутбуках пытались запустить, и у них не заработало.
Grey83
Ну как бэ эти N95/N97/N100 производительнее (незначительно, видеоядро в 4 раза производительнее) моего i5-2500, работают на тех же частотах, имеют столько же ядер при TDP ниже в 8 раз. Разве что линий раза в 2 меньше (зато PCIe 3.0, а не 2.0).
ss-nopol
Проблема ARM в том что нет никакого стандарта на железную архитектуру, как в x86. Поэтому же и нельзя купить произвольный смартфон и накатить на него произвольный Android/Linux/etc. Вендоры допиливают ядро под каждое новое устройство вручную, в результате или нет апдейтов или они дорого стоят, нет универсального дистрибутива.
Сначала должна победить какая-то одна более-менее открытая архитектура, все начнут её штамповать, дистрибутивы ОС начнут её поддерживать. И вот тогда....
Tsimur_S
Вы случайно с IBM PC не путаете? Он немножко параллелен x86, в чем можно убедиться хотя бы на примере макинтошей. Причем тут ARM или x86?
ss-nopol
Возможно я неточно выразился, но надеюсь мысль понятна - ARM нужен более-менее универсальный железный интерфейс с ОС, чтобы можно было малой кровью добавлять поддержку новых устройств, как это происходит в мире x86.
Да, наверное какое-то подобие IBM PC, если хотите.
А то помимо телефонов без апдейтов, у нас появятся ещё ноуты, десктопы и сервера либо без апдейтов, либо с зашкаливающим ценником.
khajiit
Так для этого надо возвращать патчи в ядро, и все.UEFI уже пришел на ARM. Дело только и исключительно в собаке на
говнокодесене.ss-nopol
Я конечно в код не смотрел, но думаю вендорам тоже не радостно всё это самостоятельно тянуть. Если бы можно было просто послать патч, давно послали бы.
Grey83
Если про вендорские патчи под арм для ведроида, то это несколько лет как реализовано, емнип.
Только пользуется 1,5 землекопа (если вообще пользуется).
После реализации Project Treble (лет 7 назад, с появлением А8 Oreo) стало можно обновлять прошивку частично.
https://android-developers.googleblog.com/2017/05/here-comes-treble-modular-base-for.html
И вообще:
khajiit
Пока надежда только на Snapdragon X, и не потому что Qualcom такие лапочки или одумались, а потому что Lenovo настояла
kryvichh
Так Qualcomm'у ARM начала кое-что выкручивать, а то не хотят делится своей долей доходов с отцами архитектуры.
khajiit
О как, спасибо )
sena
При чём тут вообще производители? Если бы апдейты Виндос или Линукс сначала шли производителям компьютеров, то у нас бы была бы такая же катастрофа и в мире x86.
khajiit
А они и не тянут, бросают.
В итоге обновить ядро становится невозможно.
sena
Ну вот, как решат проблему, у ARM появится шанс.
vkni
Ну это социальная проблема, которая вполне может не решаться вообще десятилетиями. А может и в принципе не решаться. В конце-концов, IBM PC, он такой один - других открытых экосистема как-то даже особо не появилось.
С теоретико-игровой точки зрения, каждому мелкому производителю выгодно выпускать "кубик-рубик-монолит". Поэтому появление PC - это, скорее, чудо, связанное с тогдашними привычками IBM, чем закономерность.
ValdikSS
https://en.wikipedia.org/wiki/Server_Base_System_Architecture
Вы путаете причину со следствием.
В x86-мире процессоры делаются преимущественно для десктопов/лаптопов на Windows и серверов на Linux. Производитель процессоров пишет драйверы для этих ОС, добивается их интеграции в дистрибутивы (в Ubuntu есть отдельные OEM-ядра от каждого крупного производителя), удостоверяется, что вся периферия чипсета, совместимого с процессором, работает должным образом. И в случае с Windows, и в случае с Linux, производитель может разработать и поставлять драйверы независимо от Microsoft, ядра Linux и разработчиков дистрибутивов, но это менее удобно и ему, и конечным потребителям, особенно в Linux: добавив поддержку своего железа в ядро официально, все новые изменения, приходящие от сторонних людей, должны быть совместимы с уже существующим кодом, и ответственность обеспечить совместимость нового кода лежит на том, кто его добавляет.
В случае с ARM-процессоры для смартфонов разрабатываются… для смартфонов. Google поставляет модифицированное ядро Linux, определённой версии, со своими патчами под Android, и производитель добавляет поддержку своего железа в эту версию.
Только Google, в отличие от людей, разрабатывающих ядро Linux, не осуществляет поддержку дополнительного кода. Переложить задачу на обеспечение совместимости вашего текущего кода с более новыми версиями Android-ядра не на кого. Вышла новая версия Android, требующая новой версии ядра? Будь добр, производитель процессоров, адаптируй свой референсный код и под ядро, и под Android.
Для процессоров, спроектированных под смартфоны, задачи обеспечения совместимости с Windows и Linux не ставится — они создаются не под эти задачи.
В случае с ARM-процессорами для серверов задача ставится точно такая же, как и в случае x86-процессоров. Байкал, Huawei Taishan, Amazon Graviton — все загружают обычные ubuntu iso arm64 с официального сайта через UEFI с флешки, процесс с точки зрения пользователя от x86 не отличается.
M_AJ
Ну так производители SOCов редко когда что выкложат в открытый доступ. Даже если бы кто-то захотел помочь с поддержкой, он просто не сможет эти спокойно заняться.
sena
Почему так? Почему модификации от Гугла не попадают в основную ветку?
А что мешает использовать серверную архитектуру (или её усечённую производную) в телефоне?
Или почему не создали подобную архитектуру для смартфонов?
В общем, если архитектура для ARM подобная PC получит распространение, это действительно может подорвать господство x86
ValdikSS
Google (как и Microsoft) требует от производителя процессоров соблюдения определённых требований платформы, в частности, в плане безопасности.
Android поставляется с собственной эталонной реализацией всех этапов загрузки: littlekernel, fastboot, стандартов доверенной загрузки, разблокировки загрузчика, и т.п, и не требует поддержки ACPI. Производителю процессоров достаточно взять существующий код и добавить поддержку своего SoC.
UEFI-загрузка (и ACPI) приниципиально поддерживается, но реализации для неё нет. Производителю процессоров потребуется взять сторонний UEFI (открытый код TianoCore / лицензировать у Phoenix/AMI/кто там еще), написать сложный код ACPI (в котором ошибается даже Intel) вместо простого описания компонентов в DeviceTree, собственными силами напрограммировать и отладить все этапы загрузки, чтобы соответствовать требованиям платформы.
Если производитель наперёд знает, что чип будет использоваться только в смартфонах, ТВ-приставках и другом оборудовании на Android, нет никакого смысла идти против эталонных рекомендаций — это привнесёт ошибки, уязвимости, усложнит и удорожит разработку, с абсолютно нулевой разницей для конечного потребителя (а скорее всего, даже замедлит включение телефона из-за сложности UEFI).
Так как Windows on ARM требует UEFI+ACPI, последние процессоры от Qualcomm используют UEFI уже и на телефонах. Только ACPI-код заточен под Windows и никем не тестировался на Linux, он и не работает. Qualcomm работает над поддержкой Linux для самых свежих WoA-процессоров, но даже текущий roadmap содержит UEFI+DT, а не ACPI.
Только что нашел совсем свежую презентацию (сентябрь 2024) разработчика из Google, который описывает реализацию Android Generic Boot Loader поверх UEFI. Видимо, работы над этим ведутся.
ValdikSS
Потому что ядро Android использует собственные подсистемы, отсутствующие в Linux, и не нужные в мейнлайне. Ранее также были особые оптимизации конкретно под телефоны, сейчас уже не уверен. Многое, что было полезно и можно было перенести в Linux, перенесли.
https://source.android.com/docs/core/architecture/kernel/android-common
sena
Здесь не совсем понятно. Кому не нужные? Андроид используется по всему миру. В ядре есть прекрасная система модулей, всё "ненужное" можно вынести в модуль и отключить.
ValdikSS
Потому что Android это операционная система для бытовых приборов, а не персональных компьютеров. В бытовом приборе у пользователя нет возможности ни переустановить ОС, ни изменить низкоуровневые компоненты, ни заменить одну деталь на другую.
Операционные системы для персональных компьютеров поставляются сторонними организациями, не относящимися к сборщику компьютера, поставщику материнской платы или процессора. Все производители компонентов должны написать драйверы под Windows, сертифицировать их у Microsoft электронной подписью, и удостовериться, что их устройство нормально работает, в идеале на любом компьютере. Вы, пользователь, покупаете копию операционной системы у компании.
Операционная система для бытового прибора идёт в составе прибора и поставляется производителем прибора. Производителю электронных компонентов не нужно связываться с создателями операционных систем, он пишет драйвер для Linux и передаёт его заинтересованному производителю прибора напрямую (а иногда поставляет только железо, и драйвер необходимо сделать производителю прибора).
sena
Это весьма условное деление. И хотя пользователю действительно редко нужно заменить компоненты смартфона на альтернативные, то вот уже переустановка и обновление ОС - вполне логичное и востребованное действие.
Особенно востребованное для многочисленных китайских смартфонов, для которых обновления не выходят никогда.
saboteur_kiev
Нет, переустановка и обновление ОС на телефонах обычно менеджится производителем телефона, а не пользователем.
Именно производитель говорит на каких телефонах до какой версии можно обновиться, какие патчи ставить.
Пользователю не доступно администрирование телефона, и Jailbreak это нештатная операция.
ss-nopol
Да, об этом и речь. Эта схема не работает, телефоны не обновляются. Кто виноват в этом больше, ARM, Гугл, производители SOC или собиратели смартфонов я не знаю. Скорее всего все вместе.
vkni
Идеология виновата, как прекрасно расписал комментатор выше. У холодильника прошивка тоже ведь принципиально не обновляется (за некоторыми исключениями).
vkni
Именно. Сюда же можно подключить Apple с его стремлением и относительными успехами сделать из универсального компьютера бытовой прибор. Хотя, конечно, лучше всего получилось именно с iPad и iPhone.
Einherjar
Почему нет? В случае когда задачи выполняет все те же и ничем не хуже, то пользователю на какую то там "универсальность х86" глубоко пофиг
ss-nopol
Ага, помимо телефонов без апдейтов, получим десктопы, ноуты и сервера без апдейтов. Пользователям конечно пофиг, но не до такой степени.
Einherjar
Каких апдейтов вам нехватает?
PanDubls
На DNS в разделе "ноутбуки с процессором AMD" 211 позиций, против 595 "ноутбуки с процессором Intel". 25% предложений -- не похоже на "вообще не найдешь", или я не то смотрю?
Fahrain
Ну так я и говорю же - выбор на АМД изначально меньше. И из того, что есть - часть компаний-производителей вообще отсутствует (просто не делают и всё), а у части - вариативность меньше, чем на Интелах.
И я уже упоминал - помимо названий моделей, надо и на наличие смотреть. Потому что куча всякого ноутбучного на АМД запускается только на бумаге. Его невозможно купить, потому что этого просто нет в наличии в магазинах - не только у нас, а вообще в целом по миру. Я периодически амдшный реддит читаю, так там регулярно ноют на эту тему и американцы, и европейцы - особенно, когда на волне хайпа/маркетинга хотят какой-нибудь разрекламированный мобильный процессор конкретной модели что бы был в девайсе.
Okeu
Мне кажется это не так. Тоже самое, утрируя, я могу сказать про интел - они до сих пор продают ноутбуки на 5-ти летних пентиумах и целеронах, да и 8250U в продаже до сих пор распродаются. АМД меньше представлены на рынке ровно в той же пропорции, какую общую долю рынка они отхватили, и от года к году их все больше.
Но можно смотреть и с другой стороны:
Лучшая встроенная графика для портативных систем за ними - люди скупают ультрабуки на встройках АМД - поэтому их завозить не успевают, раскупают как горячие пирожки. А интелом завалены полки и он никому не нужен. (это не совсем так, но ради абсурда представим, что так)
Наличие товара на полках - не всегда показатель его успешности/массовости/востребованности)
mx-yh
Да нормально с RISC процессорами для десктопов. Китай давно и массово производит свои компьютеры на RISC под свою операционную систему на базе линукса. И уже много лет как он избавляются от x86 в любом виде. При чем эти компьютеры и процессоры запрещены к вывозу из Китая. Это не супер производительные компьютеры, а как раз массовые рабочие компьютеры для обычных офисных задач.
x86 в мобильных устройствах нет по вполне определенным причинам, ты не захочешь иметь телефон который разряжает батарею в два раза быстрей. и причина этого в самой архитектуре x86
mx-yh
Берете TV-приставку за 10к -- 15к, ставите на нее линкус и вот обычный офисный компьютер. x86 актуален только для виндовс. Вот и RISC дешевле 30к рублей.
opusmode
AMD не присутствует на рынке смартфонов, но на рынке мобильных устройств очень даже. Ноутбуков выходит регулярно и много. Более того, выходят новые процы. И в этом году вышли.
А если вспомнить, что Steam Deck на AMD
Что касается ноутов - ну, небыло ниши для ARM, а старые процы просто не вывозили нагрузки. Вот, вышли первые снапдрагоны и они вполне. ДА, они только в дорогих устройствах, но многие с этого начинали. ДА, нужно ещё много шагов. Это Apple может позволить себе резкий мув, а остальные не могут, так как им надо дружить весь зоопарк устройств.
Как бы, пара лет, дойдут и до массового сегмента. Правда вряд-ли войдут в сегмент ниже 30к рублей - сейчас, по сути, нет устройств, дешевле 300 баксов, а массовый сегмент это 600-1000 баксов.
Okeu
я бы на примере стимдека сразу весь класс подобных девайсов отметил. Стимдек причем на кастомном APU, а есть еще куча других "ноутбуков в форм-факторе консоли" на обычных ноутбучных APU, и интел среди них сливает со своей Xe встройкой
uups
Вот бы qualcomm x elite придумали... Я не говорю хороший он или плохой, но ноутбуков на нем чуть ли не больше чем на Ryzen. По крайней мере у некоторых интересных моделей версия на qualcomm есть, а на ryzen нет...
А чего не 3к руб? Ноутбуков за рубли как-то вообще не густо делают, ноутбуки за 300 баксов или 2000 юаней конечно существуют, и наверно даже популярны в каких-то не очень богатых странах. Проблема в том, что на передовое современное железо в таких устройствах рассчитывать не приходится. Ну и производитель с них не очень зарабатывает. Вообщем такая нишевая история.
khajiit
У одних только Thinkpad: x220 Tablet, три поколения X1 Tablet, X12 Detachable, два поколения X1 Fold.
Прямо сейчас у каджита Dere T60 от китайцев, и всякоразных виндопланшетов у них — хоть попой ешь.
Впрочем, винда планшету действительно не нужна.
vikarti
Huawei Matebook E Go - гдето 60-70к руб, на арме
Okeu
Магазины завалены ноутбуками, неттопами и моноблоками на мобильных APU от AMD. Портативные консоли туда же.
С выходом маков на АРМ - все остальные intel-based маки перестали существовать. Эпл крайне удачно, вовремя и сразу с двух ног ворвались со своими АРМ ноутами.
Snapdragon X Elite выкатились сильно менее удачно, но я думаю они не остановятся на этом, и через пол годика мы увидим работу над ошибками
что-то мне подсказывает, что смартфон на АРМ за <30к руб. разорвет в клочья х86 железку <30к руб =)
mydigitalhabb
Топовый Samsung в виде FE серии, который можно найти за ~30тр, совсем не разрывает старый добрый комплект 6-20 ядерный Xeon за 5тр, включая матплату, проц и память.
Okeu
они разные, один из них на снапдрагоне, второй на эксиносе - у них большая разница)
вы еще видеокарту забыли, коли про зион упомянули. Да и в целом - выше речь шла про ноутбуки и портативные девайсы - покажете мне такой на 20 ядерном зионе с дискретной графикой, чтоб в геншин поиграть можно было?)
Tsimur_S
А так же видюху, ssd, корпус, блок питания, экран и средства ввода.
theult
Десктоп не так уж и сжимается - больше растет количество смартфонов, поэтому новости, реклама, мессенджеры будут подобные метрики выдавать. Если "прикинуть" подобные метрики для гитлаба, стима, ексель-ворда и прочего, тот там арма будет крайне мало, это просто неудобно. Десктоп всегда был для работы и для игр, сёрфить уже не так принципиально с какого устройства. Сменить платформу - значит сменить весь софт: невозможно адекватно эмулировать х86/x64 на арме, ядро гораздо сложнее и поддерживаемых инструкций на порядок больше - все это при эмуляции будет отжирать много процессорного времени. Сделать больше ядер с худшей производительностью на ядро - посмотрите старые ксеноны с Али. Со своими 24 потоками они рядом не стоят с 8 поточными ряженками.
saboteur_kiev
Обладая огромным преимуществом в финансах, Интел могла бы все направления развивать и смотреть как оно пойдет. Не клади все яйца в одну корзину знает любой грамотный менеджер.
stanislavshwartsman
Просто чтобы закрыть отставание от tsmc нужно столько бабла, что даже пришлось кофе в офисах забрать((((
aystarik
Итаниум это скорее одна из ошибок... iAPX432, i860 схлопнулись так же красиво...