Представьте, что вы купили видеокарту с 8 ГБ VRAM, а через год игры или иференсы модели стали требовать 32 ГБ. Не проще ли было бы докупить модуль памяти, как с оперативкой? Увы, это невозможно. Почему же производители десятилетиями игнорируют модульность видеопамяти? Давайте разбираться.


image


VRAM vs RAM: в чём принципиальная разница?


Оперативная память (RAM) и видеопамять (VRAM) решают разные задачи.


  • RAM работает с CPU: она обрабатывает множество мелких запросов с низкой задержкой.
  • VRAM «кормит» GPU: графический процессор требует огромных объёмов данных (текстуры, шейдеры) с колоссальной скоростью.

Это как сравнить водопроводную трубу (RAM) и пожарный гидрант (VRAM). Первая универсальна, второй — узкоспециализирован.




Технические ограничения: почему нельзя просто добавить воды слоты?


1. Пропускная способность и шина данных


Современная GDDR6-память в видеокартах передаёт данные со скоростью до 1 ТБ/с (например, RTX 4090). Для этого используется широкий канал (256–384 бит), соединяющий GPU с распаянными чипами памяти.


Если бы память была модульной:


  • Увеличилась бы длина проводников → выросли задержки.
  • Контроллер памяти в GPU не смог бы гибко подстраиваться под разные конфигурации.

Пример: Даже DDR5 с её 64-битной шиной даёт лишь ~50 ГБ/с. Этого катастрофически мало для GPU.


2. Тепловыделение и компактность


Чипы VRAM расположены вплотную к GPU и охлаждаются общей системой. Модули пришлось бы размещать дальше, что:


  • Увеличило бы размер платы.
  • Усложнило теплоотвод (чипы GDDR6 нагреваются до 90–100°C).

Итог: Модульность убила бы компактность и эффективность охлаждения.




Почему это не изменилось с 1990-х?


В 90-х некоторые видеокарты (например, ATI All-in-Wonder) имели слоты для расширения VRAM. Но технология умерла, и вот почему:


  1. Рост интегрированных решений: Производители поняли, что распайка памяти даёт больший контроль над производительностью.
  2. Стандартизация провалилась: Каждый бренд пытался продвигать свой слот, что запутало пользователей.
  3. Экономическая выгода: Производителям выгоднее продавать новые модели, чем позволять апгрейдить старые.



Современные реалии: HBM и тупик модульности


Технология HBM (High Bandwidth Memory) — это вершина эволюции VRAM. Чипы памяти размещаются вертикально на интерпозере рядом с GPU, что обеспечивает:


  • Скорость до 3 ТБ/с (HBM3).
  • Крайне короткие проводники для минимизации задержек.

Но HBM ещё менее совместим с модульностью, чем GDDR. Его нельзя заменить — только распаять на этапе производства.




Альтернативы: как обходятся без модулей?


  1. Облачные GPU (NVIDIA A100, H100): Аренда карт с 80+ ГБ памяти через сервисы вроде AWS.
  2. Распределённые вычисления: Разделение модели между несколькими GPU (например, через NVLink).
  3. Оптимизации:
    • Квантизация (сжатие весов нейросетей до 4 бит).
    • Градиентный чекпоинтинг (экономия памяти при обучении моделей).



Будущее: есть ли шанс у модульной VRAM?


Скорее нет. Тренды указывают на:


  • Ужесточение интеграции: Чиплетные дизайны (как у Ryzen) и 3D-упаковка (как в HBM).
  • Рост специализации: ИИ-ускорители (например, TPU от Google) вообще отказываются от классической VRAM.
  • Экономическое сопротивление: NVIDIA и AMD не заинтересованы в снижении продаж новых GPU.



Заключение


Модульная VRAM — это «святой Грааль» для энтузиастов, но технически она почти нереализуема. Даже если инженеры преодолеют аппаратные ограничения, рыночные законы похоронят идею. Пока единственный выход — покупать видеокарты с запасом памяти или переходить в облака.

Комментарии (136)


  1. gmtd
    18.02.2025 06:13

    Форматирование статьи явно указывает на чат-бот

    Хотя информация интересная


    1. mikhashev Автор
      18.02.2025 06:13

      Да, форматирование в markdown помогал делать deepseek. Собственно поднимая локально на старом железе разные инференсы и возник вопрос про модульную память.


      1. vikarti
        18.02.2025 06:13

        Ну вообщем то - есть ж EPYC'и и прочие Threadripper'ы с 8-12 каналов - и спокойно получается уже скорости шины памяти 4060 но вот только да - да - оно занимает больше места и контроллер памяти должен учитывать такое. Другое дело что размеры и цена таких платформ...


        1. Rezzet
          18.02.2025 06:13

          Модульную память на видеокарте сделать не проблема, есть же CAMM2, а скорость передачи решается количеством каналов.

          Но у меня другой вопрос, почему видео чип не стал еще одним сопроцессором. Два сокета на материнской плате, один под процессор, другой под видео чип. Ну да о чем я кто же тогда будет покупать новое, если можно просто поменять часть в старом.

          Основная причина не техническая, а "Производителям выгоднее продавать новые модели, чем позволять апгрейдить старые."


          1. Spyman
            18.02.2025 06:13

            Как думаете вы - "захотел поменять видеокарту, заменил только 1 чип", как это было бы на самом деле - "захотел поменять на видеокарту поколение в плюс - нужно заменить материнку и процессор")) и веселье уровня - на материнке с 6 фазами питания карты выше XX60 не запускаются, а с 12 стоят в 2 раза дороже - и думай, переплатить под запас или недоплатить, но ограничить выбор)


            1. Rezzet
              18.02.2025 06:13

              Это все исходит от производителя. АМД показала что сокет может долго существовать на примере АМ4 под который до сих пор выходят новые процессоры. Лично я воспользовался их аттракционном невиданной щедрости и комп собранный в 2019 году на процессоре 2700х апнул до 5950х. Без замены материнской платы, памяти или иного, просто купив вышедший на три года позже процессор, увеличив в двое количество ядер, о чем даже мечтать не мог когда собирал комп т.к. пределом по количеству ядер для АМ4 в рамках 2ххх серии было 8-мь ядер. В то же время был момент времени когда Интел в каждом новом поколение процессоров убирало и добавляло 1 пин в сокет. Фактически под АМ4 вышло четыре поколения процессоров. Когда такое было?

              Логика рассуждения такая: 1) общая память под процессор и видеоядро это архитектурно более правильное решение, приставки, телефоны и даже ноутбуки(макбуки и процессоры серии Ryzen 9 AI) и даже десктопы (мак мини и мини ПК) такую схему используют. Причем перф я бы не сказал что там слабый, уровень средне бюджетных видеокарт примерно. То есть не дохлая встройка что бы было. 2) почему бы не сделать тогда два сокета под такие процессоры. 3) почему бы не сделать "процессор" состоящий из одного только видео ядра отдав весь транзисторный бюджет только под видео ядро.

              Конечно это мечты, но представьте мир где у вас есть два сокета и вы можете выбирать между процессора с 6-16 ядрами и 16-60 видео ядер. Сиди собирай себе конфигурацию под свои задачи и нужды. Хочешь играть - все в видео ядра (или нейросети гонять). Хочешь БД и виртуалки вертеть все в процессорные. И память 4-8 каналов. Мечты-мечты. И что бы стоило не как текущий HEDT.

              Кстати пишут что у топовых Threadripper скорость выше 700 Гб/с что как бы совсем не мало, почти как у 4090(у райзена на 30% меньше, но все равно очень много)

              Я думал несколько раз собрать себе рабочий компьютер на Threadripper может не топовом, а что-то типа 32-х ядер, останавливает непонятность относительно сокета, на мой взгляд когда отдаешь больше $5k денег за "профессиональное" железо его срок службы должен быть побольше чем у процов за 300 баксов. Но в итоге домашние процессоры могут спокойно жить на одном сокете 5 лет, и три четыре поколения процессоров, а "профессиональные" меняют сокет каждое поколение.


              1. DMGarikk
                18.02.2025 06:13

                Фактически под АМ4 вышло четыре поколения процессоров. Когда такое было?

                я застал кусок времен когда был Socket7 и в него можно было втыкать AMD, Intel и Cyrix


                1. vitalyvitaly
                  18.02.2025 06:13

                  На Socket 7 (и по-моему, даже на Socket 5) из ходовых бюджетных процессоров можно было еще IDT WinChip поставить, хотя он был слегка убог, но тем не менее, очень бюджетен. Более экзотические варианты типа Rise MP6 не видел, но они были прописаны в тогдашних BIOS-ах.

                  Апгрейдил на плате с чипсетом MVP3 процессор AMDk5-75 (шина 50 мегагерц с уже не указанным в документации положении перемычек, но тем не менее оно там было и этот процессор мог на ней работать) - сразу на AMD k6-2+ 450, который программной утилитой мог запускаться на частоте 550 - таким образом, прыжок в тактовой частоте получался примерно восьмикратный.


              1. khajiit
                18.02.2025 06:13

                Эти мечты разобьются о страшное слово ПИТАНИЕ.
                Два двадцатифазных питальника выведут типичную мамку с $200 до $700.
                Куча разъемов под память добавит к этому еще $500
                Переходные механические элементы ограничат производительность
                А еще они будут гореть


                1. Rezzet
                  18.02.2025 06:13

                  Можно так же делать платы с одним сокетом и вставлять в них процессоры типа AI 300. Там все сбалансировано по перфу процессорной и видео части. Даже если будет все как вы говорите это не проблема, я не ожидаю что это будет стоить дешево, топовое железо дешево не стоит. Я ожидаю что это сделает доступным конфигурации с 256-512 общей памяти и какого-то вменяемого перфа в силу наличия видеоядра. Потому что сейчас для запуска инференса полных моделей нужно 8хA100 ценой по $10k каждая. И пол терабайта памяти. Из более менее доступного на чем можно запустить инференс DeepSeek R1 полной версии это Threadripper туда хотя бы можно поставить такой объем памяти, но т.к. это будет исключительно на CPU вертеться то скорость будет 3-5 слов в секунду. Что бы запустить еще туда сюда, обучать без шансов с таким перфом. Бюджет такого решение примерно 8к вечнозеленых.

                  На пользовательских компах запустить инференс полных версий моделей невозможно. Самые продвинутые матери под АМ5 сокет имеют лимит 256Гб оперативы. И даже его вы скорее всего не наберете потому что нужны cu dimm модули, а они не продаются.

                  RTX 5090 стоит 3к баксов, ее же кто-то покупает, скажем так, я ее скорее всего куплю, как купил 4090, когда вот надо локально вертеть сетки - шансов нет ее не купить. Я бы и две купил, был бы от этого профит не по перфу а по капасити памяти. Причем малый объем памяти является более сильным ограничивающим фактором чем перф. Перфа мне хватает и у 4090. Мне памяти не хватает и не хватит у 5090. В облаках то же не вариант, там такие цены что пипец(ну или я не знаю куда смотреть).


                  1. Spyman
                    18.02.2025 06:13

                    я не ожидаю что это будет стоить дешево, топовое железо дешево не стоит. Я ожидаю что это сделает доступным конфигурации с 256-512 общей памяти и какого-то вменяемого перфа в силу наличия видеоядра. Потому что сейчас для запуска инференса полных моделей нужно 8хA100 ценой по $10k каждая.

                    Я вижу у вас тут противоречие. Вы не ожидаете что топовое специализированное железо в экзотической конфируации будет стоить дешево, но ожидаете что будет стоить дешево доступно)) ну как бы оно доступно, вы же сами и написали что нужно 8хА100 и threadripper))

                    Скорее всего ускорители которые вы хотите кто-нибудь подвезет со временем, идея лежит на поверхности и потребности у рынка есть, просто нужно чутка подождать - сначала все тоже майнили на gpu а потом перешли на асики)


                    1. Rezzet
                      18.02.2025 06:13

                      Противоречие нет, не стоить дешево, это до 10к баксов, а 8хА100 - это 100к баксов. Могу представить себе профильный инструмент для энтузиаста в цену автомобиля, ну к примеру там станки в гаражных мастерских суммарно так стоят, или таксист чисто для работы машину покупает. Это еще хоть как-то в голове укладывается. Но вот профильный инструмент в цену квартиры это уже перебор.


                      1. Spyman
                        18.02.2025 06:13

                        Ну на текущем этапе развития - железо для энтузиастов - 5090 x 2, и запускайте квантованные модели в свою удовольствие, а запускать полновесную модель - это уже как-то не про энтузиастов)


                  1. HellQwer
                    18.02.2025 06:13

                    На радеоны нет популярных версий нейронок? Вроде, были подвижки.


                  1. melodictsk
                    18.02.2025 06:13

                    Ровно такая же ситуация. Буду брать 5090 исключительно из-за 32 гб врам. Хотя может лучше собрать на паре 3090.


                    1. bezdnacom
                      18.02.2025 06:13

                      Побойтесь куртки Хуанга, 5090 как и младшей 5080 не существует в магазинах


              1. Spyman
                18.02.2025 06:13

                Не, долго пытался представить идеальный мир которые вы предлагаете. Встречное предложение - видеокарта должна собираться как отдельный пк - из компонентов - чип, плата, память, охлаждение, подсистема питания.
                Тогда верю что это могло бы иметь практическую ценность - купил новый чип и память, снял поменял, а охлад и плату старую оставил - правда рентабельность такого подхода уже вызывает сомнения - собрать монолитную модель может быть в цену дешевле на стоимость переиспользуемых компонентов, при условии добавления разъемов, интерфейсов, теплораспределительных крышек, сокетов и прочей лабуды. А 4 поколения в am4 - это последствия того, что вопервых там уже скорее не процессор а soc - где куча всего вынесена в сам кристалл, и того, что на рынке процессоров начался застой.

                Распайка всей обвязки видеокарты на обычной материнской палте и все вот эти - два сокета - вот в это не верю. Это значит что сегмент пк без отдельного гпу - сразу становится закрытым для расширения (сейчас вполне реально купить пк с апу, а потом докопить и купить гпу - я знаю людей которые так делали), делает материнки сильно дороже, и вынуждает либо сильно переплатить, либо быть запертым в рамках потребления, tdp и параметров памяти. И добавляет вендорлок - если не произодйет чуда, и гпу не станут совместимы как по обвязке так и по сокету)


                Ну и скорее всего эти свистоперделки ударят по производительности


              1. VADemon
                18.02.2025 06:13

                общая память под процессор и видеоядро это архитектурно более правильное решение

                Сомнительно, потому что всплывает проблема раздельного доступа и синхронизации данных между двумя равноправными устройствами R/W.


                1. CrashLogger
                  18.02.2025 06:13

                  Зато исчезает необходимость гонять данные по шине из основной памяти в видеокарту.


                  1. VADemon
                    18.02.2025 06:13

                    Но гоняются данные между CPU-GPU для синхронизации кэша, если нет какого-то режима эксклюзивного доступа к заданной области памяти.


                1. Rezzet
                  18.02.2025 06:13

                  С процессорными ядрами как-то эту проблему решают вплоть до того что есть параллельные версии qsort и других алгоритмов. Было время когда АМД активно пиарила такое слияние под названием Fusion, сейчас это называется APU.

                  Просто посмотрите вокруг, везде где не требуется следовать стандарту IBM PC делают видеоядра с общей памятью с CPU, причем показательным в этом игровые приставки, вот уже где строго следуют правилу максимум перфа за минимум денег.


                  1. VADemon
                    18.02.2025 06:13

                    Я этого не отрицаю, но это не умаляет этой проблемы. В отличии от "дискретных" чипов, APU согласует доступ внутри одного чипа, со своими только контроллерами памяти. Для разных чипов потребуется шина для коммуникации.

                    Еще по-моему никто параллель в интернете не проводил... побуду первым (почти. раз-два. это всё.), но наработки Infinity Fabric похоже были выкуплены вместе с компанией, которая объединяла десятки Атомов в серверный кластер. Раз, два, три: "a 10U chassis crammed with 512 single-core Atom servers"

                    пиарила такое слияние под названием Fusion, сейчас это называется APU

                    AdoredTV делал разбор именно этого пункта, когда маркетинг встрепянулся и подводили итоги. Его заключение -- маркетологи усиленно натягивали сову на глобус, чтобы добиться чисел обещанных многие годы до этого. Имхо, с прикладной точки зрения никакого Fusion не произошло. OpenCL как был нишевым решением для большинства "обычных" программ, так и остался.


                    1. Rezzet
                      18.02.2025 06:13

                      Для разных чипов потребуется шина для коммуникации

                      А разве ее сейчас нет для коммуникации между разными ядрами CPU?

                      Имхо, с прикладной точки зрения никакого Fusion не произошло.

                      Такое чувство что произошло, но не в ПК, а в консолях, в PS5 стоит GDDR6 c какой-то огромной пропускной способностью 448 GB/s. Я к сожалению не знаю про их АПИ много и могу ошибиться, но там какие-то дополнительные возможности есть относительно тех APU что ставят в ПК.

                      Сегодня начали выходить обзоры Ryzen AI 300 Max, уровень производительности между 4060-4070. Зависит от энергопакета. Что не понравилось - никакой унифицированной памяти там все так же нет, просто видеокарта себе отбирает какой-то объем. Что отличается от PS5 и Apple M процессоров. И еще интересно участие Apple M4 Max в сравнение и его выдающиеся результаты. Складывается чувство глядя на плойки и макбуки что технологическая возможность реализовать общую быструю память у CPU и GPU есть но что Интел что АМД упорно не хотят этого делать в ПК. Ждут пока им дрын в пятую точку нвидиа вставит со своими будущими процессорами(GB10 Grace Blackwell)?


                      1. DMGarikk
                        18.02.2025 06:13

                        У меня предположение что отличие GDDR от DDR в том что такая адская пропускная способность там доступна только для какихто строго определенных кейсов широко используемых только для нужд видеоускорителя, в остальном кмк она будет работать не быстрее обычной памяти


                      1. VADemon
                        18.02.2025 06:13

                        А разве ее сейчас нет для коммуникации между разными ядрами CPU?

                        Есть, но в том и разница, что внутри чипа, меньшими задержками и энергопотреблением. Повторюсь, я ничего не отрицаю.

                        Ryzen AI 300 Max, уровень производительности между 4060-4070. Зависит от энергопакета

                        Классный чип, только цена останется запредельной? А жрет оно больше, чем в моем ноуте Ryzen 7 5800H + RX 6600M. Оттуда и производительность :]

                        Что не понравилось - никакой унифицированной памяти там все так же нет

                        Думаю, Intel/AMD/nVidia к этому должны будут придти. В PS5 вряд ли есть что-то сверхособенное, кроме аналога DirectStorage от MS. Просто контроллер памяти другой? Опять же, AdoredTV озвучивал мысль, что AMD могла бы поставлять разные контроллеры памяти лишь путем замены I/O die, но этого даже на горизонте (утечки) не видно.


                      1. Rezzet
                        18.02.2025 06:13

                        Думаю, Intel/AMD/nVidia к этому должны будут придти.

                        То же так думаю, потому что сейчас выглядит странно, хочешь большую сетку, ок что можно купить, мак мини, ок 64 Гб общей памяти за $2k( не знаю поддерживает ли сейчас PyTorch, Tensorflow, olama, lmstudio и прочие исполнение на апловском железе, но вроде ничего не мешает, железо может, вопрос в поддержке АПИ и прочем). Ок что мы можем купить за $2k под виндовс/линукс 4090 наверно можем или через время сможем, всего 24Гб. Возникают вопросики. Но представим что АМД выходит как рыцарь в белых доспехах и говорит: все, о чем мы так много говорили свершилось, Ryzen AI 400S MAX ULTRA PLUS GT XTX теперь у вас унифицированная память как у М4. Ок возьмем текущий максимальный размер возможной оперативки под х870 - 256Гб, звучит шикарно, можно реально запускать большие сети, может не 670B, но 200B думаю потянет(можно конкретно посчитать конечно, но не суть важно). И теперь возникают вопросы к нВидиа, типа ребята вы там нормальные ваша железка стоит $3К у вас всего 32Гб памяти, как так то? За шо мы деньги плотим. И ведь реально вопрос обоснованный даже сейчас если сравнивать цену 5090 и мак мини. И возможности железа.


              1. Bardakan
                18.02.2025 06:13

                вот давайте не приукрашивать. Разница между 2700х и 5950х - два года, а не 3 как вы тут рассказываете. Через два года менять процессор - это не преимущество сокета, а вы просто не рассчитали нужную мощность пк и переплатили за замену проца.

                Дальше новый процессор у вас стал на старую материнку с AM4 без танцев с бубном (прошивка bios) или вы об этом умолчали?

                А то, что amd не меняла сокет и отчасти из-за этого долго не могла добавить поддержку DDR5 - это другое?

                общая память под процессор и видеоядро это архитектурно более правильное решение, приставки, телефоны и даже ноутбуки(макбуки и процессоры серии Ryzen 9 AI) и даже десктопы (мак мини и мини ПК) такую схему используют. Причем перф я бы не сказал что там слабый, уровень средне бюджетных видеокарт примерно. То есть не дохлая встройка что бы было.

                купил мини-пк с 6800H ES... Уровень видеокарты чуть-чуть лучше R9 270x - средняя дискретная видеокарта... десятилетней давности

                 почему бы не сделать тогда два сокета под такие процессоры

                Atari Jaguar была на 5 процессорах в 3 чипах и это был один из факторов ее провала.

                почему бы не сделать "процессор" состоящий из одного только видео ядра отдав весь транзисторный бюджет только под видео ядро.

                с такой логикой зачем в компьютере вообще CPU? Давайте заменим его видеокартой - видеокарты же мощнее)


                1. Rezzet
                  18.02.2025 06:13

                  Через два года менять процессор - это не преимущество сокета

                  2700x - April 13, 2018

                  5950х - Nov 5th, 2020

                  Больше чем два года, ближе к 2.5, если уж душнить. Но вы не услышали ключевое. В момент покупки максимум ядер не в HEDT было 8. Потом стало 16 и это прям круто. 2,5 года это все относительно по факту перескочил через поколение процессоров. Просто релизные циклы были быстрее. А +2 поколения процессоров это к слову не мало. И меня я не потому что 2700х стал плохим, он до сих пор в компе жены трудится, просто в два раза больше ядер для меня было очень важно.

                  Дальше новый процессор у вас стал на старую материнку с AM4 без танцев с бубном (прошивка bios) или вы об этом умолчали?

                  Без танцев с бубном, но с прошивкой биоса, но вы почему-то о этом так говорите как будто прошивка биоса это что-то сложное и невероятное. Я его прошиваю и без замены процессора, это не танцы с бубном, а процесс обновления.

                  купил мини-пк с 6800H ES... Уровень видеокарты чуть-чуть лучше R9 270x

                  Я купил какой-то процессор он не устроил меня производительностью видео ядра, поэтому идея встраивать видео ядра в процессор плохая. Такая цепочка рассуждения? А вас не смущает что так устроены два поколения последних плейстейшен и хбокс? Еще раз устройства на цель которых запускать только игры и ничего больше устроены именно тем способом который вы критикуете. Честно не знаю как плойка 3 устроена, но вроде там то же один чип был.

                  Atari Jaguar была на 5 процессорах в 3 чипах и это был один из факторов ее провала.

                  А Intel 8086 и Intel 8087 стояли в разных сокетах, и первые материнки под х86 были двухсокетные и что? Ключевой компонент их успеха, я щитаю, надо делать именно так. FPU тогда было аналогом GPU сейчас.

                  с такой логикой зачем в компьютере вообще CPU? Давайте заменим его видеокартой - видеокарты же мощнее)

                  Вы не поверите, но такие эксперименты были. CPU, GPU, это достаточно условное в принципе деление. AVX512 делает ли CPU векторным процессором или нет? Можно ли микрокод CPU считать аналогом драйвера для GPU? Считать ли ALU и FPU двумя разными процессорами в одном кристалле?


                  1. Bardakan
                    18.02.2025 06:13

                    просто в два раза больше ядер для меня было очень важно.

                    странный субъективный аргумент. Вам потребовалось в два раза больше ядер, но HEDT вас не устраивают, а обновить проц нужно именно на текущей платформе. Вы говорите, что переставили проц в комп жены, а что за проц был там до этого? И все равно сводится к вопросам целесообразности.
                    И раз вспомнили такие аргументы, то я обычно настольные компы полностью меняю раз в 10 лет, а ноутбуки - раз в 6 лет, поэтому даже если intel меняет сокеты каждое поколение - меня это вполне устраивает. Если нужна бОльшая мощность, а докупать б/у комплектующие по деньгам больше не имеет смысла, то значит время обновлять пк.

                    Без танцев с бубном, но с прошивкой биоса, но вы почему-то о этом так говорите как будто прошивка биоса это что-то сложное и невероятное.

                    До последнего пк у меня были компы на Intel. Мне ни разу не потребовалось прошивать биос, чтобы поменять проц. На платформе amd наоборот нужно всегда его прошивать?

                    Я купил какой-то процессор он не устроил меня производительностью видео ядра, поэтому идея встраивать видео ядра в процессор плохая.

                    6800H ES - это не единственный пример. До этого пробовал на core i3-3240 (2012 года) запустить игру Armello (простая настольная игра 2015 года, но в 3d) - она шла хуже, чем с видеокартой 9600 (2008 года). Снова неправильная видеокарта и неправильный проц?

                    А вас не смущает что так устроены два поколения последних плейстейшен и хбокс?

                    а потом люди в интернетах не понимают, почему эти консоли не выдают 60 fps...

                    А Intel 8086 и Intel 8087 стояли в разных сокетах, и первые материнки под х86 были двухсокетные и что? Ключевой компонент их успеха, я щитаю, надо делать именно так. FPU тогда было аналогом GPU сейчас.

                    сегодня у вас есть сокет под проц и есть видеокарта отдельной платой, которые можно менять. Или вам принципиально, чтобы еще каждая микросхема на видеокарте стояла в держателе, и ее можно было менять без перепайки?

                    Вы не поверите, но такие эксперименты были. CPU, GPU, это достаточно условное в принципе деление. AVX512 делает ли CPU векторным процессором или нет? Можно ли микрокод CPU считать аналогом драйвера для GPU? Считать ли ALU и FPU двумя разными процессорами в одном кристалле?

                    И что случилось с этими экспериментами? Более слабый CPU победил более мощную GPU?


                    1. khajiit
                      18.02.2025 06:13

                      До последнего пк у меня были компы на Intel. Мне ни разу не потребовалось прошивать биос, чтобы поменять проц

                      Тут должна быть связь с

                      даже если intel меняет сокеты каждое поколение

                      Невидимая такая, тосенькая.
                      Ну и таки да, чтобы плата заработала с новым процом, если сокет поддерживает два поколения процессоров (у интел такое случается), а выпускалась она для первого — ВНЕЗАПНО, firmware must be updated.
                      Другое дело, что обычно сейчас это делает винда в ходе других обновлений


                1. VADemon
                  18.02.2025 06:13

                  Давайте не разукрашивать в нужный цвет?

                  Разница между 2700х и 5950х - два года, а не 3 как вы тут рассказываете.

                  Zen (март 2017), потом микрооптимизация Zen+ (апрель 2018, 2700x), потом-потом Zen 3 (ноябрь 2020). Можно вполне и 3.5 года сосчитать.

                  Имеем: 2700X (Apr 2018) -> 5950X (Nov 2020) + i7 4770K (Jun 2013) -> i7 6700K (Aug 2015). Сравнимо? Идем дальше.

                  Cinebench R15 однопоточный: 4770K (121) vs (132) 6700K = 1.09x прирост.

                  Cinebench R20 однопоточный: 2700X (440) vs (641) 5950X = 1.45x

                  Cinebench R20 многопоточный: 2700X (3484) vs (10234) 5950X = 2.94x

                  SuperPI однопоточный: 2700X (551.8s) vs (365.8s) 5950X = 0.66x или 1.51x

                  Через два года менять процессор - это не преимущество сокета, а вы просто не рассчитали нужную мощность пк и переплатили за замену проца.

                  Я именно так рассчитал и пересел с Ryzen 1700 (только к концу марта 2017 нашел в наличии и получил за РРЦ в ~350€) на 5700X3D (200€ на момент покупки). Дешевле, чем первый проц. Разница в цене плохих и нормальных материнок была около 40€. Альтернативно мог выбрать из 5900X или 5950X. Мой друг пересаживался с Ryzen 1600 -> 2700X -> 5900X. Что мы сделали не так?

                  Надо все же отметить, что AMD прокатила тех, кто купил себе материнку с сокетом под первые Threadripper. А поддержку Zen 3 в прошивке (лишь программное ограничение) на старых материнках выгрызали всем сообществом энтузиастов (к коим относятся и журналисты в этой сфере, в отличии от других).

                  не преимущество сокета, а вы просто не рассчитали нужную мощность пк и переплатили за замену проца.

                  Давайте я вам расскажу свою совсем невыдуманную историю про непереплату за апгрейд процессора? В сообществе оверклокеров поколение Sandy Bridge считается легендарным. Это i7 2600K/2700K. Гнались при хорошем охлаждении легко до 4.7 ГГц при базе в 3.5 ГГц. Так вот, когда я брал готовый комп, то "зачем переплачивать за мат. плату и K-проц"? Выбрал i5 2400 (3.1 ГГц). И когда мне его стало нехватать в 2016 году, то что? Либо меняешь шило на мыло ради стоковых бустовых частот (в сокет вставляется максимум i7 2700K - 3.5/3.9 ГГц), а цена не маленькая; либо полностью меняешь материнку, проц, докупаешь недешевое охлаждение ради разгона (с учетом уже устаревшей платформы и чипа - сомнительная инвестиция); либо страдаешь дальше и копишь деньги на полноценный апгрейд.

                  Но я урок из этого извлек и пересел с i5 2400 (4c/4t) на Ryzen 7 1700 (8c/16t). Еще и разогнал его со стоковым кулером до 3.8 GHz с 3.0. В то же время, энтузиасты продолжали сидеть на разогнанных Sandy Bridge, потому что производительностью он устраивал. Просидел я, получается, 7 лет. Вставил новый камень, докупил охлаждение. Компьютер теперь тихий и хватит еще лет на 7. Геймерочки, которые себе купили от Skylake i5 6500 до Kaby Lake 7700K уже страдают или успели обновиться... с полной заменой платформы.

                  Дальше новый процессор у вас стал на старую материнку с AM4 без танцев с бубном (прошивка bios) или вы об этом умолчали?

                  Давайте удивлю, что ли? Современная техника нашпигована программной частью от и до. По-хорошему надо не только BIOS обновлять, потому что в нем ошибки правят, но и такие вещи как автомобили. И я подразумеваю не только развлекательную систему, а управление моторным блоком и т. п. Особенно в новых машинах будут вылезать баги. Из этого следует, что первопокупатели -- бета-тестеры (и я таким стал в случае с Ryzen 1700). Обновление прошивки: скачать файл, распаковать на флешку, зайти в БИОС, потыкаться в меню и подождать.

                  Не хотите обновлять прошивку? Ловите деградирующий Intel или умирающий Samsung SSD. И с моей точки зрения, проблема не в обновлении, а то что производители не спешат признавать ошибки, и то что донести нужду операции до пользователя (побудьте здесь примером) -- сложно, даже в чисто новостном смысле.

                  amd не меняла сокет и отчасти из-за этого долго не могла добавить поддержку DDR5

                  С учетом использования быстрой памяти и там и там (DDR4-3600 + 5950X vs DDR5-6000 12900K), то отставание в Blender (1.02x), Corona не потрясающее. Cinebench R23 масштабировался лучше (1.07x), но не до степени "приговор" старой платформе.

                  Потом, старый оптимизированный стандарт памяти наступает на пятки новому, необкатанному. Как по скорости, так и в цене. Так было и при переходе с DDR3 на DDR4. Главное новшество DDR5: on-die ECC + небинарные объемы памяти, типа 48 GiB. И то, и другое делает её дешевле.

                  купил мини-пк с 6800H ES... Уровень видеокарты чуть-чуть лучше R9 270x

                  И не указали ни cTDP в вашей сборке, ни установленную память.


                  1. Bardakan
                    18.02.2025 06:13

                    Zen (март 2017), потом микрооптимизация Zen+ (апрель 2018, 2700x), потом-потом Zen 3 (ноябрь 2020). Можно вполне и 3.5 года сосчитать.

                    очень интересно у вас получается - сравниваете 2 конкретных проца с известными датами выпуска, но у первого почему-то считаете дату выхода платформы.

                    Я именно так рассчитал и пересел с Ryzen 1700 (только к концу марта 2017 нашел в наличии и получил за РРЦ в ~350€) на 5700X3D (200€ на момент покупки). Дешевле, чем первый проц. Разница в цене плохих и нормальных материнок была около 40€. Альтернативно мог выбрать из 5900X или 5950X. Мой друг пересаживался с Ryzen 1600 -> 2700X -> 5900X. Что мы сделали не так?

                    В итоге во сколько конкретно денег вам обошелся апгрейд? Вы отдали 350 евро, потом выбросили проц и через пару лет отдали еще 200?

                    Ryzen 1600 вышел в ноябре 2017, 2700x вышел в апреле 2018. Ваш друг каждые несколько месяцев меняет проц что ли? А почему вы тогда спрашиваете меня "что не так"?

                    Но я урок из этого извлек и пересел с i5 2400 (4c/4t) на Ryzen 7 1700 (8c/16t)

                    возникает сразу куча вопросов:
                    1)а вы не пробовали сразу купить проц с multithreading?
                    2)вы уверены, что все-все покупатели пк сразу занимаются его разгоном?
                    3)а потом вы пишете "энтузиасты продолжали сидеть на разогнанных Sandy Bridge, потому что производительностью он устраивал".
                    Т.е. возвращаемся к самому началу - кто-то продумал, чего ожидает от нового пк, а кто-то нет. Вы относитесь ко второй категории.

                    Не хотите обновлять прошивку? Ловите деградирующий Intel или умирающий Samsung SSD

                    держите и вы тогда про недостатки самостоятельной прошивки bios:

                    https://forum.ixbt.com/topic.cgi?id=42:18912

                    С учетом использования быстрой памяти и там и там (DDR4-3600 + 5950X vs DDR5-6000 12900K), то отставание в Blender (1.02x), Corona не потрясающее. Cinebench R23 масштабировался лучше (1.07x), но не до степени "приговор" старой платформе.

                    вы сначала пишете, что хотите, чтобы сокет проца поддерживался долго, но когда разговор заходит о памяти, то оказывается, что вас устроит и память предыдущего поколения, которая явно будет поддерживаться меньше по времени. "Вы не понимаете, это другое?"

                    И не указали ни cTDP в вашей сборке, ни установленную память.

                    TDP 45Вт, 32Gb DDR5 4800Mhz. На случай, если потребуются остальные характеристики - "6800H ES" достаточно уникальная фраза, по которой можно найти всю интересующую информацию, но вы этого почему-то не сделали.


                  1. ZirakZigil
                    18.02.2025 06:13

                    Геймерочки, которые себе купили от Skylake i5 6500 до Kaby Lake 7700K уже страдают или успели обновиться... с полной заменой платформы.

                    Так и вы обновились, в конечном счёте. р7 1700, вообще, не то чтобы лучше состарился чем 7700к для игр: копеечный 10400f высушит обоих. А те, у кого были деньги купили себе сразу 8700к в 2017 (одногодка первых ам4, да), который в своей категории ядер-потоков проиграл только 5600х, вышедшему спустя 3 года и последнему поколению на ам4. И толку тогда от этих 100500 поколений на одном сокете? К слову, он стоил 380 — на 30 больше вашего 1700 — долларов и либо обгонял, либо был с ним в паритете, даром, что у последнего ядер больше.

                    А все эти сказки о том как "можно было бы" в лоу-энд мать вкорячить 5950х (за 800 долларов, дороже чем на интеле переехать на новый проц+мать) они все как-то вот только в "можно было бы" и есть, на практике как-то не встречал таких.

                    p.s. сравнения между 2700/5950 и 4770/6700 сказочные, конечно. Сравните в одном отрезке времени, и отбалансируйте по цене, красивые цифры резко перестанут быть настолько красивыми.


          1. 0serg
            18.02.2025 06:13

            GPU и есть сопроцессор. С удобным стандартным разьемом который все поддерживают. По части апгрейда идеальный вариант, так что простите тезис про злых производителей которые лишних денег пытаются срубить звучит просто смешно. Я могу поставить новую карту в комп 20-летней давности и наоборот, с CPU о таком можно только мечтать

            Что до идеи с памятью то давайте глянем на небольшой пример. У меня дома стоит старенькая старенькая GTX 970. Ей больше 10 лет и это не топовый продукт. Знаете какая там пропускная способность памяти? Больше чем у quad channel DDR5-6000. А теперь давайте вместе ответим на вопрос почему в процессоры 10 лет назад такую не ставили. И даже сейчас а подавляющее большинство систем не ставят. Хотя казалось бы стоила эта память даже 10 лет назад подъемно а скорости мало не бывает.


            1. Rezzet
              18.02.2025 06:13

              GPU и есть сопроцессор.

              Я бы сказал что это компьютер в компьютере со своим биосом, памятью, кешами и управляющей программой, думаю планировщик там то же есть. Возможно что-то путаю, но НВидиа говорила что в GPU стоит несколько АРМ ядер для управления.

              Больше чем у quad channel DDR5-6000. А теперь давайте вместе ответим на вопрос почему в процессоры 10 лет назад такую не ставили.

              Ставили, только в приставки. У PS4 скорость памяти 176 GB/s, у GTX 970 по одному источнику 196 GB/s по другому 224GB/s, но в любом случае это сопоставимые цифры с PS4. И это хороший вопрос. У меня он то же возникает. Почему 20 лет у процессора не становится больше каналов памяти. При это в HEDT сразу 8 каналов.

              так что простите тезис про злых производителей которые лишних денег пытаются срубить звучит просто смешно.

              А вы думаете не пытаются ))) Строго говоря это основная задача любого бизнеса. Но это конечно офтопик. Если вернуться к теме то у меня немного подгорело когда понял что 4090 за $2500 имеет лимит 24Гб, что достаточно мало. А тот же мак мини который не сильно дороже (а может и не дороже) может легко иметь 48Гб(до 64Гб, а если mac studio то до 192Гб) общей памяти и позволит вам загрузить гораздо большие сетки. Да он будет медленнее, но размер памяти просто огромный. И я понимаю что на х86 компе с его классическим разделением на CPU и GPU такого не будет. Хуанг расщедрился и нарезал аж 32Гб в 5090(и это за $3200) неужели найдутся люди которые это будут покупать для того что бы лучики в 4к смотреть? Мы же все прекрасно понимаем что скорее всего эти карты будут покупать не для игр.


              1. mikhashev Автор
                18.02.2025 06:13

                Я вообще думал что 5090 будет с 64 или 96 Гб. Почему не увеличивают, скорее всего не выгодно…


                1. kryvichh
                  18.02.2025 06:13

                  Если бы сейчас я выбирал карту для инференса на квантованном дистиллированном DeepSeek, я бы смотрел в сторону Intel Arc A770 16GB. По цене примерно как RTX 3060 12GB. В llama.cpp завезли поддержу карточек Intel.


                  1. mikhashev Автор
                    18.02.2025 06:13

                    О, балдёж. Спасибо. Как раз думал над альтернативой 3060 на 12 Гб.


                    1. VADemon
                      18.02.2025 06:13

                      Обязательно проверьте, чтобы ReBAR на Intel Arc работал. Просадка иначе большая с ними.


                  1. Rezzet
                    18.02.2025 06:13

                    Дистиллированные глупее (( Но круто что завезли поддержку Intel Arc.


                  1. Bardakan
                    18.02.2025 06:13

                    А в arc уже завезли оптимизацию? Я про энергопотребление в простое


                1. bezdnacom
                  18.02.2025 06:13

                  Потому что Хуанг чхал на потребительский рынок. Конкуренции фактически нет, поэтому 5000-я серия это по сути рефрешы 4000-й.


            1. Bardakan
              18.02.2025 06:13

              Я могу поставить новую карту в комп 20-летней давности и наоборот, с CPU о таком можно только мечтать

              Нет, так не работает или по крайней мере не работало, когда видеокарты были agp.


              1. DMGarikk
                18.02.2025 06:13

                Нет, так не работает или по крайней мере не работало, когда видеокарты были agp

                заработает, PCIe1 появилась в 2003 году, а 20 лет назад это 2005 год и уже было полно PCIe видях на рынке

                а вот кстати AGP было две версии и первая со второй были несовместимы