Он вспомнил одного специалиста по народному хозяйству, который даже защитил докторскую диссертацию, причем использовал в качестве источников для нее телефонную книгу да несколько старинных народных песен.
— М. Ларни


В этой статье я, используя Википедию да несколько картинок из интернета, попытаюсь оценить ближайшее будущее графических ускорителей.

Давайте посмотрим на актуальную 20 лет назад видеокарту серии S3 Trio.

image

Серьезно, давайте оценим ее.
1. Минимальная электрическая мощность порядка ватт.

2. Из п.1. следует отсутствие системы питания ядра, плата очень компактна.

3. Из п.1 следует также и отсутствие необходимости мощной системы охлаждения. Не нужно громадного радиатора, как и вентиляторов. Полная тишина.

4. Модульная память. Каждый может купить видеопамяти сколько ему нужно, а потом установить на видеокарту. Можно докупить видеопамять, когда будут деньги или, когда потребуется расширить ее объем.

5. Вывод видеосигнала осуществляется через VGA, который тогда был стандартным. Один тип передачи сигнала, один вывод и т.д.

6. Подключение видеокарты осуществляется через распространенный даже сейчас разъем PCI. Эту видеокарту можно подключить к любому компьютеру с таким разъемом даже сейчас и работать она будет.

7. На плате почти отсутствуют радиодетали, подверженные порче или вызывающие проблемы. Нету мощных дросселей, которые могут начать свистеть, конденсаторов всего несколько — и те с минимальной емкостью.
Давайте теперь посмотрим на один из текущих топов, а именно на MSI GTX 1080 Ti Lightning Z.
Длина видеокарты составляет 32см

image

Она занимает 3 слота, что в целом стало уже явлением, не вызывающим удивления на данный момент

image

Видеокарта использует три стандартных разъема питания PCI-E

image

и по идее потребляет лишь 250Вт, что вызывает определенные сомнения, судя по системе питания и охлаждения. О системе охлаждения, конечно, нужно упомянуть в отдельности

image

Всего 5 тепловых трубок не кажутся чем-то исключительным. Ну, 3 вентилятора вы уже видели.

Если у кого-то завалялись S3 Trio и GTX1080ti, предлагаю провести простой эксперимент – сотрите с первой пыль, выровняйте смятые за время лежания видеокарты в мусоре конденсаторы. Ознакомьте с обеими видеокартами человека, абсолютно далекого от компьютеров, какого-нибудь пенсионера. А потом поинтересуйтесь, какая видеокарта, по его мнению, новее. Если ржавчина на планке S3 Trio вас не подведет, ответ будет в ее пользу.

Как же мы до такого докатились?

Очевидно, что к столь критическому росту размеров платы и тепловыделения привел процесс роста электрической мощности видеокарты. Ядро требует большей мощности, для ее обеспечения необходимо конструировать все более сложную подсистему питания, т.к. напряжение на ядре очень мало. Кроме того, выделяющееся тепло приходится еще и рассеивать, что в свою очередь требует повышения эффективности системы охлаждения. Т.к. рассеяние сотни-другой ватт (вспоминаем паяльник на 60Вт), да еще и в ограниченном пространстве гипотетического корпуса, уже непростая задача, приходится увеличивать воздушный поток (рост числа вентиляторов), площадь теплообмена и теплопроводность самого радиатора (рост числа и размеров тепловых трубок). Когда это началось? Первые поколения распространенных графических ускорителей обходились даже без радиаторов, как мы видим на примере S3 Trio. При дальнейшем развитии видеокарт понадобилась установка небольших радиаторов

image
ATI Rage 128 Pro 32Mб

Почему радиатор черный?
Безусловно, занятна тенденция тех времен окрашивать радиаторы черной или темной краской, вместо более привычного нам сейчас чистого алюминия. Казалось бы, зачем, ведь краска будет снижать теплопроводность? Упор тут делался на закон излучения Кирхгофа, по которому отношение излучательной способности любого тела к его поглощательной способности одинаково. Т.о. предполагалось, что раз черный радиатор хорошо поглощает излучение, то и излучать его же он должен лучше блестящего.

К самому началу текущего столетия уже многие видеокарты в линейке оснащались не просто радиатором, а уже и радиатором с маленьким вентилятором

image
ATI Radeon 8500LE 64Мб

Если кто-то экспериментировал с установкой маленьких вентиляторов куда-либо, то он отлично знает об их крайне низкой эффективности. Воздушный поток из-за размера их лопастей ничтожен, а шума такой вентилятор создает очень много за счет порядочной скорости вращения. Т.к. при этом энергопотребление видеокарт продолжало расти, даже в референсных (образцовых) видеокартах пришлось перейти к турбинам. Примерно после 2010 охлаждение типа турбины стало стандартным для образцовых видеокарт, и хотя мы живьем видим его все реже и реже, сами разработчики видеочипов представляют свои видеокарты по умолчанию с ним. Небезынтересно отметить, что в начале текущего столетия турбина, как тип охлаждения, могла продаваться отдельно для желающих проапгрейдить свою видеокарту с обычным маленьким радиатором. Сейчас их, конечно, уже не продают. Собственно, почему турбина?

image
Типичная система охлаждения типа турбины со снятым кожухом на GTX670

Как видно, сама турбина захватывает воздух сверху, перенаправляет его в стороны, после чего воздух проходит через радиатор и охлаждает его. В идеале горячий воздух полностью выбрасывается за пределы корпуса. Нельзя не отметить, что со снятым кожухом турбина работать едва ли будет. Теоретический предел рассеиваемой мощности турбиной весьма велик – достаточно увеличить число ребер радиатора, приделать к нему пару тепловых трубок, и можно будет добиться рассеяния даже 450Вт тепла (HD6990). Однако, главным недостатком турбин является шум, т.к. сама турбина должна вращаться на больших скоростях. Поэтому примерно с 2008 года начался выпуск уже ставших привычными сейчас систем воздушного охлаждения, состоящих из тепловых трубок, относительно компактного радиатора и нескольких полноразмерных вентиляторов, дующих в направлении видеокарты через радиатор. Типичный пример, одна из первых ласточек

image
Thermalright HR-03 на 8800GT

На данный же момент этот тип охлаждения стал уже вполне стандартным – странно покупать видеокарту с турбиной, на самом деле. Так что ситуация повторяется. Первоначально турбины продавались в качестве кастомного варианта охлаждения, затем стали стандартом. Затем радиаторы на тепловых трубках с вентилятором повторили их судьбу и стали фактическим стандартом. Остается надеяться, что дело не дойдет до компактной СВО на каждой видеокарте по умолчанию.

Это лишь примерная оценка роста мощности видеокарт, что называется «на глаз». Теперь предлагаю сделать оценку по более строгим критериям, а именно по графикам. Для построения этого и следующих графиков я пользовался по больше части данными из Вики по видеокартам AMD и NVIDIA, однако, некоторые данные я заполнял сам на основе сохранявшихся в интернете данных. К большому сожалению, TDP старых видеокарт выпуска до 2007 года неизвестен. В графики включены почти все серии GeForce и Radeon примерно за 10 лет, кроме 100-й и 300-й серии GTX и 8000-й серии HD Radeon. Точки на графиках принадлежат видеокартам, по оси абсцисс отложена дата выхода видеокарты, по оси ординат – изменение тех или иных значений.
Итак, давайте внимательно изучим график изменения теплот, выделяемых видеокартами в работе примерно за последние 10 лет.

image

Напрашиваются следующие выводы:
1. Уменьшение техпроцесса не произвело ожидаемой революции в тепловыделении графических ускорителей.

2. Несмотря на крупный техпроцесс, самые холодные видеокарты выпускались до 2007 года. Первый крупный скачок тепловыделения произошел ок. середины 2006 – начала 2007. Это однозначно указывает, что тепловыделение в первую очередь задается требованием рынка. Когда видеокарты сами по себе уже плохо тянут игры, производителям приходится завышать частоты и напряжение, что приводит к очень сильному росту тепловыделения.

3. Выход максимального тепловыделения на плато произошел ок. 2009 года, плюс минус.

4. Плато максимального тепловыделения мощных моделей стойко держится с тех пор ок. 250Вт. Это, видимо, максимум, который позволяют объективные свойства видеокарты как устройства в современном его виде. Если бы можно было и дальше повышать тепловыделение, то, вне сомнений, производители видеочипов и дальше бы повышали частоту и напряжение. Однако, охлаждение видеокарты с тепловыделением выше 300Вт уже трудная задача, и в плохом корпусе она зажарится, да и шум вентиляторов либо турбины будет выше всяких норм.

5. Средние и слабые модели тоже медленно, но верно повышают свое тепловыделение. Если, правда, старшие модели уперлись в максимум (плато) около 2009 года, то средние уперлись в примерно 150-180Вт еще раньше. Слабые идут той же дорогой.

6. Наблюдается уменьшение числа представленных моделей с 2012 года. Особенно это заметно относительно моделей с низким тепловыделением. Их становится все меньше.

7. Списать последний довольно долгий застой на внимание к рынку мобильных решений, как это делали раньше, конечно же нельзя. Более того, как раз на момент максимальной популярности планшетов наблюдается достаточно высокая частота выпуска новых видеокарт.

8. Не менее парадоксальным и кажется то, что в годы мирового экономического кризиса выпуск новых моделей происходил значительно чаще, чем сейчас.

9. Последние два вывода снова нас приводят к главенствующей роли требований рынка перед объективными возможностями видеокарт.
Ну может, мы не зря терпим повышение тепловыделения, наверняка это оправдывается повышением вычислительной мощи? Попробуем это проверить. Конечно, нету способа однозначного найти точную производительность видеокарты, а потому я обратился к максимальной теоретической производительности для вычислений с одинарной точностью.

image

Тут довольно приятно видеть вполне экспоненциальный рост. Лично для меня оказалось неожиданностью заметно более высокая теоретическая производительность у видеокарт Radeon. Что ж, вероятно старая шутка про отсутствие драйвера

image

оказалась правдой. Не исключено, что дело и в оптимизации самих игр.

Теперь давайте сопоставим график изменения TDP и производительности. Тут несложно прийти к выводу, подтверждающему п.2:
10 Рынок требует экспоненциального роста производительности, при том, что производители видеочипов за этим требованием, очевидно, еле-еле поспевают. На это указывает рост TDP.
Теперь почему бы нам не соотнести производительность к мощности.

image

Сказать точно, какая тут функция задает кривую, трудновато. С одной стороны, у GeForce вроде видна степенная функция, а Radeon кривая имеет S-образную форму. Если мы отбросим оптимизацию драйвера и игр, то найдем, что AMD ок. 2009 достигла хорошей по эффективности архитектуры, которую использовала на протяжении многих лет и последние модели которой вышли еще в начале 2016. Это плато на S-образной кривой. Хорошо ориентируясь в выходивших видеокартах, несложно понять, примерно о каких моделях идет речь. У NVIDIA же скачок эффективности наблюдается с 2012 – скорее всего, принятие некой полностью новой архитектуры. За GeForce следует и экспоненциальный скачок у Radeon с 2015 года.

Предлагаю теперь обратиться к росту числа транзисторов. Попробуем проверить закон Мура.

image

Нелишним, кстати, будет упомянуть, что т.н. закон Мура — это лишь наблюдение, которое было сделано в 1965, т.е. на заре современной электронной промышленности. Причем наблюдение делалось на процессорах Intel. Сам закон гласит:
Количество транзисторов, размещаемых на кристалле интегральной схемы, удваивается каждые 24 месяца.
Проблематика при длительном прогнозировании по закону Мура в точке отсчета, а именно, какое число транзисторов брать. Я взял 110 млн. для средней-слабой видеокарты. Как видно, закон Мура выполняется, число транзисторов растет, как и должно. Но тут уместно будет задать вопрос – а не за счет ли площади кристалла оно растет? Смотрим на размер кристалла (или их суммы, если речь идет о двухпроцессорных решениях)

image

В данном случае мы видим приятное глазу постоянство. Производителям банально невыгодно увеличивать площадь кристалла. Но хотелось бы напомнить, что при прогрессе желательно было бы видеть уменьшение площади кристалла. Попробуем сформулировать выводы:
11. Отношение производительности к TDP зависит почти полностью от текущей архитектуры (либо от каких-либо еще не очевидных факторов).

12. Архитектуры, вопреки маркетинговым сменам названий из поколение в поколение, на самом деле в реальности меняются принципиально редко. Не чаще чем раз в 6-7 лет.

13. Использование той или иной архитектуры очень хорошо видно по кривой, описывающей отношение производительности к TDP.

14. Большая часть изменений отношения производительности к TDP не могут быть описаны степенными функциями. Увы, эти изменения не имеют вида линейной функции и вообще годами могут стоять на месте почти без изменений.

15. Техпроцесс не влияет на отношение производительности к мощности, т.к. уменьшение размера транзистора сопровождается лишь занятием его места новыми транзисторами. Это связано с п.10, т.е. с завышенными требованиями рынка.

16. Площади кристаллов не меняются.

17. Увеличение числа транзисторов продолжает соответствовать закону Мура.
А теперь давайте посмотрим на самое интересное, а именно на цену. Т.к. в Википедии данных о релизной цене было в обрез, мне пришлось искать их в интернете, но это все равно не большой секрет. Т.к. цена — штука весьма размытая (релизная цена может отличаться от вскоре установившейся рыночной, сами релизные цены не всегда доступны и т.д.), ее неточность требует применения и более размытого маркера.

image

Подводим итоги и тут:
18 Цена медленно растет.

19. Общую тенденцию роста цен можно соотнести с инфляцией американского доллара (спасибо американским и британским экономистам). Для массы моделей это можно объяснить очень просто – компании-разработчики чипов родом из Силиконовой долины. Инфляция американской национальной валюты, естественно, будет отражаться на них.

20. Однако, отдельные плато образуют высшие модели видеокарт. В частности, для NVIDIA мы видим несколько S-образных подъемов цен — цены на топы поднимались в начале 2012 и к лету 2016. У AMD, перешедшей в пред-топовый модельный ряд с эпохи HD7970, таких скачков нет.

21. Стоящие особняком точки цен на двухчиповые решения отдельного рассмотрения не заслуживают сами по себе. Однако же, в конце к ним впервые присоединилось и одночиповое решение — NVIDIA TITAN V.
Подводя итог сказанному, попробуем создать прогноз на ближайшее будущее графических ускорителей. Да, только глупец может лезть в будущее, и любой мало-мальски уважающий себя человек никогда не опускается до прогнозов (ибо обязательно ошибется в них, так или иначе). Ну а если и делает их, то крайне размытыми, чтобы попасть, как говориться, пальцем в небо. Однако же, я готов рискнуть:

1. TDP видеокарт будет продолжать увеличиваться для слабых и средних моделей. Это будет очень медленный процесс, но, скорее всего, неизбежный.

2. Для старших и старше-средних моделей TDP останется ок. 250Вт – объективный предел для современных систем охлаждения. Дальнейшее повышение тепловыделения попросту потребует установки неоправданно дорогой системы охлаждения, да и снизит срок жизни устройств.


Влияние температуры на срок службы
Из химии мы знаем, что на каждые 10 градусов скорость химической реакции повышается в 2-3 раза. Предполагая, что процессы деградации техники, скорее всего, имеют химическую природу или хотя бы связаны с кинетическими свойствами молекул, то можно ожидать сокращения срока службы техники вдвое при повышении средней ее температуры на означенные 10 град. Это безусловно очень сложная и интересная тема, требующая отдельной статьи. Как бы то ни было, производителю крайне нежелательно повышение рабочей температуры видеокарты даже на 10 град. Быстрый выход из строя видеокарт при майнинге, происходящий задолго до истечения гарантийного срока, подтверждает эти выводы.

3 В производительности видеокарт первичным оказываются требования рынка. Так или иначе, а видеокарты им не удовлетворяют или удовлетворяют, но с трудом. Если мы предположим, что рынок не сократит свои требования, то и ожидать уменьшения TDP, сокращения размера чипа и т.п. нельзя.

Победили ли 1920х1080 видеокарты?
Многие утверждают, что для игр в разрешении 1920х1080 вполне достаточно видеокарт уровня GTX1050 – GTX1050ti, а если верить Ютуб-обзорщикам чуть ли не GT1030. В таком случае, критический момент был бы пройден, и раз следующие поколения видеокарт будут лучше, то можно было бы ожидать уменьшения их TDP.

Однако, заявления о достаточности ядра GP107-300/400 неверны, эти видеокарты лишь демонстрируют более-менее удовлетворительную производительность в ряде игр, да еще и при наличии мощного ЦП. И то не на текущий момент, а лишь на время выпуска. Ситуация, на самом деле, не новая, так бывало почти каждое поколение видеокарт, когда при поверхностном взгляде казалось, что средней-слабой видеокарты достаточно для всех игр. Но на практике они всегда очень быстро устаревали. Дело в том, что игры выходить не перестают, как и требования расти, а потому сказать, что для современных игр в 1920х1080 достаточно бюджетных видеокарт, нельзя никоим образом. Вот если бы видеокарты на чипе GP104-200/300/400 занимали низшую ценовую категорию, то только тогда можно было бы заявить о победе над разрешением 1920х1080.

4. Увеличение числа транзисторов и совершенствование архитектуры не даст улучшения эргономических свойств видеокарт, а полностью уйдет на то, чтобы догонять требования рынка по увеличению производительности.

5. Скорее всего, следует готовиться к сокращению модельного ряда видеокарт. Помимо коммерческих ходов, производители чипов будут разрабатывать всего несколько ядер, которые в зависимости от качеств уже будут подвергаться сортировке. Это будет делаться ради сокращения затрат на разработку.

6. Цена на видеокарты будет медленно расти, возможно, будет оставлена буквально одна низшая модель по минимальной цене (напр. младшая видеокарта предыдущего поколения), но рост цен в долларах будет продолжаться.

7. Особого беспокойства будут заслуживать цены на сильные и средне-сильные видеокарты. Т.к. NVIDIA уже давно вышла на плато, можно ожидать очередного скачка цен на вышеозначенные видеокарты в новом поколении, или в следующем. Как бы то ни было, скачок цен на топы не за горами.


Актуальны ли топы?
Нельзя тут не заметить, что именно с коммерческой точки зрения сильные или средне-сильные видеокарты представляют наибольший интерес, т.к. предоставляют отличную производительность, пусть и за большую цену. Главное их преимущество над низшими конкурентами в гораздо большем сроке актуальности – выгоднее отдать раз в 3-4 года крупную сумму, чем отдавать среднюю каждый год. В качестве поучительного примера, нельзя не вспомнить, что топы 2012 года, напр Radeon HD7970 до сих пор вполне актуальны для игр, несмотря на 6-и летнюю давность. Именно поэтому цены на мощные видеокарты имеют важное значение для рынка. Это не выбор энтузиаста (выбор энтузиаста – самая дорогая видеокарта), это оптимальный выбор.

Так что ничего обнадеживающего в ближайшее время ожидать, скорее всего, не стоит. Лишь наивный человек может думать, что получит за стоимость GT1030 быстродействие GTX1060 в следующем поколении. Одним словом, прогноз можно выразить просто «держимся за свои старинные топы и ожидаем лучшего».

Небольшое дополнение:

Спасибо пользователю Edil0 за идею. Отношение теоретической производительности для вычислений с одинарной точностью к цене.

image

Комментарии (305)


  1. Javian
    17.03.2018 19:14

    Насколько я помню о черном цвете радиатора видеокарт того времени, тесты показывали, что заметной разницы в температуре видеокарт не было. К слову встречались и цветные типа голубого.


    1. Sun-ami
      17.03.2018 19:52

      Видеокарты с черным радиатором выпускают и сейчас. Например такая. Их стало меньше потому что при использовании вентилятора смысла в этом гораздо меньше — даже маленький вентилятор увеличивает поток тепла, отводимого воздухом в несколько раз, и доля тепла, отводимого излучением становится незначительной — даже для пассивного радиатора большая часть тепла от видеокарты отводится потоком воздуха.


    1. Exchan-ge
      17.03.2018 20:27

      К слову встречались и цветные типа голубого


      Насколько я помню — цвет радиатора не имел никакого отношения к тепловыделению, а определялся исключительно «фирменным стилем» производителя карты.
      Так, у Gainward GeForce2 Ti/500 XP AGP Gold Sample 2002 года все радиаторы (включая радиаторы на памяти) были красно-малинового цвета, у Intel i740 AGP (1998) — золотистого, у Matrox Millennium G400 — черного, у карт ASUS — белого.
      Самые простые, некрашеные, были у Voodoo 3 — 3dfx особо не заморачивалась.

      (вся инфа — из коробки, с моими старыми видеокартами :)


    1. mistergrim
      17.03.2018 20:31

      И некрашеные тогда были, и золотистые (часто), и зелёные, и синие…


    1. OutOfMemory
      17.03.2018 23:49

      Разноцветные алюминиевые радиаторы — это чаще всего анодированное покрытие.
      Это не краска, а тончайший слой химически измененного состава. Теплопроводность от этого не ухудшается. Черный, кстати, тоже можно получить анодированием.


      1. JohnHenry89 Автор
        18.03.2018 13:28

        Анодирование слабо отличается от краски, поясню. Анодированный алюминий отличается от обычного значительно увеличенной по толщине оксидной пленкой. Т.к. пленка весьма пористая, она очень легко подвергается пропиткам красителями, отсюда и приятное глазу разнообразие цветов. Кажется, что оксидированный алюминий лучше краски, но тут не учитывается уменьшение теплопроводности и электропроводности за счет пленки, а оно очень значительное. Я давно хотел заменить силиконовые прокладки на пластины оксидированного алюминия, но когда увидел повышение сопротивления после оксидирования то решил отложить это дело на будущее — повышение сопротивления это хорошо, это отлично, но вместе с ним точно так же падает и теплопроводность т.к. они находятся рядом. Да и странно было бы ожидать хорошей теплопроводности от слоя довольно пористого Al2O3.


        1. OutOfMemory
          19.03.2018 02:50

          Результат зависит от технологии. Производители алюминиевых радиаторов для электроники применяют специальные технологии анодирования, повышающие теплоотдачу.


          1. JohnHenry89 Автор
            19.03.2018 14:12

            Так незя — пенка из Al2O3 не может проводить тепло лучше алюминия по определению. Даже если ее маслом пропитают (а у масел теплопроводность на 2 порядка ниже чем у алюминия).


            1. safari2012
              19.03.2018 15:29

              Вот тут проводили сравнительные испытания: ledsvetoch.ru/faq
              Насколько верить, решайте сами…


              1. JohnHenry89 Автор
                19.03.2018 17:34

                Во-первых, это откровенная реклама, почему так не может быть я описал выше. На таких-же сайтах с чистой совестью предлагают перейти на LED с ДНаТ для экономии электроэнергии (хотя светоотдача у ДНаТ по определению выше чем у светодиодов). Так и тут выдумали чепуху.

                Да, теплопроводность у анодированной плёнки алюминия хуже, чем у чистого, но 15 микрометров — на этот показатель не влияют.

                Все, точка. Вопрос решен — зачем радиатор с плохой теплопроводностью?
                Во-первых увеличивается площадь поверхности за счет микропор, возникающих при вылете частиц в процессе анодирования.

                Увеличивается суммарная площадь поверхности оксида, но не поверхности теплообмена между радиатором и воздухом. А процесс теплообмена гетерогенный. Поэтому теплопроводность и снижается.
                А вот что влияет — так это повышающаяся степень черноты! У анодированного алюминия с плёнкой окисла 15 мкм она составляет 0,8 против 0,2- 0,3 у неанодированного.

                Чернота это поглощение видимой части спектра, однако с чего бы алюминию или оксиду алюминия что-то в видимом спектре поглощать? Они отражают. Почернеть с поверхности алюминий может лишь при растворении — останутся частицы сажи (остатки выгоревшего анода в ходе получения металла) но не слой оксида.
                БЫСТРОЕ НАГРЕВАНИЕ ОБОИХ КОРПУСОВ ГОВОРИТ ОБ ИХ МАЛЕНЬКОМ ВЕСЕ

                Теплообмен от массы не зависит, он зависит лишь от площади теплообмена, толщины теплопроводящего материала и коэффициента теплопроводности этого материала.


                1. Hellsy22
                  19.03.2018 19:50

                  Увеличивается суммарная площадь поверхности оксида, но не поверхности теплообмена между радиатором и воздухом.

                  Представьте это как два процесса: теплообмен между радиатором и оксидной пленкой + теплообмен между оксидной пленкой и воздухом. Если теплопроводность оксидной пленки больше, чем теплопроводность воздуха, но ниже, чем теплопроводность алюминия, то после определенного преимущества в площади поверхности контакта с воздухом итоговый теплообмен будет не хуже, чем у чистого алюминия, а дальше даже и лучше.


    1. Alexeyslav
      18.03.2018 12:13

      Вобщем-то цвет радиатора в видимом диапазоне не играет роли, там важен цвет радиатора для предполагаемой температуры — а это глубокий ИК диапазон, и вовсе не обязательно что чёрная краска будет столь же черна в ИК-диапазоне, как и светло-голубой радиатор может быть очень тёмным в ИК-диапазоне. Куда там, даже ПРОЗРАЧНАЯ в видимом диапазоне краска может быть очень тёмной в ИК.


    1. dom1n1k
      18.03.2018 13:22
      +1

      На оверклокерсах было тестирование, они красили радиаторы черной краской из баллончика (что само по себе заведомо хуже заводского анодирования). Тестирование показало небольшое, но стабильное преимущество крашеных.


      1. stalinets
        18.03.2018 19:40

        Тут ещё, думаю, важно, как наша чёрная краска выглядит в инфракрасных лучах. Вполне может быть ситуация, что две одинаково чёрные вещи в инфракрасном свете выглядят одна чёрной, а вторая светлой, т.е. покрасив радиатор неправильной краской, получим то, что он не будет работать как задумано.
        У меня есть видеорегистратор с подсветкой инфракрасными светодиодами, и рассматривать мир через его экранчик интересно. Чёрные джинсы и чёрная пластмасска могут выглядеть совсем иначе.


    1. JohnHenry89 Автор
      18.03.2018 13:22

      Разница минимальна, на самом деле. Возможно она есть, но станет едва заметной при сотнях двух ватт.


  1. zookko
    17.03.2018 19:30

    7 Особого беспокойства будут заслуживать цены на сильные и средне-сильные видеокарты. Т.к. NVIDIA уже давно вышла на плато, можно ожидать очередного скачка цен на вышеозначенные видеокарты в новом поколении, или в следующем. Как бы то ни было, скачок цен на топы не за горами.

    Хуанг уже давно озвучил и повторил, что след.поколение 100% будет дороже, из-за дорогих НИОКР и неудержимого роста цен на оперативную память.
    И дороже будет всё, не только топы.


    1. JohnHenry89 Автор
      18.03.2018 13:30

      У меня такое впечатление, что GT1030 они ничем заменять не будут или у GTX1050 поменяют название, а обновят ряд начиная со средних только.


  1. arheops
    17.03.2018 20:14

    Гдето с 12го года рынок видеокарт испытывает давления рынка криптовалют. Странно, что этот факт не влияет на рассуждения автора.


    1. Exchan-ge
      17.03.2018 20:33

      Странно, что этот факт не влияет на рассуждения автора


      Ой. Автор не заметил процесс вытеснения недорогого ценового сегмента видеокарт — встроенными в процессор решениями, а вы требуете внимания к криптовалютам )


      1. JohnHenry89 Автор
        18.03.2018 13:37

        А что их замечать-то?
        1 Встроенные видеоядра широко предлагаются покупателям с 2010 года и даже раньше (встроенные в чипсет были). Но популярности они никогда не имели. Почему?
        2 Их низкая популярность обусловлена низкой производительностью. Видеоядра нужны не для игр, а для обработки и отображения 2d. В 3d режиме тягаться с видеокартами они не могут.
        3 Следовательно встроенные видеоядра не составляют конкуренции видеокартам и на их рынок влияния оказывать не могут.


        1. Exchan-ge
          18.03.2018 14:01

          Их низкая популярность обусловлена низкой производительностью.


          Я с 2005 года не встречал бюджетно-офисных компьютеров с отдельной видеокартой.
          А их только в нашей организации сотни.
          Когда появились магазины электроники — большая часть ПК «для дома» в них имела низкую цену и встроенную графику.
          Недорогие видеокарты сейчас берут, в основном, на замену вышедшим из строя, или слишком «горячим» видеокартам в старых компьютерах.


          1. JohnHenry89 Автор
            18.03.2018 15:09
            -1

            Я с 2005 года не встречал бюджетно-офисных компьютеров с отдельной видеокартой.

            Офисных. Бюджетных полным полно. Но даже в случае офисного компьютера по любому лучше запихнуть какую-нибудь старинную GF8800, чем сидеть на встроенной графике. Ведь это так или иначе нагрузка на кристалл, а умрет GF8800 ее не жалко.
            Когда появились магазины электроники — большая часть ПК «для дома» в них имела низкую цену и встроенную графику.

            Но ПК из Эльдорадо конечно плохой пример, разве не так? Я бы сказал, очень, очень плохой.


            1. Exchan-ge
              18.03.2018 15:21
              +1

              Но даже в случае офисного компьютера по любому лучше запихнуть какую-нибудь старинную GF8800


              У нас около 850 ПК.
              Найдите GF8800 хотя бы для 1% из них )
              Но самое главное — в этом нет никакого смысла, так как GF8800GT — это уровень встроенных видео HD Graphics 4200, 4400, 4600, P4600 и P4700 — уровень 2013 года.

              Но ПК из Эльдорадо конечно плохой пример, разве не так? Я бы сказал, очень, очень плохой.


              Ну, вам не угодить. Сейчас люди предпочитают ноуты и планшеты, в которых другой графики, кроме встроенной вообще нет.


              1. JohnHenry89 Автор
                18.03.2018 15:26

                Найдите GF8800 хотя бы для 1% из них )

                Но зачем? Если они все закупались вместе с одинаковым набором комплектующих, там GF8800 неоткуда взяться.
                GF8800GT — это уровень встроенных видео HD Graphics 4200, 4400, 4600, P4600 и P4700 — уровень 2013 года.

                Не стоит преувеличивать возможности Интелловской графики.
                Ну, вам не угодить. Сейчас люди предпочитают ноуты и планшеты, в которых другой графики, кроме встроенной вообще нет.

                Зависит от возраста. Планшеты люди предпочитали покупать несколько лет назад, а сейчас уже распробовали что это такое (у меня напр. планшеты были только для чтения книг и походов на пляж, да и то изредка).


                1. fatronix
                  18.03.2018 17:41

                  Не стоит преувеличивать возможности Интелловской графики.
                  Тем не менее, современные встроенки от интела на голову выше даже середняков нвидии 400-го поколения.


                  1. Areso
                    18.03.2018 21:00
                    +1

                    gpu user benchmark с вами не согласен. Intel HD 630 не дотягивает даже до GTS 450 (+20%), и существенно отстает даже от дешевых GTX 460 SE (+65%) плат, в то время как референс GTX 460 (+93%) вообще кажется чем-то недостижимым.


                  1. JohnHenry89 Автор
                    18.03.2018 21:07

                    Как заметили ниже, это преувеличение. А GTS450 это дальний потомок GF8800. Так что даже GF8800 как решение может быть актуальна, тем более что может быть получена даром.


                    1. vitalyvitaly
                      19.03.2018 12:26

                      И 630, и часть 730 — все та же архитектура Ферми в еще более урезанном виде. Ну, сижу на 630 DDR5 как раз, для офисного использования и видео пока хватает, но в играх пока не проверял (не играю особо). Не знаком с уровнем 450, но GTX 460 вроде бы по производительности примерно на уровне более поздней 1030, только конечно более горячая. Но по цене такой апгрейд будет вероятно выгоднее, если захочется менять видеоплату и получится ее найти.


                      1. JohnHenry89 Автор
                        19.03.2018 14:18

                        А если вообще вспомнить о БУ GTX680 или HD7970? Самая выгодная покупка ведь сейчас.


                        1. vitalyvitaly
                          19.03.2018 15:33

                          Спасибо за информацию, учту


                1. Soul_in_Gun
                  18.03.2018 23:23

                  Не стоит преувеличивать возможности Интелловской графики.

                  Однако на свежем NUC-е (7-го поколения Core-ей) вполне можно было играть «на минимальных 1080@30» в свеженький к тому моменту BF1, что недоступно для 8800GT ни под каким соусом. Так что — встроенной графики вполне хватит под «кинцо» и прочие непроизводительные вещи и старые игрули лет десяти от роду.


                  1. JohnHenry89 Автор
                    18.03.2018 23:31

                    И внезапно можно добиться 38 средних ФПС на GF8800gt


                1. Exchan-ge
                  19.03.2018 23:56
                  +1

                  Планшеты люди предпочитали покупать несколько лет назад, а сейчас уже распробовали что это такое


                  Это у вас были неправильные планшеты.
                  У меня Surface Pro 4 (i5) — это второй полноценный компьютер у меня на столе.
                  При всех сохранившихся плюсах планшета.
                  И да, на этом планшете видеокарта быстрее, чем 8800 GTS 320 MB 2007 года
                  (время от времени запускаю на этом планшете Fallout 3 :)


                  1. JohnHenry89 Автор
                    20.03.2018 00:05

                    У меня Surface Pro 4 (i5) — это второй полноценный компьютер у меня на столе.
                    При всех сохранившихся плюсах планшета.

                    Насчет полноценности нельзя согласится. Полноценность компьютера это прежде всего его функциональность — способность выполнять задачи. А рабочие задачи планшет наравне с компьютером ATX выполнять не может — нет клавиатуры и мышки. А если они появятся, то планшет тут-же превратится в обрезанный ультрабук. Что удобно делать на планшете не превращая его в ультрабук? Книги читать, да по интернету серфить, музыку послушать, в игру примитивную поиграть. Но о серьезной работе, даже о написании статьи тут речи нет.
                    И да, на этом планшете видеокарта быстрее, чем 8800 GTS 320 MB 2007 года
                    (время от времени запускаю на этом планшете Fallout 3 :)

                    Запустить можно много что, но как играть в шутер, созданный под клаву и мышку? Нужно добавить клаву и мышку, поставить планшет на стол вертикально, да еще и в зарядку бы воткнуть, чтобы батарея не села. А это будет уже концептуально не планшет, а ультрабук. С таким успехом можно прикупить дешовый ноутбук который ту-же игру потянет без проблем.
                    Это конечно мое мнение, но считаю его полностью обоснованным. Планшеты стали популярными и будут занимать свою нишу не потому что они функциональны, а потому что их функциональности с головой хватает определенной группе людей.


                    1. Exchan-ge
                      20.03.2018 00:25

                      Полноценность компьютера это прежде всего его функциональность — способность выполнять задачи.


                      Похоже, что вы просто незнакомы с Surface Pro 4 )
                      Единственное принципиальное отличие от моего десктопа — ограниченный конструктивом (неразборный девайс) объем оперативной памяти. Даже с обычными дисками проблем нет — к док станции самого Surface подключен док для двух HDD (да и Apple USB SuperDrive — тоже :)

                      нет клавиатуры и мышки.

                      Есть, и в отличии от ультрабуков — клавиатура отстегивается (мышь блютуз)

                      но как играть в шутер, созданный под клаву и мышку?


                      Я же сказал, что у вас были неправильные планшеты ) С клавой и мышкой все в полном порядке, как и с графикой в Нью-Вегас.

                      поставить планшет на стол вертикально,


                      У Surface встроенная откидная подставка. Не каждый монитор позволяет регулировать угол наклона — Surface это позволяет.

                      Планшеты стали популярными и будут занимать свою нишу


                      Это было первое поколение планшетов (iPad и его клоны)
                      Surface Pro — это второе.
                      И клонов у него уже тьма-тьмущая, Samsung Galaxy Book 12 например.


                      1. JohnHenry89 Автор
                        20.03.2018 00:37

                        Единственное принципиальное отличие от моего десктопа — ограниченный конструктивом (неразборный девайс) объем оперативной памяти. Даже с обычными дисками проблем нет — к док станции самого Surface подключен док для двух HDD (да и Apple USB SuperDrive — тоже :)

                        Так дело не в начинке — многие ноутбуки за свою жизнь вообще никогда не испытывают смены каких-либо комплектующих.
                        Есть, и в отличии от ультрабуков — клавиатура отстегивается (мышь блютуз)

                        Главное не в наличии или возможности, а в практическом применении. Практическое применение клавиатуры и мыши у планшета будет такое-же как и у ультрабука — ноутбука. И планшет превратится в урезанный ноутбук. Вины самого планшета тут нет, просто задача которую он выполняет (напр. игра в шутер) требует именно ноутбука/ стационарного компьютера и ограничивается вовсе не железом внутри.
                        Я же сказал, что у вас были неправильные планшеты ) С клавой и мышкой все в полном порядке, как и с графикой в Нью-Вегас.

                        Смтр. выше. Ну если точнее — как выглядит игровой процесс в Fallout 3 на планшете? Можно получить описание?
                        У Surface встроенная откидная подставка.

                        Да знаю я это! Речь идет не о возможности, а том что для игры планшет будет превращен в ноутбук.
                        Не каждый монитор позволяет регулировать угол наклона

                        По-моему каждый. Даже ЭЛТ мониторы.
                        Это было первое поколение планшетов (iPad и его клоны)
                        Surface Pro — это второе.
                        И клонов у него уже тьма-тьмущая, Samsung Galaxy Book 12 например.

                        Ну вообще было еще более старое поколение, просто планшеты не получили распространения до мощной рекламной акции Эппл, да и железо за ними не поспевало. Вспоминаем Microsoft Tablet PC.
                        Однако, дело не в поколениях — функциональность и концепция устройства не меняется между поколениями. В противном случае, устройство сменило бы название. Если на планшете по определению нельзя было играть в шутеры, созданные для клавиатуры + мышь, не превращая его в аналог ноутбука (т.е. уже выводя из класса) то ни на каком поколении этого нельзя будет делать.


                        1. Exchan-ge
                          20.03.2018 01:02

                          многие ноутбуки за свою жизнь вообще никогда не испытывают смены каких-либо комплектующих.


                          Мой старенький Mac-F2268AC8 еще будучи гарантийным — проапгрейдил память. А количество замен HDD и SSD я уже не помню. Плюс поменяли батарею. Потому как Нургалиев Джобс разрешил — в мануале даже была инструкция по замене самим пользователем.
                          Потом Эппл прикрыло лавочку.
                          Для ноутбуков возможность замены чего-либо ограничена искусственно.

                          И планшет превратится в урезанный ноутбук


                          Почему- урезанный? Там полная функциональность ноута, включая практически полноразмерную клаву с тачем.
                          И время работы больше, чем у большинства «полноценных» ноутов.

                          как выглядит игровой процесс в Fallout 3 на планшете? Можно получить описание?


                          Так же как и на десктопе — одна рука на клаве, другая на мышке.
                          (Там другая проблема — свободного времени мало )

                          По-моему каждый. Даже ЭЛТ мониторы.

                          Это вам в жизни повезло.

                          Вспоминаем Microsoft Tablet PC.

                          У меня был в руках UMPC от самсунг — Q1
                          Технически интересная штучка, но совершено бесполезная в реальной жизни. Потом подался какой-то таблет от НР на шарнире — по факту это был обычный нетбук со всеми присущими нетбукам недостаткам.
                          Сейчас совсем другое.

                          В противном случае, устройство сменило бы название.

                          Это как маркетологи решат )

                          Если на планшете по определению нельзя было играть в шутеры, созданные для клавиатуры + мышь, не превращая его в аналог ноутбука (т.е. уже выводя из класса)


                          Тем не менее — Surface Pro это планшет, а не ультрабук.
                          Планшет, на котором можно играть в шутеры.


                          1. JohnHenry89 Автор
                            20.03.2018 01:13

                            Мой старенький Mac-F2268AC8 еще будучи гарантийным — проапгрейдил память.

                            С потерей гарантии.
                            Для ноутбуков возможность замены чего-либо ограничена искусственно.

                            Скорее просто отработали свою жизнь а там на органы как донора.
                            Так же как и на десктопе — одна рука на клаве, другая на мышке.
                            (Там другая проблема — свободного времени мало )

                            Вот об этом и речь. Для игры планшет нужно превращать в ноутбук и даже более — аналог стационарного компьютера. По-другому никак. Вот и ограничение функциональности планшета как отдельного устройства которое требовалось доказать — чтобы играть в игры напр. нужно перевести его в состояние ПК. По-другому никак.
                            Тем не менее — Surface Pro это планшет, а не ультрабук.

                            Безусловно. Но в виде планшета он не может выполнять большое число функций и чтобы их выполнить приходится переводить его в состояние ноутбука или ПК.
                            Планшет, на котором можно играть в шутеры.

                            Но только если есть клавиатура и мышь. Как на планшете сыграть не получится.


                            1. JC_IIB
                              20.03.2018 09:32

                              С потерей гарантии.


                              С какого перепугу? Читайте внимательнее, там написано, что даже в официальной инструкции есть раздел, как это делать. У моих MacMini та же штука.


                      1. sumanai
                        20.03.2018 04:21

                        Это было первое поколение планшетов (iPad и его клоны)
                        Surface Pro — это второе.

                        У вас какие-то странные представления о поколениях планшетов. То, что вы назвали первым, живёт и здравствует, а что вы назвали вторым — загнивает на задворках истории (к сожалению), и никак не может быть продолжателем «первого».


              1. JekaMas
                18.03.2018 17:52

                Почему же нет на ноутах не встроенной графики?


                1. zxweed
                  18.03.2018 22:34

                  на очень многих есть, а на некоторых — даже две внешних видеокарты


        1. sumanai
          18.03.2018 16:13
          +2

          Но популярности они никогда не имели.

          Именно что в прошедшем. Сейчас они бодро вытесняют нижний сегмент. Отсюда и рост характеристик и цен самых дешёвых образцов — делать более дешёвые и слабые просто не имеет смысла, встройка их перекроет. Поэтому через некоторое время нижний ценовой сегмент исчезнет как класс.


        1. ToshiruWang
          19.03.2018 13:46

          2. Современные ядра в 3д вполне тягаются с безвентиляторными видеокартами 5летней давности (сравнивали), так тягаются, что осталяют позади.

          Вы просто проспали этот момент.


          1. JohnHenry89 Автор
            19.03.2018 14:23

            От производителя зависит, но то что встроенным решениям легко будет превзойти HD7850 я сомневаюсь.
            image


            1. Exchan-ge
              20.03.2018 00:04
              +1

              но то что встроенным решениям легко будет превзойти HD7850 я сомневаюсь.

              Эту уже превзошли:
              image

              (ASUS Dark Knight Radeon HD 4870)


              1. JohnHenry89 Автор
                20.03.2018 00:08

                У меня такая была лет 10 назад, только синяя (от той-же фирмы). Прогресс движется семимльными шагами — всего через 10 лет…


    1. alan008
      18.03.2018 10:50

      Вся стаья вообще одно сплошное ИМХО


      1. JohnHenry89 Автор
        18.03.2018 13:37

        Спасибо, я не такой скромный — IMO.


    1. JohnHenry89 Автор
      18.03.2018 13:33

      Это не видно никак. Предлагаю посмотреть на графики — на карты AMD на которых по большей части майнили всегда почти не растут в цене, а видеокарты NVIDIA испытывают естественный рост цен S-образной формы. Смешно ли сказать, но майнинг никак не сказался, вопреки расхожему мнению. На пост-советском пространстве популяризацию майнинга (а до нас все доходит с маленьким опозданием) совпала с падениями национальных валют в результате политического кризиса, вот все майнеров и обвиняют.


      1. arheops
        18.03.2018 15:39

        Ну как же не видно, если с декабря прошлого года скачек стоимости составил 100%+ и большая часть его изза крипты.
        Просто у вас все округленно тем, что погрешность графика у вас 200% и «экспоненциальный рост цены».


        1. JohnHenry89 Автор
          18.03.2018 20:56

          Дык стартовые цены оцениваем-то.


      1. ToshiruWang
        19.03.2018 13:50

        Они не растут в цене, т.к. просто нет в наличии, кроме самых топовых. Выросли с 35к до 60к и почти исчезли из продажи в наших широтах (а теперь уже и в соседней стране).
        PS. Процессоры как-то так не выросли в то же время.


  1. MAXInator
    17.03.2018 20:27

    Я, конечно, заподозрил, что что-то не так, примерно на «дайте сравнить», но пересилил себя. А потом автор назвал кулер с радиальным вентилятором «турбиной». К чертям таких диванных экспертов и их рассуждения.


    1. JohnHenry89 Автор
      18.03.2018 13:40

      Турбина — устоявшееся и закрепившееся название как для самого типа систем охлаждения, так и для характерного типа вентилятора в этих системах. Оно всем понятно и нету никаких причин применять иное.


      1. nlykl
        18.03.2018 21:57

        Иногда такой тип охлаждения еще называют бловер.


      1. MAXInator
        19.03.2018 19:28

        Устоявшееся, видимо, где-то в каком-то узком кругу. Даже сленговое «крыльчатка» (применительно к кулеру) гораздо ближе и адекватнее «турбины». Так что оно не всем понятно и есть как минимум две причины применять иное — существование двухвентиляторных кулеров, более похожих на турбину, и малорастространненость названия «турбина» применительно к сабжу.


        1. Turbojihad
          19.03.2018 19:52

          Да все называют такую СО турбинной, хватит умничать. В английском варианте — Blower.


          1. MAXInator
            19.03.2018 21:02

            Ну, вас таких шестеро, значит. До «все» все равно не дотягиваете.


            1. Turbojihad
              19.03.2018 22:55
              +1

              Попробуйте ввести в гугле «видеокарта турбина», и посмотреть найденные картинки, статьи.
              Посчитайте пожалуйста сколько таких там еще.


          1. JC_IIB
            19.03.2018 21:37

            хватит умничать


            Отличный аргумент на IT-ресурсе, чо уж там. Так мы и до «чё, самый умный штоле?» докатимся.

            p.s. он прав, называть эту конструкцию «турбиной» — безграмотная чушь, распространненость которой никак ее не оправдывает.


      1. Alexeyslav
        19.03.2018 23:07
        +1

        Вообще это центробежный насос. Если верить википедии, по большому счету ЭТО называется вентилятором/компрессором. Скорей всего вентилятор вне зависимости от конструкции — Вентилятор — устройство для перемещения газа со степенью сжатия менее 1,15 а до звания компрессора надо добавлять мощности прилично чтобы создать перепад давлений больше 15кПа.
        Турбина, вне зависимости от конструкции, это устройство обратного преобразования — потока воздуха в механическую энергию.


  1. Neuromantix
    17.03.2018 20:33

    Если бы лет 20 назад кто-то пересмотрел компоновку компьютерных плат таким образом, чтобы конвективные потоки улучшали охлаждение… Хотя бы разместить видеокарту греющимися элементами вверх, чтобы они не жарились в собственном тепле (а если стоит несколько плат расширения — то все становится еще хуже). Почему-то интерфейсы и прочее менялось уже хз сколько раз, а эта дурацкая, на мой взгляд, компоновка до сих пор из 90-х откуда-то идет.


    1. Meklon
      17.03.2018 22:17
      +1

      Положите системный блок на бок)


      1. Exchan-ge
        17.03.2018 22:51
        -1

        Положите системный блок на бок)


        Будет еще хуже. Проверено в эпоху всеобщего увлечения HTPC корпусами (около 2007 г.)
        Именно тогда в ход пошли «слотовые» кулеры (см. ниже) — без них такие корпуса вообще превращались в «буржуйку»

        image


      1. keishi
        18.03.2018 01:07
        +1

        Что любопытно, когда системный блок ставили на бок в первый раз, с горизонтального (типа desktop) в вертикальный (tower), компоненты плат как раз смотрели вверх (ISA/VLB на тот момент).


        1. quwy
          18.03.2018 19:42

          Ничего удивительного. Когда переходили с ISA на PCI, решили сэкономить одну прорезь в корпусе на стыке разных шин. Чтобы ее можно было использовать для обоих типов карт расширения. Вот тогда PCI и оказался головой вниз, а за ним и PCIe.


    1. Exchan-ge
      17.03.2018 22:27

      Если бы лет 20 назад кто-то пересмотрел компоновку компьютерных плат таким образом


      Как раз 20 лет назад эта компоновка и была пересмотрена- на смену АТ пришел АТХ.
      В качестве довода для смены стандарта как раз приводилось улучшение охлаждения элементов материнской платы и карт расширения )


    1. Barnaby
      17.03.2018 23:07

      Это все из-за плоского PCI-E. Когда его заменят на что-то современное тогда и будут клепать видюшки любой массы и размера, хоть на 1000 Ватт.


      1. Exchan-ge
        17.03.2018 23:17

        Это все из-за плоского PCI-E. Когда его заменят на что-то современное тогда и будут клепать видюшки любой массы и размера, хоть на 1000 Ватт


        Скорее всего — перейдут к исполнению мощных видеокарт в виде отдельного выносного блока со своим охлаждением и питанием.
        И тогда в основном системнике снова станет тихо, прохладно, сухо и комфортно.

        (Да и сам системник будет много меньше по размерам, чем внешняя видеокарта )

        image


        1. Alex_Q
          18.03.2018 02:15

          Тогда столкнутся с проблемами индуктивности и наводок в PCI-E или что там его заменит.


          1. 15432
            18.03.2018 02:59

            Уже есть внешние боксы под видеокарту. С охлаждением и всем прочим. Подключаются по Thunderbolt.


            1. JC_IIB
              18.03.2018 04:00

              Да, только сам бокс пустой стоит как видеокарта миддл-класса.


              1. Kain_Haart
                18.03.2018 08:21

                У Gigabyte есть модели «Gaming box» идущие с внешним боксом в комплекте и по вполне сопоставимой цене


              1. Konachan700
                18.03.2018 23:24

                Так сколько этих боксов делают, десятки тысяч в год в лучшем случае… Вот и цена высокая. Будут тиражи в миллионы — бокс будет стоить копейки.


      1. JohnHenry89 Автор
        18.03.2018 13:47

        Увы, его еще не скоро заменять. Старый AGP заменяли, заменяли, но у меня не могли не вызывать улыбки, даже через 10 лет после замены AGP, шины PCI-E на средних видеокартах с уменьшенным числом контактов. PCI-E все еще глубоко избыточен для современных игровых требований.


    1. JohnHenry89 Автор
      18.03.2018 13:44

      ATX, да, безусловно устарел. Его проблема в том, что стандарт разрабатывался когда тепловыделение всего компьютера шло максимум на 100Вт, а блоки питания в 230Вт считались мощными и достаточными. Когда сейчас тепловыделение во время нагрузки подскакивает выше 300Вт, он создает трудности для охлаждения. Ну и плюс башенные кулеры которых не было тогда.
      Вообще я сам по себе твердый сторонник полностью открытого корпуса, без всяких крышек, собранном полностью на алюминиевом профиле. Пусть даже расположение компонентов остается ATX.


    1. balamutang
      18.03.2018 15:23
      +1

      Дык интел придумали BTX, в том числе и для того чтоб оптимизировать охлаждение. Но как-то не пошло и сам же Интел все это свернул первый


    1. irnis
      18.03.2018 21:02

      охлаждение воздухом всяко имеет ограничение по плотности отводимой мощности…

      если бы разработали стандарт для плат с двумя сокетами — для CPU и GPU и годный для удобного жидкостного охлаждения…


      1. JohnHenry89 Автор
        18.03.2018 21:04

        Однако принципиально жидкостное охлаждение слабо отличается от воздушного — все равно воздух продувается вентилятором через радиатор. Отличается лишь теплоноситель и в СВО появляется возможность вынести радиатор с вентилятором подальше, в более удобное место. А так-то там все тоже самое.


        1. irnis
          18.03.2018 21:38

          да, но например, радиатор можно будет вынести на заднюю стенку корпуса и сделать его на всю высоту. Или задействовать холодную воду из водопровода :), или в свете современных «зеленых» тенденций — «сливать» это тепло в тепловой аккумулятор дома (это для частных домов, разумеется).

          Или наоборот — расточительный, но компактный в плане места вариант — охлаждать теплоноситель элементами Пельтье, более высокая температура выносного радиатора позволит более эффективно отдавать тепло при меньших размерах, но за счёт того, что и радиатор будет сколько-то потреблять :)

          Про то, что при этом кардинально улучшится температурный режим внутри корпуса, я уже и не говорю.

          Ниже, кстати, почти один в один предложили вариант — geektimes.ru/post/299135/#comment_10670797 :)


          1. JohnHenry89 Автор
            18.03.2018 21:50

            Или задействовать холодную воду из водопровода

            Я на полном серьезе рассматривал эту идею, вода-то не по счетчику. Меня остановили прежде всего цены на ватерблоки тогда ну и плюс если не будет воды, не будет и компьютера. А в остальном все несложно — фильтр из ваты против взвешенных частиц, трубки с катионитом и анионитом, на выходе деминерализованная вода.
            или в свете современных «зеленых» тенденций — «сливать» это тепло в тепловой аккумулятор дома

            По секрету — 400Вт которые валят из самого горячего ЦП и видеокарты мало для обогрева даже небольшого помещения. Они только летом хорошо подогревают воздух, когда в нем под 35 град.
            Или наоборот — расточительный, но компактный в плане места вариант — охлаждать теплоноситель элементами Пельтье

            Но это опять-же слишком дорого, даже с пост-советскими ценами на электричество. У элемента Пельте КПД ок. 30%, так что для охлаждения устройств с тепловыделением 400Вт нужна 1.2 кВт батарея элементов Пельте.
            Про то, что при этом кардинально улучшится температурный режим внутри корпуса, я уже и не говорю.

            Обдумывая все это я пришел к идее полностью открытого корпуса, без каких либо стенок. Уже год эксплуатирую черновой вариант, в конце лета наверняка соберу себе окончательный вариант из оксидированного и окрашенного в черный цвет алюминиевого профиля, специальных пластиковых уголков для него и даже не поленюсь заворонить стальной крепеж в смеси NaNO3 и NaOH.
            Я считаю, что полностью открытый корпус — лучшее что сейчас можно сделать из реального.
            Ниже, кстати, почти один в один предложили вариант

            Я видел. Влияние ноутбучных технологий прослеживается. На практике несложно сделать почти тоже самое если взять вместо тепловых трубок общую СВО.


            1. irnis
              19.03.2018 00:20

              > Меня остановили прежде всего цены на ватерблоки

              да, из-за того, что водяное охлаждение считается чем-то элитным — цены на компоненты запредельные. А было бы это чем-то массовым — было бы совсем другое дело.

              > если не будет воды, не будет и компьютера.

              если не будет электричества — тоже :), а теплоёмкость у воды неплохая, чтобы воду в офисном кулере 20л нагреть на 20 градусов — надо полкиловатта в течении часа…

              > 400Вт которые валят из самого горячего ЦП и видеокарты
              > мало для обогрева даже небольшого помещения

              это я понимаю.., но сам смысл «зеленых» технологий именно в том, чтобы собирать «уходящее» тепло везде понемногу — на вентиляции, на сточных водах, на охлаждении компа…

              > что полностью открытый корпус — лучшее что сейчас
              > можно сделать из реального.

              есть мнение, что это не так — в открытом корпусе очень сложно управлять воздушными потоками. Как-то видел даже статью о том, что для тех же майнинговых ферм лучше ставить ограничители, которые разделяют воздушные потоки и гарантируют, что к каждой видеокарте подводится холодный воздух «снаружи», а не уже подогретый соседом.

              > На практике несложно сделать почти тоже самое если взять
              > вместо тепловых трубок общую СВО.

              опять же всё упирается в массовость и, соответственно, в цену, да и то, что сокеты CPU и GPU лежат в ортогональных плоскостях, делает систему «сильно трехмерной», а будь они в одной плоскости — система получилась бы более компактной.


              1. JohnHenry89 Автор
                19.03.2018 13:50

                если не будет электричества — тоже :), а теплоёмкость у воды неплохая, чтобы воду в офисном кулере 20л нагреть на 20 градусов — надо полкиловатта в течении часа…

                Дык 20 литров-то. В случае с проточной водой главное преимущество — не нужно охлаждать теплоноситель. Ну и в конце концов пойду я помыться — напор-то упадет, а бывают моменты когда напор вообще слабый и его хватает только на включение колонки. Тогда опять-же компьютер становится нефункциональным.
                есть мнение, что это не так — в открытом корпусе очень сложно управлять воздушными потоками.

                Там в этом необходимость отпадает. Во-первых, каждый компонент имеет свое воздушное пространство и его кулер охлаждает именно его. Во-вторых, в отличии от закрытого корпуса, вокруг всегда находится неограниченный объем свежего холодного воздуха.
                опять же всё упирается в массовость и, соответственно, в цену, да и то, что сокеты CPU и GPU лежат в ортогональных плоскостях, делает систему «сильно трехмерной», а будь они в одной плоскости — система получилась бы более компактной.

                Однако, дело как раз в том, что мы возвращаемся как раз к ATX, просто с системой водяного охлаждения.


  1. googlodrocher
    17.03.2018 20:35

    670 GTX оверлокнутая вполне ещё игробабельна на 1920*1080.


    1. JohnHenry89 Автор
      18.03.2018 13:47

      Безусловно. Сейчас одна из лучших покупок на БУ рынке.


  1. oren
    17.03.2018 20:36
    +3

    Первые поколения распространенных графических ускорителей обходились даже без радиаторов, как мы видим на примере S3 Trio

    У вас неточность в сравнениях. S3 Trio была 2D ускорителем.
    3D/2D ускоритель тех времён выглядел вот так:

    image


    1. Exchan-ge
      17.03.2018 22:36

      У вас неточность в сравнениях. S3 Trio была 2D ускорителем.
      3D/2D ускоритель тех времён выглядел вот так:


      Voodoo Rush вышел в 1997, когда S3 Trio (пик популярности — 1995) уже была архаизмом
      (в реалиях ВТ того времени — год надо считать за пять нынешних )


      1. dimanhursky
        18.03.2018 10:40

        Жаль что ISA видео адаптер не сохранил. Тоже монстры были. Потом микроэлектроника их маленькими сделала.
        Ну на фото разница 10-12 лет от 1995 к 2007 году. Обычная видуха и 3Д комбайн.
        image


        1. Camill
          18.03.2018 16:19

          Фото надо перезалить.


      1. tSmoker
        19.03.2018 10:57
        +1

        Вы в какой стране жили, если не секрет?
        В 1997 и на 486-ом можно было комфортно жить, не говоря уже о «устаревшей» S3 Trio, о производительности видеокарт в те времена массовый покупатель вообще не думал. Тогда оперативки бы не 8 а 16Мб… вот это да — апгрейд. А видеокарта — просто есть и всё.


        1. Exchan-ge
          20.03.2018 01:13

          В 1997 и на 486-ом можно было комфортно жить


          Всегда есть люди, готовые жить и работать в спартанской обстановке.
          Но «486» и «комфорт» для 1997 года уже не были синонимами.
          1997 — это время TX97-E i430TX и Pentium 266MMX. Да и память к этому времени подешевела, насколько я помню. Плюс винты уже были от 1,6 Гб (Caviar AC31600) до 3,2 Гб (Caviar AC33100).


          1. tSmoker
            20.03.2018 01:32

            Я в смятении, серьёзно. Судя по тому, что вы игнорируйте мой вопрос о стране проживания, вы наверное жили в России и наверное в Москве.
            Я сам просто в Москве не жил, и может у вас там в 1997 (а особенно в 1998, август, да) и покупали массово новые процессоры на старте продаж… может быть, но поверьте остальная страна жила по другому. И еще раз повторю — массовый покупатель не смотрел на видеокарту вообще (она просто была и всё), максимум учитывалась доступность драйверов в условиях недоступности интернета.
            … для кого-то просто любой «персональный компьютер» и «комфорт» уже были синонимами. Но я понимаю что страна в 90-ых оч по разному жила.


            1. JohnHenry89 Автор
              20.03.2018 01:34
              +1

              Но я понимаю что страна в 90-ых оч по разному жила.

              А сейчас нет?


    1. dragonnur
      17.03.2018 22:38

      можно вспомнить Virge 3d


      1. Exchan-ge
        17.03.2018 23:05

        можно вспомнить Virge 3d


        Разве что в контексте появления термина «видеоускоритель» и «3D» применительно к видеокартам.

        3D, как явление — появилось в 1996 г., вместе с Voodoo Graphics.
        Я еще помню восторги по этому поводу в «Мире игрушек» и как чертыхались люди, купившие себе перед этим довольно дорогие видеокарты, на которых из 3D-игрушек ничего не запускалось )
        Но Voodoo Graphics было редким и дорогим удовольствием, и 3D реально пошел в массы как раз начиная с более дешевого и глючного Voodoo Rush.


  1. vaim
    17.03.2018 20:38

    вспомнился мой радеон 9800SE успешно разлочившийся и получивший сверху Zalman ZM80C-HP. Это был 2003 или 2004 год, примерно. Под DOOM 3 комп апгрейдился.
    image
    image
    image
    Картинки отсюда


    1. Ommonick
      17.03.2018 20:55
      +1

      Ух зачетный франкенштейн!


    1. JohnHenry89 Автор
      18.03.2018 13:49

      Однако по современным меркам все равно СО кажется слабой.


      1. vaim
        18.03.2018 14:22

        Но тогда то она была зашибись, позволяла нещадно гнать. Опять же это сейчас мы тепловыми трубками зажрались, а тогда у меня в компе стоял вот этот монстр и на проце scythe katana, что, в целом, было редкостью. Родной радиатор на 9800 был по сегодняшним меркам вообще смешон.
        image


        1. JohnHenry89 Автор
          18.03.2018 15:14

          Мне вообще всегда было интересно на что способны видеокарты тех поколений с современным СО. Тут проблема только в том, что программно вольтмод не так просто на них сделать.
          У меня в те времена, кстати была Сапфировская Radeon 9600.


          1. vaim
            18.03.2018 15:27

            А смысл? Для экстремального разгона тогда и водой охлаждали и жидким азотом.
            Опять же сегодня агпшная карта? ну не знаааююю...


            1. JohnHenry89 Автор
              18.03.2018 15:29

              Ради эксперимента, просто посмотреть на что они способны даже задним числом. Но речь идет скорее не об экстремальном разгоне, а об обычном разгоне с умеренным, разумным, повышением напряжения.


              1. vaim
                19.03.2018 14:23

                ну, тогда, флаг в руки.
                именно по 9800se в плане вольтмода особых проблем не наблюдается


                1. JohnHenry89 Автор
                  19.03.2018 14:27

                  10% по частоте всего при повышении напряжения вдвое (а тепловыделение вообще в кубе вырастет) — не очень хороший результат. Но в смысле техноблогинга тема благодатная — старые видеокарты продаются чуть ли не на вес, а потому доступны. И их не жалко если что.


                  1. vaim
                    19.03.2018 18:21

                    ну вот я повторю: 9800SE, разлочка, залман вот этот и на память радиаторы наклеил алсилом, вентилятор залмановский вполне удачно весь этот конструктив обдувал, позволяя гнать. Вольтмодом не морочился.


  1. Conscience
    17.03.2018 21:45

    Прогнозы ниочень, вы совершенно не учитываете развитие облачных сервисов (GeForce Now например).


    1. mistergrim
      17.03.2018 21:58

      Обычному игруну от них ни горячо, ни холодно.


    1. pda0
      18.03.2018 01:08
      +2

      Что-то я не верю в них. Попытки вернуться к модели мейнфрейм-терминал предпринимаются с 90-х (если не раньше). Увы, все мечтатели забывают о том, почему от этой модели ушли. Латентность сети всегда будет выше локального устройства. Плюс, первопроходцы виртуальных игровых консолей не учли, что пережатие картинки для стримминга замылит её и снабдит артефактами, на что обращали внимание все, кто пробовал пользоваться этими сервисами.

      Плюс аппаратные консоли, с их железом ниже себестоимости. Плюс из-за паритета в железе с PC, консоли уже выходили слабее, чем топовые PC на момент их выпуска. Но игроделы оказались вынуждены подстраиваться под них, тем самым ограничивая аппаратные требования.

      Т.е. целевой аудиторией облачного гейминга оказалась очень странная прослойка людей, которые имеют компьютер с Intel вместо видеокарты, не имеют приставки, но хотят играть. А если вспомнить про ограничение требований под консоли, то уже через пару лет после выпуска очередного поколения, проблема «поиграть» решается покупкой самой бюджетной видеокарты, которая там не менее перекроет по качеству картинки и латентности облачный сервис.


      1. farcaller
        18.03.2018 01:29

        > которые имеют компьютер с Intel вместо видеокарты

        или мак головного мозга

        На самом деле я в восторге от GeForce Now — можно спокойно побегать в современный шутер на рабочей машинке. Не надо игровое железо. Работает в командировке. Ну это все правда пока оно бесплатно (впрочем Parsec + AWS не сильно дорогой)


        1. pda0
          18.03.2018 13:14

          Ну, здорово, что это вам помогает. Но по моему мнению, командировочные, хотящие поиграть и те, у кого есть время играть на работе — слишком маленькая клиентская база, чтобы оправдать содержание дорогого железа. По крайней мере все предыдущие попытки открыть такие сервисы закрывались именно по причине низкой популярности.


          1. Areso
            18.03.2018 13:33

            Закрывались они и по другим факторам. Во-первых, во многих нужно было или покупать игры заново, или играть в то, что дают по подписке. Во-вторых, никаких модов. В третьих, высокие сетевые задержки. Наконец, командировочные (особенно вахтовики) часто работают в таких местах, где интернет работает медленно, видеопоток по такому соединению не передать.
            Из условно отечественных: Playkey и Loudplay. Первый, правда, Linux до сих пор не поддерживает как клиента, а жаль.
            Наконец, я знаю как минимум двух человек, отказавшихся от облачного стриминга, потому что он пережимает аудиопоток с большими потерями(!). Как хорошо, что я не меломан)
            Кроме латенси, тут другая модель: OPEX vs CAPEX. Вот так взять и вывалить тысяч 50 за игровой компьютер могут далеко не все работающие люди, а платить подписку — около тысячи рублей в месяц — доступно даже студентам и школьникам (хоть и не всем).


          1. farcaller
            18.03.2018 17:02

            Тот же GeforceNow не содержит железо, а арендует у Amazon. Естественно какую-то часть они бронируют на долгие периоды для снижения стоимости, но в целом расходов по железу у них нет. А что делать с видеокартами амазону — это проблема амазона уже.


            1. pda0
              18.03.2018 18:21

              Дёшево у Amazon? Это что-то интересное, с чем я раньше не сталкивался…


      1. Conscience
        18.03.2018 10:11

        Что-то я не верю в них.

        А вы попробуйте.


    1. JohnHenry89 Автор
      18.03.2018 13:50

      Их невозможно учитывать т.к. никакого влияния они пока не оказывают на рынок.


      1. Conscience
        18.03.2018 15:14
        +1

        Майнеров тоже никто не учитывал, а потом бабах, и средние видяхи по 500 баксов.


  1. ClearAirTurbulence
    17.03.2018 22:34

    «Быстрый выход из строя видеокарт при майнинге, происходящий задолго до истечения гарантийного срока, подтверждает эти выводы.»

    Странно в очередной раз слышать это предположение (если это факт, просьба дать пруфы). Особенно учитывая, что (а) часто для техники предпочтителен постоянный режим работы, и (б) для майнинга карты часто подвергают андерклокингу.


    1. Marwin
      17.03.2018 22:57

      имею опыт сгорания карты с андерклокингом… понятно, что 1 карта — не показатель, но всё же интересно. Сгорела гигабайтина 1070 после примерно полугода майнинга. Пара резисторов на цепях питания. Перепаяли, поставил обратно на 70% TDP уже в другой комп. Температуры были на ~15-20 градусов ниже. Один фиг через месяц перегорели еще пара резисторов в другом месте.


      1. Popadanec
        17.03.2018 23:48

        Выгорающие цепи питания, включая сами разъёмы, это норма для майнинга.


      1. stalinets
        18.03.2018 01:39

        У меня тоже было в своё время. Майнил на разогнанной Radeon 5770, сначала через несколько месяцев пошли артефакты, потом вообще отказалась стартовать. Поменял на 7770, тоже разогнал (но менее люто), помайнил на ней ещё несколько месяцев, пока сложность не сделала это невыгодным, и эта карта и сейчас работает у меня.


    1. JohnHenry89 Автор
      18.03.2018 13:52

      Но ведь видеокарты при майнинге ломаются чаще чем при своей стандартной работе. Факт?


      1. slonopotamus
        18.03.2018 14:18

        Вы сейчас сделали некоторое утверждение и хотите чтобы оппонент нашел ему подтверждение? Это так не работает. Но статья интересная, спасибо.


        1. JohnHenry89 Автор
          18.03.2018 15:12

          Спасибо.
          Нет, я вполне серьезно спрашиваю насчет того факт ли это или нет. Просто если бы лично меня спросили о выходе из строя видеокарт при майнинге, я бы все-таки отнес это явление к факту.


          1. TrllServ
            19.03.2018 04:12

            Можно ли считать проданные недавно 3шт 780 отработавшие 24/7 почти 3 года опровержением?


            1. JohnHenry89 Автор
              19.03.2018 14:13

              Можно конечно. Поразительно.


              1. Hellsy22
                19.03.2018 19:55

                Почему? Равномерная нагрузка, чаще всего еще и в температурном режиме до 80 градусов. Карты регулярно чистят.


                1. JohnHenry89 Автор
                  19.03.2018 20:42

                  Все равно ахиллесовой пятой видеокарт являются элементы системы питания, очень часто транзисторы выгорают.


              1. Mad__Max
                20.03.2018 07:25

                Это скорее норма.
                У меня из 10 карт еще 7 штук вполне живы после больше 4 лет почти непрерывной круглосуточной работы под полной нагрузкой (около 2х лет майнинг, дальше научные распределенные вычисления в основном).

                Причем 3 шт накрылись в первые год-полтора работы — отсеился брак, а прошедшие отсев с тех пор работают без проблем.
                В одной производитель вместо смазки в вентиляторах применял какое-то дерьмо, которое при длительных работах при повышенных температурах густело до тех пор пока вентилятор не «вставал колом» — в холодном виде даже пальцем с трудом можно было провернуть (вот кто-то бы мог подумать что для смазки деталей изначально предназначенных для охлаждения горячих чипов нужно использовать смазку не боящуюся высоких температур?!)
                Можно было бы не сложно починить (поменять вентиляторы или даже попытаться разобрать и спазать), но я сдал это дерьмо обратно производителю и получил деньги назад.

                В 2х других что-то выгорело в цепях питания.


  1. vitalyvitaly
    18.03.2018 00:33

    Автору повезло, что он не видел полноразмерных плат CGA или EGA в исходном виде, или например более древний S3 928, или например IBM PGA. Со временем всех этих упаковали в мелкий чип, но конечно далеко не сразу. Вероятно, так будет и в будущем, если вообще будут отдельные бюджетные видеокарты. Но альтернативных производителей чипов больше нет и чем дальше, тем больше рынок бюджетных карт превращается в зоопарк доисторической эпохи — вот у нас в магазинах электроники год за годом продают Geforce 210, Radion 6450 и компанию, причем в коробках без указания на этот факт, а под названием вроде «Супер Мега Video Card». Грустно это.


    1. keishi
      18.03.2018 01:21
      +1

      полноразмерных плат CGA или EGA в исходном виде, или например более древний S3 928, или например IBM PGA.

      Как-то так?
      image


      1. da-nie
        18.03.2018 17:10

        Вот такие я и поломал несколько лет назад. Теперь жалею. :(


      1. vesper-bot
        19.03.2018 12:44

        Ух ты, Hercules! Она, кажется, 1024х768 умела в те времена…


        1. ToshiruWang
          19.03.2018 14:32

          720х348, что по тем временам всё равно выглядело космически.


      1. Mad__Max
        20.03.2018 07:30

        Да, типа такого.
        В моем первом x86 компьютере CGA карта под ISA шину по размеру была равна материнской плате (и располагалась прямо над ней формируя «2й этаж» и соединяясь с материнской платой через «елочку»). Еще даже больше чем на этом фото (длина примерно такая, только шире).

        Следующая (сразу VGA минуя EGA) была уже раз в 5 меньше по размеру.


    1. Deaddy
      18.03.2018 08:40

      Да, помню, специально для таких карт были направляющие на передней стенке корпуса.


    1. Exchan-ge
      18.03.2018 10:32

      Автору повезло, что он не видел полноразмерных плат CGA или EGA в исходном виде


      Карты для VESA local bus тоже не были маленькими, но встречались чаще.

      Cirrus Logic CLVGA542XVL/H
      image


    1. JohnHenry89 Автор
      18.03.2018 13:54

      Однако-же их никто и не покупает сейчас. Но в нынешней ситуации да, все взгляды устремлены на Авито и вторичный рынок.


    1. firk
      18.03.2018 18:04

      Что тут грустного? Видеокарты достигли разумного максимума, который от них требуется для бытовых нужд, ещё более 10 лет назад, вот и продают одни и те же модели. И скажите спасибо, что их вообще продают, а не предлагают вместо них всякий навороченный «современный» игровой шлак задорого и безальтернативно.


      1. vitalyvitaly
        19.03.2018 10:47
        +1

        Моя бюджетная плата 10 лет назад — это Geforce 7100GS, с ним как-то было совсем уж уныло, тем более, что попался китайский вариант карты с 32-разрядной(!!) шиной (были сильные подозрения, что там именно 32 бита). Абсолютная бутафория…


  1. Hellsy22
    18.03.2018 00:50

    давайте оценим ее
    «Давайте сравним садовую тачку и Белаз...»

    Почему бы вам не сравнить S3 Trio с современными интегрированными видеокартами?

    Напрашиваются следующие выводы:

    1. Автор сравнивает теплое с мягким.
    2. Если уж сравнивать мощность, то лишь удельную — на единицу производительности при равных задачах.
    3. В линейке Nvidia хорошо прослеживается тренд отношения производительности к потребляемой мощности:
    GTX 670 (170W, 5.4k pm) = 32
    GTX 770 (230W, 6.1k pm) => 26 — тот же техпроцесс, что и в 670 (28нм)
    GTX 970 (145W, 8.5k pm) = 59
    GTX 1070 (150W, 11k pm) = 73


    1. Nikobraz
      18.03.2018 06:25

      Еще ярче пример с x50 линейкой
      (в качестве мерила производительности использовал результат в 3DMark11 с процессором i5-2500 на штатных частотах)
      GTS 250 (150W, 2.5k) = 16.6
      GTS 450 (106W, 2.5k) = 23.5
      GTX 650 (65W, 3.5k) = 53.8
      GTX 750 (55W, 5.5k) = 100(таже архитектура и техпроцесс, что и у 950)
      GTX 950 (90W, 9k) = 100
      GTX1050 (75W, 9.8k) = 130.6


    1. JohnHenry89 Автор
      18.03.2018 14:00

      Почему бы вам не сравнить S3 Trio с современными интегрированными видеокартами?

      Потому что это разные устройства.
      1. Автор сравнивает теплое с мягким.

      Где? Однако же при желании можно и материю с энергией сравнивать, почему бы и нет.
      Если уж сравнивать мощность, то лишь удельную — на единицу производительности при равных задачах.

      Чтобы собрать такие данные нужно не просто обладать горой видеокарт и полугодом времени. Нужно еще и обладать неким тестом, который не будет оказывать преференций не GeForce не Radeon.
      В линейке Nvidia хорошо прослеживается тренд отношения производительности к потребляемой мощности

      А теоретическая производительность у них разная, вот и все. За счет этого у них есть экспоненциальный рост отношения производительности к TDP. Значит, 970 и 1070 поспевали еще кое-как за требования рынка, а 770 нет (очевидно кстати).


  1. EviGL
    18.03.2018 01:17

    Всегда было интересно, почему производители процессоров не подхватили эту эстафету: сделать всё огромным, жрущим кучу электричества и более быстрым?
    Тот же i7 от поколения к поколению прирастает этак на 10% производительности. Как такое продавать? Если купили топовый i7 первого поколения, то можно и сидеть на нём по сей день. Где же тут гнусный маркетинг?
    Почему не сделать процессор большим или не ввести в консьюмерский рынок многопроцессорные системы? Рассказать как это круто-модно, добиться поддержки виндой.
    Наверняка есть какая-то логичная причина, почему так не делают?


    1. stalinets
      18.03.2018 01:41

      Ну у AMD не так давно был процессор с TDP 220 Вт. Кто-то покупал его)


      1. vitalyvitaly
        18.03.2018 01:48

        Топовые Прескотты П4 были жуткими печками. i7 первого поколения немного не дотягивает, там всего лишь 130 Вт. Мультипроцессорность кстати поддерживал еще Intel 8086.


        1. stalinets
          18.03.2018 02:50

          Вроде самыми горячими тогда были Pentium D, это ведь два ядра Prescott в одном проце.


          1. vitalyvitaly
            18.03.2018 08:30

            Скорее всего о них я и вспомнил, уже Socket 775, последнее поколение перед Conroe. Что-то из серии Presler 960.


          1. Javian
            18.03.2018 16:28

            с осиновым колом медным ядром в радиаторе
            image


      1. JohnHenry89 Автор
        18.03.2018 14:03

        Я кстати думал купить что-то из 9-й серии FX, почему бы и нет. Но потом решил, что FX8350 и так можно разогнать до частот 9-й серии при повышении напряжения. Кристаллы-то одни и те же.


    1. Marwin
      18.03.2018 01:46

      потому что не производители процессоров решают, какие процы продавать. А потребности консьюмерского софта. Который совершенно прохладно относится к тем самым огромным и жрущим кучу электричества процам, которые уже благополучно работают в серверах. Вы и сейчас вполне можете купить 28 ядерный 200 ваттный xeon. Но толку-то от него дома?
      PS ну а то, почему консьюмерский софт прохладно относится к огромным процам — банальная техническая невозможность дальнейшего роста тактовых частот на ядро процессора. А в мультиядра консьюмер софт (за исключением рендеринга видео части) пока не придумали как просто раскладывать.


      1. Kain_Haart
        18.03.2018 08:27

        Firefox с их переходом на Servo вроде вполне успешно начали освоивать многоядерность


        1. Marwin
          18.03.2018 12:38

          с таким же успехом, как Хром с отдельным процессом на вкладку. Но это же капля в море. Всё равно модель использования браузера — одна активная вкладка, и распараллелить её рендеринг можно всего лишь на пару-тройку потоков (браузерный майнинг в расчёт не берем ))) В играх та же история, 4-8 активных потока пока максимум, на что получается разложить функции движка. Это ничто по сравнению с возможностью раскладывать рендеринг картинки на тысячи (а в теории хоть миллионы, лишь бы размер экрана был таким большим) независимых фрагментов в видеокарте под каждое ядро в чипе. До тех пор пока существует идеологическая разница в подходе к раскладыванию задач вычислений у процов и видеокарт, монструозных процов можно не ждать ))


          1. dzikar
            18.03.2018 13:16

            Игра на юнити Stationeer раскорячила мой проц 28 потоками. Так что подвижки есть в многопотоке.


            1. xMushroom
              18.03.2018 16:53

              Опять же, зависит как использовать эти потоки. Очень может статься, что 27 потоков 100 условных единиц времени ждут 28-го, 1 единицу работают, потом опять ждут. Формально 28, но толку от такого распарелелливания мало.


              1. Popadanec
                18.03.2018 17:26

                В игре весьма реалистичная физика, так что может и не ждут.


        1. sumanai
          18.03.2018 16:22

          Почему все упорно считают, что утилизировать много ядер можно только несколькими процессами? По крайней мере в Windows планировщик работает на уровне потоков, и одним процессом можно утилизировать любое количество ядер.


          1. xMushroom
            18.03.2018 16:55

            Если в этом процессе много потоков, работающих одновременно. Что не всегда верно.


            1. sumanai
              18.03.2018 18:21

              Ну да. Но разделить на потоки проще, чем на процессы, и работать будет быстрее.


    1. a5b
      18.03.2018 02:03

      Если кристалл жрет много электричества, то всю полученную энергию с кпд около 100% он превращает в тепло. А отводить сильно больше 100-200 Вт с площади кристалла в сотни кв.мм не получается.
      См. Harnessing the Four Horsemen of the Coming Dark Silicon Apocalypse и другие публикации Dark Silicon: https://en.wikipedia.org/wiki/Dark_silicon ftp://ftp.cs.utexas.edu/pub/dburger/papers/ISCA11.pdf http://darksilicon.org/


      The study shows that regardless of chip organization and topology, multicore scaling is power limited to a degree not widely appreciated by the computing community.…
      While transistor dimensions continue scaling, power limitations curtail the usable chip fraction. At 22 nm (i.e. in 2012), 21% of the chip will be dark and at 8 nm, over 50% of the chip will not be utilized using ITRS scaling
      Neither CPU-like nor GPU-like multicore designs are sufficient to achieve the expected performance speedup levels. Radical microarchitectural innovations are necessary to alter the power/performance Pareto frontier to deliver speed-ups commensurate with Moore’s Law.

      Увеличивать площадь чипов сложно и дорого (но делают всяческие сверхдорогие Xeon/Xeon Phi, в т.ч. на 200-300Вт и Виндой на 64+ ядрах с площади в 683 мм2).
      Размер чипов и микросборок на Silicon Interposer ограничен (максимальный размер одного кристалла задается лимитом степперов. У всех производителей ASML, Nikon, Canon — степпер засвечивает за 1 проход "Field Size" — не более чем 26x33 мм=850 кв.мм., у EUV заявлены те же 26x33).
      Есть варианты и продукты с использованием микросборок без Silicon Interposer на всю площадь — EMIB от Интела, MCM(MCM-L?) у AMD c EPIC. Некоторые считают, что оптику следует интегрировать ближе к чипу, чтобы можно было создавать многочиповые решения/снижать затраты энергии на передачу данных.


      1. JohnHenry89 Автор
        18.03.2018 14:06

        Да. Xeon Phi кстати стоит смешные для себя деньги на вторичном рынке, крайне жаль только что практически его применить обычному человеку абсолютно некуда. Тем не менее, Xeon Phi, если бы его можно было применять, был бы чудесным решением для большинства пользователей — его мощи при небольшом TDP и избытке оперативки хватило бы еще очень на долго.


        1. DustCn
          19.03.2018 02:04
          +1

          Тут про троллейбус из буханки только в голову приходит.
          У видяхи мощи больше, при сравнимом TDP, если в абсолютных цифрах.
          Для домашнего применения он малоприменим, жует он только красиво распараллеленый и векторизованный код, на обычном ветвлении или скалярном коде его производительность хуже i3 будет.


          1. JohnHenry89 Автор
            19.03.2018 13:58

            Нет, конечно Xeon Phi не может заменить видеокарту т.к. последняя строго оптимизирована для 3d вычислений, никакой ЦП с ней тягаться не может по определению. Речь идет об использовании Xeon Phi в качества дополнения к основному ЦП и основной памяти. За те деньги которые он стоит на вторичке и с его громадной вычислительной мощью, объемом памяти и т.д. это была бы замечательная покупка, будь ей применение.


    1. Hellsy22
      18.03.2018 18:08

      Ну как не подхватили:
      Pentium 200 — 15.5W
      Pentium II 450 (250нм) — 27.1W
      Pentium III 1133 (180нм) — 39.55W
      Pentium 4 HT 3.4 (130нм) — 89W
      Pentium 4 HT 3.8 (90нм) — 110W
      Pentium D 960 (65нм) — 130W
      Core 2 Extreme QX9775 (45нм) — 150W // и вот это похоже предел
      Core i7 3970X Extreme Edition (35нм) — 150W
      Core i7-5960X Extreme Edition (22нм) — 140W
      Core i7-6950X (14нм) — 140W


      1. JohnHenry89 Автор
        18.03.2018 21:54

        125Вт, скорее всего, предел для ЦП при их создании т.к. 140Вт будут уже создавать проблемы — тепла много, цепи питания в мат.платах слабые и т.д.


      1. EviGL
        18.03.2018 22:09

        Ну я имею в виду скорее то что с Core происходит. До неё всё в порядке было с быстрее-выше-сильнее, понятно было, что не обновишься — пролетишь.
        А в этом году будет 10 лет первым i7 и по сути можно так на них и сидеть всё ещё.


        1. Hellsy22
          19.03.2018 06:19

          Intel Core i7-975: 45нм, 2009г, 130W ~600$, 6133 cpumark
          Intel Core i7-7820X: 14нм, 2017г., 140W, ~450$, 18646 cpumark

          Полагаю, что скорость процессора перестала так уж сильно влиять удобство работы с компьютером — для типовых задач хватает с запасом. А те, кому нужна высокая производительность (3D-графика, работа с видео), часто смотрят в сторону серверных многопроцессорных решений или специализированного железа.


          1. Areso
            19.03.2018 21:53

            Да, но это привели топ сегодняшний.
            А если взять начальный уровень, то, к примеру, современный G4560 4899 cpumark-попугаев. Или i3-7100 — 5811. Так что купив систему с процом за 600 зелени, вполне можно и сегодня комфортно ощущать. И Лишь i5-7400 и i3-8100 обгоняют пожилого старичка, да и то, не настолько радикально, чтобы побежать за ними с криком Shut up and take my money.


            1. Hellsy22
              20.03.2018 04:10

              G4560 — 54W
              i3-7100 — 51W

              Это процессоры с пониженным энергопотреблением и интегрированной видеокартой. Для ноутбуков, в общем.

              i5-7400 — 65W, i3-8100 — 65W и тоже интегрированные видеокарты.

              Если у вас нет цели радикально снизить энергопотребление, например — для перехода на пассивное охлаждение, то разумеется нет смысла менять мощный хоть и устаревший десктопный процессор на экономичный, но слабый современный.


          1. JohnHenry89 Автор
            19.03.2018 22:56
            -1

            Как сказать. Напр. i3 вне зависимости от поколения и индекса я нахожу весьма неудобными в работе из-за способности грузиться на 100% без причины и с причиной. Бенчмарк это одно, реальная работа другое, а игры третье.


        1. vitalyvitaly
          19.03.2018 10:52

          Там есть возможность дешевого апгрейда на Six-Core Xeon 56xx — по скорости примерный аналог i7 поколения Ivy Bridge, то есть еще на пару-тройку поколений вверх.


      1. rogoz
        19.03.2018 14:05
        +1

        Core 2 Extreme QX9775 (45нм) — 150W // и вот это похоже предел

        i9-7980XE (14нм) — 165W
        Threadripper 1950X (14нм) — 180W
        Xeon 8168 Platinum (14нм) — 205W
        FX-9590 (32нм) — 220W


    1. ToshiruWang
      19.03.2018 14:45

      Ответ прост — тепловыделение. отвод тепла из центра кристалла — та ещё задача.


      Почему не сделать процессор большим

      Цена и отвод тепла. Это очевидно.


      или не ввести в консьюмерский рынок многопроцессорные системы?

      Цена X2 за плату, цена X2 за пару процессоров, отсутствие каких-то реальных приложений, способных загрузить 16 ядер в быту (хотя можете взять 8е поколение — там 6-8 ядер не в X-серии).


      добиться поддержки виндой.

      Можете просто сменить свой 3.11 на что-то посовременнее — там поддержка есть.


    1. dron41k
      19.03.2018 17:17

      Где-то видел предположение, что у Интела скорость роста производительности резко замедлилась с 2008, это последний год, когда у АМД был конкурентоспособный топовый проц.


  1. stalinets
    18.03.2018 01:32

    Мне вот как человеку, очень редко собирающему новые компьютеры, интересно, что сейчас происходит со встроенной в процессоры графикой.
    Одно время, с появлением у AMD серии FX, вроде вообще процов без графического ядра почти не осталось. И у Интела, и у АМД массово шли процы со встроенным видео. Но вот новые Райзены и Тредрипперы без графики же?
    Раньше считалось, что встроенная графика в процах AMD мощнее, чем в процах Интела, это следствие ещё со времён покупки ATI. А что сейчас?
    Если я соберу игровой компьютер с дискретной видеокартой и процессором с видеоядром, как они взаимодействуют сегодня? Объединяют вычислительную мощность? В норме работает ядро проца, а под нагрузкой сама включается дискретная видеокарта? Или это надо переключать в биосе? А если проц и видеокарта от разных производителей, скажем, проц AMD со встроенной графикой, а видеокарта nVidia?
    Если я захочу собрать максимально приближенный к игровому комп не покупая видеокарту, полагаясь только на видеоядро процессора, на какие модели смотреть? Что сможет такой комп, какие известные игры в каком разрешении потянет (примерно)?
    Как сейчас связано наличие встроенной графики в процессоре и наличие видеовыхода на самой материнке? То есть может ли быть ситуация, что на материнке стоит сокет для процессора, опционально имеющего видеоядро, а материнка без видеовыхода? Как тогда задействовать это ядро? Или сейчас видеовыход есть всегда, если проц подразумевает видеоядро?
    Или вот наоборот. Раньше были материнки для офисной работы и для начальных компов, со встроенной простейшей графикой (обычно от Intel) при отсутствии в процессоре видеоядра, а как сейчас устроена видеоподсистема в этой нише, ну если видеовыход на материнке есть, а процессор стоит без видеоядра. Как тогда будет работать графика? Остаётся ли в материнке простейшее встроенное видео, или просто при установке проца без видеоядра монитор, подключённый к такой материнке, работать не будет?

    Было бы интересно, если б кто-то ответил) А то у меня что-то по этим вещам путаница.


    1. Alexsey
      18.03.2018 02:12
      +2

      Одно время, с появлением у AMD серии FX, вроде вообще процов без графического ядра почти не осталось. И у Интела, и у АМД массово шли процы со встроенным видео. Но вот новые Райзены и Тредрипперы без графики же?

      Райзены с приставкой g — с графикой. Все остальное у амд — без графики.
      Раньше считалось, что встроенная графика в процах AMD мощнее, чем в процах Интела, это следствие ещё со времён покупки ATI. А что сейчас?

      С приходом райзенов со встроенной графикой — амд снова уделывает интел по встроенной графике (как-никак, но у них все же хоть и урезанная, но все еще vega)
      Если я соберу игровой компьютер с дискретной видеокартой и процессором с видеоядром, как они взаимодействуют сегодня? Объединяют вычислительную мощность? В норме работает ядро проца, а под нагрузкой сама включается дискретная видеокарта? Или это надо переключать в биосе? А если проц и видеокарта от разных производителей, скажем, проц AMD со встроенной графикой, а видеокарта nVidia?

      Каждая работает отдельно от другой. Максимум — рабочий стол можно расширить на мониторы не зависимо от того к какой видеокарте они подключены.
      Если я захочу собрать максимально приближенный к игровому комп не покупая видеокарту, полагаясь только на видеоядро процессора, на какие модели смотреть? Что сможет такой комп, какие известные игры в каком разрешении потянет (примерно)?

      Разрешение 1080p:
      image
      может ли быть ситуация, что на материнке стоит сокет для процессора, опционально имеющего видеоядро, а материнка без видеовыхода? Как тогда задействовать это ядро? Или сейчас видеовыход есть всегда, если проц подразумевает видеоядро?

      Может, но редко. Никак не задействовать если видеовыхода нет.
      Или вот наоборот. Раньше были материнки для офисной работы и для начальных компов, со встроенной простейшей графикой (обычно от Intel) при отсутствии в процессоре видеоядра, а как сейчас устроена видеоподсистема в этой нише, ну если видеовыход на материнке есть, а процессор стоит без видеоядра. Как тогда будет работать графика? Остаётся ли в материнке простейшее встроенное видео, или просто при установке проца без видеоядра монитор, подключённый к такой материнке, работать не будет?

      В матерях сейчас ничего не встроено и без соответствующего процессора ничего работать не будет.


    1. ns3230
      18.03.2018 02:31
      +1

      Одно время, с появлением у AMD серии FX, вроде вообще процов без графического ядра почти не осталось

      Они просто по сегментам разделили. AM3 платформа для тех, кому нужны мощные ЦП и ГП, а втройка ни к чему, FM2 — для офиса и тех, кому встройки хватает.


      Но вот новые Райзены и Тредрипперы без графики же?

      Опять то же самое: разделение сегментов. В топах редко кому встройка нужна, поэтому на TR4 (платформа под Threadripper) встроенной нет, а вот на AM4 есть как процы без встройки, Ryzen 3, 5 и 7, так и со встройкой средне-бюджетные Ryzen 3 и 5, у которых встройка по уровню примерно как GT 1030, если память нормальная.


      Раньше считалось, что встроенная графика в процах AMD мощнее

      И сейчас все так же. У Интел была Iris Pro, но она в основном в процах для дорогих тонких ноутов используется. А обычная HD Graphics по уровню как встройка в бюджетных процах АМД. Да и на Ириску Интел подзабил, скоро должны появиться процы Интел для ноутов и миниатюрных ПК со встройкой АМД.


      Объединяют вычислительную мощность?

      Не взаимодействуют. АМД уже не поддерживают такого, последние процы с гибридным кроссом — на сокете FM2+. А переключать дискретку и встройку, в зависимости от нагрузки, умеют только ноутбуки. А в десктопе попросту малость проблематично пробрасывать на выход одной видяхи картинку с другой, особенно если они разных фирм, вот и не реализуют.


      Если я захочу собрать максимально приближенный к игровому комп не покупая видеокарту, полагаясь только на видеоядро процессора, на какие модели смотреть?

      Пока что только две модели Ryzen: Ryzen 3 2200G и Ryzen 5 2400G. У них встройки в HD (1280х720 или 1366х768) на высоких почти все потянут с приемлемым FPS, а в FullHD — средние, самые тяжелые — на низких.


      То есть может ли быть ситуация, что на материнке стоит сокет для процессора, опционально имеющего видеоядро, а материнка без видеовыхода?

      Все модели не изучал, но в теории возможно. В таком случае встройку попросту никак не выйдет юзать. Но если такие мамки и есть — это наверняка топы, на чипах вроде Z270, брать подобную по цене намного дороже бюджетного игрового проца, который в ней будет стоять, глупо, лучше чутка добавить и взять мамку на H110 и GTX 1050 Ti.


      ну если видеовыход на материнке есть, а процессор стоит без видеоядра. Как тогда будет работать графика?

      Никак. Если встройки нет — выход на мамке бесполезен, только дискретку надо.


    1. mistergrim
      18.03.2018 07:49

      Раньше считалось, что встроенная графика в процах AMD мощнее, чем в процах Интела, это следствие ещё со времён покупки ATI. А что сейчас?

      А сейчас — графика AMD в процессорах Intel.
      https://ark.intel.com/products/130411/Intel-Core-i7-8705G-Processor-with-Radeon-RX-Vega-M-GL-graphics-8M-Cache-up-to-4_10-GHz


      1. Areso
        18.03.2018 11:44

        А в реальной жизни эти процессоры продаются? Видел всего одно устройство с таким процессором — и опять же, которого нет в продаже — NUC Skull
        Да и странно пихать такое мощное видеоядро в i7, к i7 пользователь ну всяко насобирает денег на 1050 или аналог.


        1. Exchan-ge
          18.03.2018 13:04

          Да и странно пихать такое мощное видеоядро в i7, к i7 пользователь ну всяко насобирает денег на 1050 или аналог


          Я предпочитаю формат Mini ITX, а там — чем меньше корпус, тем лучше.
          Поэтому такое решение могу только приветствовать.


          1. Areso
            18.03.2018 13:19

            Я тоже люблю компактные решения, но без большого ущерба заменяемости компонентов. К примеру, у меня 30х25х9, размером с видеомагнитофон, общим весом 3.15кг — с дискретной видеокартой. Вполне себе справляется)


            1. Exchan-ge
              18.03.2018 13:41

              К примеру, у меня 30х25х9, размером с видеомагнитофон, общим весом 3.15кг — с дискретной видеокартой.


              Z97I-PLUS, i5 4690, PowerColor HD 7750, 16 Гб, HDD & SSD, ODD 5" (!) — в корпусе 240мм x 135мм x 295мм (BT-02B-U3-250VS) — но это уже старый комп.

              Для нового есть корпус 235х65х200 мм, туда дискретную карту уже нельзя поставить в принципе.


              1. Areso
                18.03.2018 14:33

                Я играть люблю, мне без дискретки пока никак.
                Вышеупомянутый Intel i7-8705G будет стоить неприлично дорого для меня первые 3 года с момента выхода в продажу.
                У меня неплохая сборка, но единственный компонент, купленный новым — 1050 Ti. Остальное — и i7-4770, и 2х8GB, и даже мать — куплены б/у.
                Сейчас планирую SSD прикупить еще один — и тоже б/у.


          1. JohnHenry89 Автор
            18.03.2018 21:57

            Нет, слишком маленький. Вот microATX + один пассивный кулер вроде Scythe Susanoo с Авито (он размером как раз с мат. плату) будет интересной штукой.


            1. Exchan-ge
              20.03.2018 00:10

              ет, слишком маленький. Вот microATX


              microATX — это ни вашим ни нашим.
              Слишком большой для малогабаритного компа и слишком маленький для «навороченного» компьютера.


              1. JohnHenry89 Автор
                20.03.2018 00:16

                Я бы сказал самый маленький из возможных для хорошего компьютера. Ведь зажарятся мощные комплектующие если корпус будет меньше. Конечно, тут можно вспомнить ноутбуки, комплектующие которых работают в простое чуть ли не при температурах максимальной нагрузки полноразмерного ATX, но я не вижу тут ничего хорошего. Техника не должна работать на износ, собирать, я бы сказал, нужно с любовью.
                Как вот приятно было бы засунуть в microATX Core i7-8700, охлаждая его старинным Scythe Susanoo без вентиляторов. И дополнить GTX1080ti со сниженными частотами, напряжением и пассивным радиатором. Это, я считаю, разумное решение — максимум мощи при реальном тепловыделении не более 150Вт.


                1. Exchan-ge
                  20.03.2018 00:42

                  техника не должна работать на износ, собирать, я бы сказал, нужно с любовью.


                  Я тут ранее выкладывал свой конфиг Mini ITX. Работает с 2015 года.
                  Сейчас люблю делать сборки на H110I-Plus с G4400, 8 Гб и SSD в корпусах 235х65х200 мм. Получаются отличные офисные компы.

                  И дополнить GTX1080ti

                  Внешняя видеокарта. Благодаря майнерам — можно сделать и самому :)


                  1. JohnHenry89 Автор
                    20.03.2018 00:47

                    Сейчас люблю делать сборки на H110I-Plus с G4400 и SSD в корпусах 235х65х200 мм. Получаются отличные офисные компы.

                    А поиграть? По сути тонкий клиент на пеньке — ничего нового.
                    Внешняя видеокарта. Благодаря майнерам — можно сделать и самому :)

                    Но будет в итоге два блока питания, или провода тянущиеся из корпуса к видеокарте. Плюс шум вентиляторов, плюс ящик или сама видеокарта рядом. Некрасивый вариант, я бы сказал.


                    1. Exchan-ge
                      20.03.2018 01:21

                      А поиграть? По сути тонкий клиент на пеньке — ничего нового.


                      С точки зрения офиса — такой комп по скорости работы неотличим от компа на Core i7-6700. При намного меньшей цене и размерах корпуса — 235х65х200 можно крепить к задней стенке монитора.

                      плюс ящик или сама видеокарта рядом


                      Внешняя видеокарта нужна время от времени. Отключил — и в ящик.


                      1. JohnHenry89 Автор
                        20.03.2018 01:24

                        С точки зрения офиса — такой комп по скорости работы неотличим от компа на Core i7-6700.

                        Нет. Так очень многие считаю, особенно когда в глаза не видели не пеньков, не i3, не i7, не говоря уже о ЦП AMD. Это с точки зрения бенчмарков создает такое впечатление, в реальности-же работать на слабом процессоре Интел сущее наказание. Он постоянно норовит загрузиться на 100%.
                        Внешняя видеокарта нужна время от времени. Отключил — и в ящик.

                        Там провода будут неудобно висеть. Провод райзера, провода два питания из БП. Или вообще отдельный БП. В общем. решение нельзя сказать что изящное.


                        1. sumanai
                          20.03.2018 04:29

                          Видяха по USB Type-C? Хотя думаю, решений, чтобы подключить внешнее видео лишь одним проводом, пока нет. Хотя было бы классно — в одном направлении идут данные и питание, в другом готовое видео, которое перекидывается на встроенный порт. Нужно только раза в два повысить пропускную способность порта, да пачка стандартов, чтобы гонять видеопоток внутри материнской платы в любом разумном направлении. Эх, мечты.


                  1. Skerrigan
                    20.03.2018 04:51

                    Получаются отличные офисные компы.

                    Ну даже не знаю… я бы на таком помер с этим просто уволился.
                    В 2014-ом в моем офисном появились 16Гб памяти. А на сегодня этого не хватает вообще никак. Надо бы 32 минимум (развожу руками).


                    1. sumanai
                      20.03.2018 04:55
                      +2

                      Офисная работа бывает разной. Кому и 4ГБ за глаза для программы расчёта зарплаты, а кому суперкомпьютер подавай.


    1. Exchan-ge
      18.03.2018 10:58

      Что сможет такой комп, какие известные игры в каком разрешении потянет (примерно)?


      Из моего опыта — интегрированная видеокарта Intel Iris Pro Graphics 580 сравнима с HD 7770 (R7 260/360) или GT 650.

      на материнке стоит сокет для процессора, опционально имеющего видеоядро, а материнка без видеовыхода? Как тогда задействовать это ядро?


      На некоторых материнках с доп. функциональностью есть разъемы LVDS. Встречал, но не использовал.

      ну если видеовыход на материнке есть, а процессор стоит без видеоядра. Как тогда будет работать графика


      Никак. Это, к слову — известная «ошибка покупателя». Люди берут «топовую» систему с мощной видеокартой и слегка экономят на процессоре. Вроде все ОК.
      Но через некоторое время топ перестает им быть, некогда мощная видеокарта становится сравнимой по производительности со встроенной графикой новых процессоров — но при этом продолжает оставаться энергонеэффективной.
      Вполне рабочая система переводиться в ранг офисной машины, для которой большая и горячая видеокарта — существенный минус. Карта выкидывается — и в этот момент вдруг выясняется (сюрприз-сюрприз) что в проце нет встроенной графики…


      1. vitalyvitaly
        18.03.2018 11:23

        В некоторых серверных платах (например, Supermicro Socket 1156) есть и отдельный видеочип (к слову, Matrox G200!!) и можно теоретически поставить процессор Clarkdale c видеоядром. Вот чего не знаю, но очень интересно — будет ли на такой специфической плате вообще работать это видеоядро и «пробрасываться» на единственный выход VGA?! К слову, у меня лежит плата ECS на Socket 1155 без видеоразъема, хотя в процессоре «видео» было, естественно, совершенно бесполезное на такой плате.


        1. Alexsey
          18.03.2018 16:02

          С вероятностью 99% не будет так как vga скорее всего заведен напрямую в чип на матери.


    1. TrllServ
      19.03.2018 04:28

      Если я захочу собрать максимально приближенный к игровому комп не покупая видеокарту, полагаясь только на видеоядро процессора, на какие модели смотреть? Что сможет такой комп, какие известные игры в каком разрешении потянет (примерно)?
      Если речь о том, что бы только собрать и протестировать фпс — подойдет все что выше хасвела.
      А вот если вы вдруг решите поиграть, результат неприятно удивит. Сильный лаг управления из-за медленной шины памяти. А потому для «поиграть на минималках» лучше будет даже 730 или 1030, но никак не встроенное в проц.
      Обзорщики и любители фпс этого не знают и обычно это не учитывают.


  1. Marwin
    18.03.2018 01:35

    1) любое железо выходит именно такое, какое позволяют проектировать актуальные на данный момент системы САПР и им подобные. Безусловно, сам по себе техпроцесс и набор химических элементов в отдельном транзисторе играет большую роль, но последнее слово всегда остаётся за софтом, который соберет из этих транзисторов миллиардные чипы. Особенно теперь, когда именно технологическое развитие сильно замедлилось.
    2) Требуемый вид железа зависит от возможностей передачи контента человеку. Позавчера это была командная строка, где видео ускорители были не нужны, вчера это небольшие мониторы, которым нужны ускорители для простеньких эффектов, сегодня это 4к экраны, которые требуют монструозных числодробилок, являющихся по сути компьютером в компьютере, завтра это будут VR очки на ARM процессорах с небольшой мощностью.
    Моя идея в том, что то как выглядят видеокарты — это следствие, а не первопричина. Предсказывать интереснее более вышестоящие идеи и технологии. Вот случится чудо, придумают как клепать дешевую 8k матрицу для моника. Да на следующий же день Хуанито заявит, что очередное поколение будет 400W двухголовая с х4 RAM топ карта, покрывающая нужды таких моников.


    1. Areso
      18.03.2018 13:26

      Наличие дешевых матриц 4К или 8К еще не значит, что все бросятся покупать себе видеокарты под стать.
      Сегодня уже легко купить монитор 4К или телек (еще проще и дешевле), но много ли на рынке доступных видеокарт, которые будут тянуть такое разрешение?


      1. Marwin
        18.03.2018 14:55

        ну я бы не был так оптимистичен на счет дешевых 4к. Нормальные 4к ips/*va моники для игр, в которых есть хоть какой-то смысл, начинаются от 50к рублей. Дешевые — это 22"? на них невозможно работать в винде из-за убогого масштабирования.
        Плюс я наверно не очень удачно выразился с фразой «придумают как клепать» 4к… надо было еще добавить «придумают как продать», потому что моник — штука очень долгоиграющая, и убедить человека выкинуть старый и купить новый (не важно 4к или обычный) — еще надо суметь. Тут много проблем уровня курицы и яйца, нет поддержки со стороны винды <-> нет стимула клепать 4к контент и игры с расчетом на него. Но в итоге всего этого… именно в отношении видеочипов, я думаю, если бы вопросы винды и наличия контента решились, то карты бы подтянулись относительно сразу.


        1. Areso
          18.03.2018 15:04

          Ну тут надо выбирать 2 из 3: дешево, маленький отклик, IPS матрицу. Дешево+IPS — пожалуйста, лыжи от 18 тр (4k, 5ms), Дешево+маленький отклик — Самсунги за те же деньги, но с TN (4k, 1ms).


    1. JohnHenry89 Автор
      18.03.2018 14:13

      1 Не соглашусь. Спроектировать плату питания для гоминьданевцев с Тайваня не сверхзадача. А вот создать дешево производительный видеочип, да еще и наладить его массовое производство без брака — очень трудная задача для AMD и NVIDIA.
      2 Тут есть свои мелочи. напр. разрешение 1920х1080 на данный момент можно назвать достаточным для геймерсокого ПК. переход к более высокому разрешению пока неоправдан объективно — если и переходить то к 4к.

      Моя идея в том, что то как выглядят видеокарты — это следствие, а не первопричина. Предсказывать интереснее более вышестоящие идеи и технологии. Вот случится чудо, придумают как клепать дешевую 8k матрицу для моника. Да на следующий же день Хуанито заявит, что очередное поколение будет 400W двухголовая с х4 RAM топ карта, покрывающая нужды таких моников.

      Однако же люди попросту не смогут купить такую видеокарту из-за цены — чип будет слишком дорогим.


      1. Barnaby
        18.03.2018 14:36

        чип будет слишком дорогим.

        Сам чип дешевый, основные затраты на R&D. Ну, говорят еще память дорогая.


        Думаю майнинг на гпу поднявший цены на отдельные карты в 3 раза показал что цена производства и отпускная цена вещи слабосвязанные.


        1. JohnHenry89 Автор
          18.03.2018 15:15

          Да и закон спроса и предложения никто не отменял. Раз спрос повышается, то и цена взлетает.


      1. Marwin
        18.03.2018 15:01

        если разница будет очевидна — купят. SSD тому пример. Они же заметно дороже механики, но ввиду просто радикально возрастающего качества работы за компом с SSD их всё равно берут. 4к гейминг — это тоже в какой-то степени может стать радикальным изменением качества при условии решения проблем в винде и доступности и широкого распространения хороших 4к мониторов. И доплата за карту будет оправданно-приемлема.


        1. JohnHenry89 Автор
          18.03.2018 15:20
          -1

          Смешно ли сказать, но при наличии двух компьютеров я сам еще не дошел до SSD. Жду пока они подешевеют окончательно (на Али сейчас 0.5Тб 6.5 тыс. руб., но качество вызывает сомнения). Не то чтобы я был жадным, но даже за 6.5 тыс. я подожду 15 секунд загрузки ОС. В общем, очень многое от покупателя зависит, хотя мониторы 4к даже из-за видеокарт не потянут большинство, вне зависимости от желания.


          1. Marwin
            18.03.2018 15:29
            +1

            в том-то и дело, что дело не только в загрузке ОС… не хочу особо разводить демагогию на оффтоп, но… эффект SSD настолько настолько заметен везде… что я не представляю, о чем нужно думать, чтобы отгораживать себя от по сути единственного прорыва в качестве работы (если делать за ним хоть что-то большее, чем раскладывание пасьянса) за компом за последние годы. Лично я готов отдать любые десятки тысяч рублей за SSD везде, где только можно в своих компах, даже в ущерб апдейту других компонентов. Да я даже соглашусь на откат на поколения назад во всём железе вплоть до первых intel Core, но только с ssd (и у меня есть такие компы в наличии, и я помню как они работали с хардами, и как они оживились с момента перехода на ssd).


            1. JohnHenry89 Автор
              18.03.2018 16:09

              эффект SSD настолько настолько заметен везде…

              Опять-же не могу согласиться. Эффект SSD заметен только когда ОС забита чем не попадя, висит куча непонятных и неизвестных процессов, в трее скрыто программ пять всякой дряни и мейл.ру. Но и тогда не факт что SSD сильно улучшит ситуацию если ЦП слабый (все мы знаем способность слабых процессоров Intel вроде i3 грузиться на 100% чуть ли не от чиха рядом).
              прорыва в качестве работы (если делать за ним хоть что-то большее, чем раскладывание пасьянса) за компом за последние годы.

              У меня вообще никаких проблем с этим нет. Отклик работающих программ меня абсолютно устраивает, ну а платить деньги чтобы ОС и Photoshop прогрузились немного быстрее — по-моему это нерационально.
              Да я даже соглашусь на откат на поколения назад во всём железе вплоть до первых intel Core, но только с ssd (и у меня есть такие компы в наличии, и я помню как они работали с хардами, и как они оживились с момента перехода на ssd).

              Нужно просто следить за системой, контролировать загрузку. В протвином случае SSD не спасет.


              1. Turbojihad
                18.03.2018 17:04

                платить деньги чтобы ОС и Photoshop прогрузились немного быстрее — по-моему это нерационально.

                Если для вас разница в 2 — 2,5 раза является небольшой, то вам действительно SSD не нужен.


                1. JohnHenry89 Автор
                  18.03.2018 21:01

                  Прошу обратить внимание — прогрузились быстрее. Не работали быстрее, а именно загрузились быстрее.


              1. Nikobraz
                18.03.2018 18:22
                +1

                Вы ошибаетесь, и про процессор тоже.
                У меня был ноут на Целероне Ivy Bridge с SSD, и знаете его использование меня никогда не напрягало. А вот на i7-4770 с HDD иногда в районе стула подгорает.

                На SSD банально отклик системы лучше.


                1. Alexeyslav
                  18.03.2018 18:52
                  +1

                  На самом деле не так. «отклик» это понятие слишком субъективное. Надо смотреть на численные характеристики. По скорости работы SSD не так уж кардинально быстрее(500 против 150, мы же не про М2 модули?), он выигрывает у HDD по времени доступа но… на обычном пользовательском компьютере где критичные файлы дефрагментированы и нет большой доли процессов чтения с диска с произвольным доступом(своппинг, например, фотошоп, современный браузер) вы разницы не увидите. Кеширование в RAM этому тоже здорово помогает. Но вот чего нет у HDD так это высоких скоростей IOPS, по этому параметру SSD далеко впереди. Большой прирост получим на сервере СУБД, во время своппинга(нехватка RAM?) и на банальной работе с файловой системой — вот где высокие значения IOPS дают о себе знать. Удалить 20000 файлов в сложной структуре каталогов? Вжуууух и все, а винчестер будет колбасить минут 5… Ну и само собой всякие компиляторы выигрывают. А для простых смертных повышение скорости произойдет не так впечатляюще, разве что на времени загрузки заметят а со временем это всё субъективно сгладится и им будет казаться что система столь же нетороплива как и прежде.


                  1. Areso
                    18.03.2018 20:47

                    У меня был (есть?) нетбук с 8-кой. Когда я купил его, это был самый дешевый Делл в российской рознице за 15 тр (при курсе 1 к 32). Там было из коробки 2ГБ ОЗУ, Хард (320 или 500, не помню) и Винда 8.1 кажется. Это было убогое нечто. После смены ОЗУ на 4 ГБ и установки SSD он наконец стал работать, правда и по цене приблизился к ультрабукам Lenovo S300.
                    А потом я снес винду и зажил счастливо)


                    1. Alexeyslav
                      19.03.2018 00:54

                      Если на нетбуке поменяли оперативку то это уже не нетбук… обычно на них пропаяная намертво. И винчестеры там медленные жуть, 5000 оборотов и постоянно засыпают. Поэтому эффект от ССД значительный.


                      1. Areso
                        19.03.2018 19:59

                        У меня оператива менялась как Asus EEE PC 1000h (10"), 2008, так и на Dell 3137 (11.6"), 2014. Первое точно называлось нетбуком, второе так не называлось, но функционально тоже самое — маленький, легкий, убогий по характеристикам, относительно недорогой (к слову, Асеры были от 12 тысяч тогда, ровно как и Асусы — но у них к тому времени убрали Ethernet порт, да и корпус был похлипче).


                1. JohnHenry89 Автор
                  18.03.2018 21:15

                  Тут много факторов, скорее всего зависит от состояния системы и числа процессов которые обращаются к дискам. Т.к. я весьма часто вижу так или иначе чужие компьютеры, могу подтвердить, что у меня быстрее.
                  Насчет SSD такой пример. Я решил посмотреть на практике что мне (именно мне) даст переход на SSD в плане браузера (Firefox) и перенес его папку, папку его кешей, настроек и т.д. на диск смонтированный в оперативке. Немного быстрее, но не принципиальнее. А SSD с диском смонтированном в памяти вообще сравниться не может по определению.


                  1. stalinets
                    19.03.2018 17:10

                    Это обычная работа. А если взять типичный сценарий, когда пользователь запускает с нуля Firefox, в котором висит сессия из 30-40 вкладок с разными тяжёлыми и не очень сайтами?


                    1. JohnHenry89 Автор
                      19.03.2018 17:42

                      У меня обычно сотни вкладок висят постоянно а т.к. браузер я закрывать не люблю, то к концу его работы штук 50-100 вкладок непосредственно оказываются открытыми.


              1. OstJoker
                19.03.2018 02:16
                +1

                "Слабых ПК вроде і3?"
                Да вы, батенька, зажрались. Буквально на днях принесли мне десятилетний комп, который стоял на кассе одной небольшой кафешки, жаловались на синий экран смерти (Core 2 Duo 2.8Ghz, 4Gb DDR2). Посыпался бедами уже n-нный винчестер, решили купить и поставить самый дешевый SSD на 120 ГБ. Этот старичок сразу превратился в "ракету", — стартует, запускает браузер и программу для учета продаж моментально, отзывчивость системы возросла в разы и уже не берут нервы когда пытаешся на нем что то запустить и слышишь только хруст винчестера, который поднапрягся.
                Поэтому полностью соглашусь с Marwin и считаю что за полседнее время SSD можно считать настоящим прорывом по сравнению с наращиванием мегагерцов процов и других характеристик компютеров.
                И еще важный момент. Даже в офисные ПК на работе уже последние лет 4-5 беру только SSD. За это время из приблизительно 150 ПК с ССД один перестал определятся (глюк окнтроллера, поменяли по гарантии) и один глючил и "сожрал" один параметр смарт и рапортовал о проблемах (предположительно плохой контакт сата шлейфа). Поэтому даже из соображений надежности ссд куда лучше винчестеров себя показывают, раньше из 300 ПК фирмы в год под замену шло не менее 10-15 винчестеров.


                1. JohnHenry89 Автор
                  19.03.2018 14:10

                  Этот старичок сразу превратился в «ракету», — стартует, запускает браузер и программу для учета продаж моментально, отзывчивость системы возросла в разы и уже не берут нервы когда пытаешся на нем что то запустить и слышишь только хруст винчестера, который поднапрягся.

                  Скорость отклика могу согласиться что повысилась, это вполне естественно. А вот собственно вычислительная способность Core2Duo никак повыситься не могла и как он грузился на 100% в браузере с двумя вкладками, так он очевидно и продолжил грузиться.
                  Даже в офисные ПК на работе уже последние лет 4-5 беру только SSD.

                  Если заказчик хочет SSD вместо HDD и большие объемы хранить на каждом компьютере не нужно, то это наилучшее решение. Ну и плюс конечно любой носитель информации работники обязательно загадят, если не запретить пользователям все что не связано с работой.
                  Поэтому даже из соображений надежности ссд куда лучше винчестеров себя показывают, раньше из 300 ПК фирмы в год под замену шло не менее 10-15 винчестеров.

                  Юзвери, что с них взять. SSD в принципе не может быть надежнее ибо большое число флешек в параллели все равно остаются флешками. Могу свой пример привести — у меня напр. никогда еще не один винчестер не вышел из строя, при этом менее 3-х дисков у меня едва ли когда-то стояло. Единственный случай — когда головка сделала царапину на Сигейте я и то исправил — разметил диск на разделы т.о., чтобы поврежденная область была вне разделов. И смешно ли сказать, уже 4-й год у родственников работает несмотря на царапину.
                  В общем, SSD конечно заменят HDD, но я выжидаю момент когда SSD станут доступными на уровне жестких дисков, чтобы не переплачивать впустую. Даже сейчас покупку SSD для себя считаю не сильно оправданной.


                  1. TrllServ
                    19.03.2018 16:10

                    В общем, SSD конечно заменят HDD, но я выжидаю момент когда SSD станут доступными на уровне жестких дисков, чтобы не переплачивать впустую. Даже сейчас покупку SSD для себя считаю не сильно оправданной.

                    как раз для таких как вы (и я тоже) есть отлично решение — кеширующий SSD.
                    В большинстве случаев достаточно даже 32Gb SSD + штатный HDD (у меня 2Tb). В зависимости от того какой вариант выберете, а их огромное кол-во, можно получить многократный прирост. 16-64Gb сейчас стоят более чем приемлимо. В итоге получаем объем HDD, с отзывчивостью чуть ниже SSD.


                    1. darthslider
                      19.03.2018 17:37

                      Для ноутов, наверное, отличный вариант, а вот на ПК без ИБП я бы не рискнул ставить.


                    1. JohnHenry89 Автор
                      19.03.2018 17:39

                      Гибридный HDD? Явно невыгодное решение — низкая надежность, плюс громадный объем данных который будет проходить через маленький SSD быстро выведет его из строя. Ну и решение само по себе это явно временное, которое явно не займет существенную нишу на рынке никогда.


                  1. Areso
                    19.03.2018 20:06

                    Бэкблейз недавно статистику опубликовали. 12% брака по Сигейтам, чуть ниже Тошибы и WD, еще ниже HGST (на уровне 3%).
                    У меня где-то валялась статистика по Intel и Samsung SSD, так там меньше 1%. Если не гонять постоянно перезапись, что возможно, но не у всех такой сценарий, то от Intel'a или Samsung'a решения уже надежнее хардов.


                    1. JohnHenry89 Автор
                      19.03.2018 20:45

                      Да знаю я про Сигейт, все знают. Тем не менее, в целом, доверие они у меня вызывают, просто Сигейт вобрала в себя очень много других производителей жестких дисков в результате слияний и вполне ожидаемо, что качество может колебаться в зависимости от конкретного производителя.


            1. ns3230
              18.03.2018 18:50

              Истину глаголете. У меня есть старый комп AMD Athlon X3 450, 8 ГБ DDR2, HD 7770 1 ГБ. Там стоит чисто под семерку SSD на 24 ГБ. У него вроде и скорости линейные невысокие (даже в SATA 2 не упираются), но за этим компом можно нормально работать. К соседу ходил переустанавливать винду на схожем ПК (такой же проц, памяти 4 или 6 ГБ DDR3, GTX 550 Ti), но с обычным терабайтовым хардом. Ну он и слоупоком мне показался, против моего. У дружбана комп на AMD FX-6200 или 6300 — тоже слоупочнее моего атлона.


              Ноут у меня (ASUS K56CB — i5-3317, 6 ГБ DDR3, GT 740M) на родном HDD печалил, но вкинул туда дешевый Кингстон на 128 ГБ (вместо харда, хард ушел в лоток на место DVD) — так он прям воскрес. По субъективным ощущениям работает быстрее, чем современные бюджетные ноуты на i3 Skylake с HDD.


          1. irnis
            19.03.2018 00:50

            > я подожду 15 секунд загрузки ОС

            кроме загрузки ОС могут быть ещё и синхронизация с SVN/GIT, и билд… а «0.5Тб 6.5 тыс. руб.» — это вообще халява, можно ссылку ;)?


            1. JohnHenry89 Автор
              19.03.2018 13:54

              Ну да, а при выключении очистка кеша которая растягивает выключение до минут 5, по крайней мере, так было на Windows XP. Как работает функция очистки кеша на более старших системах семейства я, честно сказать, не знаю т.к. не сталкивался. Наверное также долго. Но принцип именно в том, что если отладить систему, не иметь жутко фрагментированных дисков, то скорость ее работы будет удовлетворительной.
              6466 руб. за 512Гб SSD, доставка в Россию бесплатно. А если собрать RAID0 из двух таких вообще круто будет.


              1. sumanai
                19.03.2018 14:51

                очистка кеша

                Это что? Если вы про забивание подкачки нулями, то она по умолчанию отключена.


                1. JohnHenry89 Автор
                  19.03.2018 17:21

                  Скорее всего да. Под кешем понимался файл подкачки.


          1. ToshiruWang
            19.03.2018 15:02

            Можно поставить 64Gb, разница будет заметна и совсем не в загрузке ОС. 256 быстрее (больше чипов — больше каналов), 512 — это даже многовато, имеет смысл только когда один ставить. Все теоретизирования "когда ОС забита" выдают лишь незнание темы. И здесь тоже.


            1. JohnHenry89 Автор
              19.03.2018 17:23

              Можно поставить 64Gb, разница будет заметна и совсем не в загрузке ОС

              Тогда в чем вообще?
              Все теоретизирования «когда ОС забита» выдают лишь незнание темы.

              Ну это или ты не знаешь темы или не понимаешь о чем речь идет.


  1. Daddy_Cool
    18.03.2018 10:22

    Давайте рассмотрим социально-возрастные аспекты.
    По наблюдениям — игры интересуют людей максимум до 30 лет. Причем интерес к играм равномерно снижается с детского возраста. Т.е. топ-видеокарт не может быть продано больше чем сколько-то, и они не могут продаваться за очень дорого — все же школьники и студенты не самый платежеспособный сегмент.
    Есть еще спецзадачи — типа физических расчетов на CUDA/OpenCL, но это тоже не массово. А остальным встроенной графики хватает. Т.е. в этом может быть причина, что производителям видеокарт просто некуда расти в финансовом смысле — рынок этой продукции теперь имеет очень ограниченную ёмкость.


    1. Exchan-ge
      18.03.2018 11:05

      игры интересуют людей максимум до 30 лет.


      «Большая ошибка» (с)


      1. Daddy_Cool
        18.03.2018 11:22

        Ну кстати можно было бы набрать статистику — возраст — купленные видеокарты.
        В окружении есть только один парень (ему 29) кто иногда играет на компе. Возможно я нахожусь э… просто в локальном минимуме. )


        1. Popadanec
          18.03.2018 11:40

          В WoT очень много тех кому за 30. И за 50 хватает. Лично играл в команде с дедком за 80.


        1. Exchan-ge
          18.03.2018 13:11

          Ну кстати можно было бы набрать статистику — возраст — купленные видеокарты.


          Ну, как я имел возможность заметить — самые дорогие видеокарты покупают достаточно взрослые люди. Причем в последние 10 лет отмазка «это я сыну» уже не используется :)

          А про «максимум до 30 лет» — это данные из статистики по игровым приставкам.
          Взрослых больше интересуют сложные по сюжету и графике игры.


      1. Meklon
        18.03.2018 21:08
        +1

        У меня отец входил в топ-100 рейтинга снайперов в battlefield 2142) при совместной игре меня вечно как приманку использовал. Выгонял на площадь и потом стрелял по окнам, откуда по мне огонь вели)


        1. Inine
          19.03.2018 11:35
          +1

          Ну вот, хоть кто-то нашел применение детям. А то «стакан воды принести».


    1. oren
      18.03.2018 11:20

      По наблюдениям — игры интересуют людей максимум до 30 лет.

      Вы очень сильно ошибаетесь. Возраст игроков наоборот постоянно растёт.
      Вот к примеру данные для германии:
      image


      1. Daddy_Cool
        18.03.2018 11:29

        Не успел отредактировать.
        В табличке не так просто разобраться. Надо смотреть во что они играют, покупают ли видеокарты или просто люди в 70+ открыли для себя тетрис. Это ведь тоже 50+.
        Ну и сколько времени они проводят за играми. Наверное немецкий пенсионер может купить 1080, запустить демку, и дальше наконец пойти пить пиво и рассказывать друзьям, что у него есть крутая видеокарта.
        Но я ни в коем разе не настаиваю — надо проводить аккуратное социологическое исследование.


        1. oren
          18.03.2018 11:47

          Я хотел показать динамику. Количество и возраст игроков растёт.
          В статистике учтены все, кто играет хоть в какие видеоигры.
          По моим личным наблюдениям, большая часть людей, которые играли в юности, продолжают играть и сейчас (возраст за 30).


          1. Daddy_Cool
            18.03.2018 11:53

            Интересно — видимо игроки действительно кластеризуются, что логично, это же социум. И я действительно в локальном минимуме, вы — в локальном максимуме. А где глобальные — вопрос. Кстати по этой статистике доля остальных возрастных категорий снижается. Любопытно почему.


            1. equand
              19.03.2018 11:22

              Это просто из-за снижения рождаемости количество юных игроков падает (да оно настолько сильное).


              1. JC_IIB
                19.03.2018 13:04

                снижения рождаемости


                Статистику бы. Официальную.


          1. Exchan-ge
            18.03.2018 13:17

            По моим личным наблюдениям, большая часть людей, которые играли в юности, продолжают играть и сейчас (возраст за 30).


            С учетом того, что PC стали доступными около 1990...1993 гг. — тогдашним игрокам сейчас от 40 до 60.
            (По моим личным наблюдениям — в 1993 году на ПК больше играли, чем работали )


            1. oren
              18.03.2018 13:31

              В Европе ещё раньше, так как уже в 80-е во всю шпилили на Comodore/Amiga.


        1. Exchan-ge
          18.03.2018 13:25

          Наверное немецкий пенсионер может купить 1080, запустить демку, и дальше наконец пойти пить пиво и рассказывать друзьям, что у него есть крутая видеокарта.


          В словах «пойти и рассказывать друзьям» надо вычеркнуть слово «пойти» )

          Предыдущее «старшее» поколение в свободное время смотрело телевизор, предпредыдущее — играло в домино во дворе, нынешнее предпочитает бродить по пустоши с шотганом в руке.


        1. beeruser
          18.03.2018 14:38

          Видеокарты покупают все — иначе монитор не подключить.
          Вот что они играют опять же неважно. Вы просто используете индукцию — мне не интересно, мне за 30 — значит никому за 30 не интересно.


        1. Javian
          18.03.2018 16:38

          Могут играть во что-то любимое типа доты или warcraft. Хватит «обычной» видеокарты. Пару раз видел диалоги на сервере UnrealTournament, что забежал поиграть, пока жена и дети отсутствуют дома.


      1. JohnHenry89 Автор
        18.03.2018 13:21

        Это ведь немцы. Они работают постоянно, куда им играть-то. Ну и гейминг на консолях на диване (максимально близкий к процессу просмотр телевизора в полу-отключке) не требует таких навыков и усилий, как гейминг на ПК, а потому вполне может вносить свою лепту. Однако-же, я все же не могу согласиться, что немецкий пенсионер за консолью такой же геймер как злой немецкий подросток за ПК.


    1. perfect_genius
      18.03.2018 11:52

      Нейросети и майнинг набирают популярность.


    1. JohnHenry89 Автор
      18.03.2018 14:41

      Не могу согласиться. Дело в том, что поколение тех кому 30 лет как раз было первым поколением широкого распространения игр и играть оно и в 70 лет не перестанет. Мы не можем изучить возрастную выборку геймеров на пост-советском пространстве и прийти к выводу что после 30 лет не играют только потому что гейменгу на пост-советском пространстве всего 30 лет. Плюс это наиболее платежеспособная категория населения — даже с самой плохой зарплаты накопить себе на GTX1070 при желании можно.
      Ну а если говорить о возрасте вообще, то игры будут лишь набирать популярность — эскапизм неотъемлемая часть нашей культуры.


      1. Areso
        18.03.2018 15:10

        Нашей — это чьей? Российской, или в целом, людской?
        Плохая зарплата это какая? Тысяч 20 рублей? 2х24=48, да, пожалуй, за пару лет можно, если структура расходов позволяет откладывать хотя бы те самые пару тысяч.


        1. JohnHenry89 Автор
          18.03.2018 15:23

          Российской я имею в виду. У меня знакомый вообще на 2.5 тыс. руб. в месяц живет (не считая коммунальных платежей) — кашка, семечки, в качестве животного белка свиная шкура — что только не сделаешь лишь бы не работать… Так что главное это желание, себя ужимать можно очень хорошо.
          Ну а семьей другое дело — если жена будет тянуть деньги (а она будет их тянуть) то и 100 тыс. зарплаты не хватит.


          1. Areso
            18.03.2018 15:30
            +1

            2,5 на еду, тысячи 3 на к/у (и вашему знакомому повезло — у него, по всей видимости, квартира или часть ее — в собственности), интернет рублей 400 по нынешним меркам, на сотовый рублей 50 хотя б — видели, мы уже 6 насобирали расходов)
            Добавим сюда мыло-мойку (бытовая химия), какую-никакую одежду (носки), уже к 7 тысячам будет бюджет подбираться.
            В общем-то, я сам живу немногим лучше, но все потому что приходится много тратить денег на то, чтобы обзавестись собственным жильем (конурой, по словам небезызвестного чиновника). Плюс, лично у меня подарки составляют приличную долю расходов.


            1. JohnHenry89 Автор
              18.03.2018 18:21

              Да, ипотека или аренда дело крайне невыгодное и материально обременительное.


  1. Edil0
    18.03.2018 12:29

    посмотрим на самое интересное — на цену

    Еще интересен был бы график: Цена/Качество
    где Качество = производительность, либо, лучше, произведение характеристик в весами, и с подписями видеокарт.
    Кто «за»?


    1. JohnHenry89 Автор
      18.03.2018 14:53

      Без проблем
      image
      Тут мы видим экспоненциальный график, в целом похожий на график роста производительности. Цена растет медленно, а производительность по степенной функции.


      1. vesper-bot
        19.03.2018 12:58

        А что это за видюха в правом нижнем углу (зеленая с потрясающе низким отношением)?


        1. JohnHenry89 Автор
          19.03.2018 14:19

          Раз последняя то Titan V. У нее довольно низкая теоретическая вычислительная мощность, а цена очень высокая.


  1. alexoron
    18.03.2018 13:13

    Вспомнил свою первую видеокарту nVidia Riva TNT 16MB еще в 2003 году.
    Которую спалил сам же, когда вставлял видяху в материнку на весу. В итоге произошло замыкание.
    image


    1. Exchan-ge
      18.03.2018 13:30

      Вспомнил свою первую видеокарту nVidia Riva TNT 16MB еще в 2003 году.


      Прослезился и вспомнил свою первую — noname EGA /ISA )
      Баба Ега
      image


      1. seri0shka
        18.03.2018 23:39

        С видеовыходом?


        1. Exchan-ge
          20.03.2018 01:26
          +1

          С видеовыходом?


          Для подключения светового пера (согласно мануалу)


      1. JC_IIB
        19.03.2018 11:11

        У меня тоже была EGA с таким двойным разъемом. Что это такое, интересно? Ну явно же не ТВ-«тюльпаны»? Где-то я читал, что это вход/выход для полумифического устройства «световое перо»…


        1. oren
          19.03.2018 13:14

          Вот тест видйух из 1986-го года. Они тогда тоже не знали для чего эти разьёмы.

          image


        1. Mad__Max
          20.03.2018 07:55

          По-моему это таки «ТВ композит». По крайней мере у меня на самом первом компьютере CGA карта подключалась к «трофейному» советскому ЧБ монитору «Электроника» таким тюльпанчиком на коаксиальном проводе. Искал специально такую карту — т.к. на комп денег с трудом наскреб, а на монитор уже не хватало. Но был «халявная» ЧБ электроника.

          Судя по всему это был обычный композитный сигнал раньше применявшийся и в ТВ.


  1. Ubeavis
    18.03.2018 14:53

    А если сравнивать не телегу с бронепоездом, а одинаковое по функционалу железо, например взять более современную видеокарту, которая тоже может только картику выводить — Matrox G200eW (есть в некоторых серверных материнках). Размер у нее оценить трудно — реализована внутри чипа монитиринга, конденсаторов нет (кроме россыпи мелкой керамики).
    А, да при этом большая статья с кучей графиков получается не в тему. Либо не в тему сравнение графических ускорителей и чисто видеокарт (без ускорителей).


  1. 4erdak
    18.03.2018 14:54
    +1

    Наверное лет через 10 видеокарта должна быть размером с тумбочку, что-бы хоть как то соперничать с встроенным видеоядром от Интел:D


    1. JohnHenry89 Автор
      18.03.2018 14:55

      Как раз видеоядра Интел никогда не отличались высокой производительностью. У Интел нету опыта в разработке графических ускорителей.


  1. Mupok
    18.03.2018 14:55
    +1

    Кстати, а почему GPU и кулер крепят снизу видеокарты? разве сверху было бы не рациональнее?


    1. JohnHenry89 Автор
      18.03.2018 14:56

      Меня это тоже всегда удивляло, тем более что картинкой видеокарта все равно всегда смотрит вниз и даже при прозрачной стенке она не видна. Когда я сам себе конструировал корпус из алюминиевого профиля, то перевернул ATX на 180 град. и у меня на основном компьютере процессор внизу, а видеокарты наверху.


      1. Javian
        18.03.2018 16:43

        Плата карт расширения расположена напротив верхнего края прорези в корпусе.


        1. JohnHenry89 Автор
          18.03.2018 21:01

          В боковой крышке? В том-то и дело, что эти дырки имеют мало смысла т.к. не соответствуют воздушным потокам вокруг видеокарты.


    1. Alexsey
      18.03.2018 16:10
      +1

      Думаю что не в последнюю очередь чтобы разделить зоны охлаждения cpu и gpu. Мы же не хотим чтобы cpu или gpu «дышали» горячим воздухом от соседа.


  1. vvs46
    18.03.2018 14:56
    +1

    К вопросу о выходе из строя видеокарт от перегрева — возможно, химия и имеет место быть, но, как мне кажется, чаще всего отваливается низкотемпературная пайка. Прогрев или реболлинг решают.


    1. JohnHenry89 Автор
      18.03.2018 14:57

      Это очень интересный вопрос, причем однозначного ответа что от чего отваливается без дорогостоящего оборудования дать невозможно. Я уверен, что отваливается и кристалл от подложки и чип от платы.


    1. Javian
      18.03.2018 16:44

      Решает только замена чипа.


  1. balamutang
    18.03.2018 14:58

    imageмаксимально расширена :), гарантия закончилась в 96, соответственно актуальна для 95года


  1. chromimon
    18.03.2018 14:58
    +1

    Давайте посмотрим на актуальную 20 лет назад видеокарту серии S3 Trio.


    Даже на момент выхода она была гуаном не особо и желанным для игроманов.
    Единственный плюс — дешевая.
    Но как ускоритель — так себе.


    1. JohnHenry89 Автор
      18.03.2018 14:58

      Конечно, но это было самое доступное решение.


    1. balamutang
      18.03.2018 15:32

      На тот момент она была почти безальтернативной, встроенных видеокарт не было, ускорители тоже только нарождались, а монитор подключать к чему-то надо было. Впрочем и игры были другие, вульфенштейн, дум и дюк нюкем не требовали 3д ускорителей, все на спрайтах


      1. oren
        18.03.2018 15:49

        Были.
        У меня был 486DX4 100Mhz, там на матери была распаяна та же самая S3.
        Даже гнёзда для расширения её памяти были.
        Что то типа такого было:
        image


      1. VulvarisMagistralis
        18.03.2018 20:57

        3D там не о чем совершенно, что с ней, что без нее.

        Было полно карт без 3D ускорителей, чтобы «монитор подключать»
        Как вы правильно заметили, не каждой игре 3D был нужен.
        Добавлю: а кому нужен тем не нужна была эта S3 Trio, недостаточна.
        Как и все что сделала эта фирма.

        Единственное что S3 полезное сделало для человечества — хранение текстур ru.wikipedia.org/wiki/S3TC


  1. firk
    18.03.2018 17:00

    История развода игрунов на деньги.


  1. mad_god
    18.03.2018 18:03

    дано: HP split x2 13 r010dx полу-планшет полу-нетбук, с процессором i3-4012Y и видеокартой intel HD4200.
    Пассивное охлаждение, при котором запуск мало-мальски требовательной игры уводит температуру за 93 градуса и сбрасывает частоты. Причём, система в принципе тянула бы множество не самых современных игр на низких настройках, а я любитель залипать в игры.
    Как же так? Мощное железо, возможности которого раскрываются только на небольшой промежуток времени, причём от уважаемой компании.
    Или это только на моём устройстве так?


    1. fatronix
      18.03.2018 18:24

      Думаю, просто целевой аудиторией были не геймеры. Пассивное охлаждение как бы намекает.


    1. Areso
      18.03.2018 18:31

      Такая фишка (несоотв. СО и TDP процессора) может быть реализована для кратковременных пиковых нагрузок. К примеру, загружается сайт, в этот момент идет парсинг и выполнение JS — буквально пара секунд в пиковых нагрузках на максимальной частоте процессора значительно повышают отзывчивость веб-серфинга, при этом не доводя процессор до троттлинга (не успевая довести, скажем так).


  1. SpaceEngineer
    18.03.2018 18:53

    Боже, люди, почему вы не используете логарифмические графики?

    По поводу лимита 250 Вт TDP. Уже давно назрела необходимость пересмотреть компоновку элементов. В современном компьютере GPU такой же мощный и важный компонент, как и CPU, так зачем же ему ютиться на отдельной маленькой плате? Будь я производителем материнских плат, предложил бы новый стандарт. GPU выпускаются в виде чипов, так же как CPU, и вставляются в специальный сокет на плате. Видеопамять так же вставляется в слоты, подобно оперативной памяти.

    Ниже — пара слотов для SSD с каким-нибудь новым суперскоростным интерфейсом, или просто PCI-E. Самих PCI-E слотов теперь много не надо, ведь в типичном современном системнике 2-3 из них и так закрыты видеокартой, а для чего еще, кроме SSD, они нужны? Ладно, мне нужны для платы расширения с USB 3.0, поэтому дабы не плодить сущностей, желательно на матплате установить контроллер сразу на 12-16 портов.

    Расположение слотов CPU и GPU сделано с таким расчетом, чтобы можно было поставить два башенных кулера, или, еще лучше, накрыть их водоблоками или пластинами с тепловыми трубками, передающими тепло на заднюю (правую, если смотреть на системник спереди) стенку корпуса. Во втором случае сам корпус будет радиатором. Для мощных систем можно сделать радиатор турбинного типа, с двумя-тремя 12-см кулерами, продувающими его снизу вверх. Мосфеты цепей питания CPU и GPU накрыты теми же радиаторами. Весь системник продувается в направлении спереди назад парой обычных корпусных вентиляторов, для отвода тепла от памяти и всего остального, что греется.

    Для любителей экстрима можно выпускать платы с двумя сокетами под GPU. Но при наличии возможности дешевого апгрейда, это нафиг не нужно (многочиповые решения это больше маркетинг, чем что-то полезное). Апгрейд ведь возможен отдельно чипа, и отдельно видеопамяти. Кулер/водоблок сделать наконец-то стандартным, чтобы лет на 10-15 хватило. Питание, видео и прочая обвязка распаяна на плате, так что тоже не требует апгрейда.

    image


    1. Areso
      18.03.2018 20:53

      Ну, вы это совсем радикально предложили) Мне попадались варианты менее радикальные — сделать сокеты на графических платах под кристалл… Да, меньше расширяемости (не увеличить/поменять VRAM), но зато не так радикально.


    1. JohnHenry89 Автор
      18.03.2018 21:33

      Боже, люди, почему вы не используете логарифмические графики?

      Его разве что для закона Мура можно использовать, да и то на больших временных отрезков т.к. на маленьких не факт что даже в 10 раз вырастит значение.
      По поводу лимита 250 Вт TDP. Уже давно назрела необходимость пересмотреть компоновку элементов.

      Абсолютно согласен, форм-фактор ATX разрабатывался в совершенно другую эпоху.
      Будь я производителем материнских плат, предложил бы новый стандарт. GPU выпускаются в виде чипов, так же как CPU, и вставляются в специальный сокет на плате. Видеопамять так же вставляется в слоты, подобно оперативной памяти.

      Предлагаю обратить внимание на политику Intel в этой теме — новое поколение = новая мат.плата. Т.е. тенденция идет как раз в обратную сторону. Условно говоря, будть Intel монополистом, они бы наверняка давным давно перешли бы от LGA к BGA и продавали бы свои процессоры вместе с материнками.

      Ну далее по рисунку. Проблема в том что тепловые трубки не гибкие, а двух тепловых трубок на 250Вт тепла мало в т.ч. даже если трубки толстые. Помимо съемной оперативки, нарисованного несложно достигнуть, используя серверную МП и водяное охлаждение — жидкий теплоноситель заменит тепловые трубки на рисунке и без проблем отведет тепло на общий радиатор.


      1. SpaceEngineer
        19.03.2018 00:14

        Ну далее по рисунку. Проблема в том что тепловые трубки не гибкие, а двух тепловых трубок на 250Вт тепла мало в т.ч. даже если трубки толстые.


        Ну это лишь набросок, количество тепловых трубок может быть каким угодно. Ничто не запрещает сделать их гибкими. Ещё лучше использовать водянку, замкнутую необслуживаемую, такие системы уже сейчас сравнимы по стоимости с хорошими радиаторами.


        1. JohnHenry89 Автор
          19.03.2018 13:43

          Медь в тепловых трубках все равно довольно ломкая т.к. тонкая. Был Залмановский корпус с похожей концепцией, но там трубки были проложены т.о., чтобы минимизировать необходимость их гнуть.
          Ну а если говорить о водянке, то есть и трехсекционные, проблема у них главная не в способности охлаждать, а в наличии еще одного компонента по сравнению с воздушным охлаждением — помпы. А помпы даже в дорогих СВО норовят выйти из строя.
          В итоге получается что мы по большей части навешиваем просто СВО на компоненты, и ATX все еще можно обойтись.


          1. Popadanec
            19.03.2018 14:17

            Радиаторы можно сделать на петле, чтобы можно было отвести тепловые трубки не сгибая их.


            1. JohnHenry89 Автор
              19.03.2018 14:25

              Однако, нельзя не согласиться что лучшим решением тут все равно была бы гибкая трубка с жидким теплоносителем.


          1. Mad__Max
            20.03.2018 08:03

            Еще и шуметь, причем больше не сами (собственно аккустический шум), а вибрациями (частично решается качественным корпусом, но не всегда и тогда танцы с бубном в попытках организовать хорошую виброизоляцию или виброгашение)…
            На воздушном охлаждении сделать очень тихий компьютер как ни странно обычно проще, габариты кулеров получаются правда нескромные, но эффект достигается проще кроме совсем уж экстремальных разгонов и нагрузок.


    1. Alexeyslav
      18.03.2018 22:53

      На вашей плате не осталось места для чипсета. Графическая RAM быстрее обычной, возникнет проблема с её разводкой под съемные слоты. с DDR-4 уже и так впритык, решают вскоре переходить на последовательный интерфейс из-за сложностей в разводке на разъем параллельной шины.
      Да илихо вы лишили остальных пользователей возможности подключения PCI-E плат расширения: звуковые карты, платы оцифровки видео, ТВ-тюнеры и т.д. отказаться от этого в угоду графическому ускорителю прямо на плате, даже если он не нужен?


      1. BubaVV
        19.03.2018 00:00

        Снова будет FB-DIMM?


      1. SpaceEngineer
        19.03.2018 00:22

        На вашей плате не осталось места для чипсета.

        Так вон же он, внизу. Северный мост уже почти полностью перенесён в CPU, по крайней мере на интелах.

        Графическая RAM быстрее обычной, возникнет проблема с её разводкой под съемные слоты. с DDR-4 уже и так впритык, решают вскоре переходить на последовательный интерфейс из-за сложностей в разводке на разъем параллельной шины.

        Думаю это будет лучше, чем городить многоэтажный бутерброд из чипов RAM на одной подложке с GPU, как AMD делает. Ужасы про отвал чипов станут в сто раз страшнее. А на одном чипе изготовить и ядро, и память вряд ли получится, хотя это было бы самое лучшее решение. Всё-таки есть технологический предел размера чипа, по чистоте материала, охлаждению, температурным деформациям.

        Да илихо вы лишили остальных пользователей возможности подключения PCI-E плат расширения: звуковые карты, платы оцифровки видео, ТВ-тюнеры и т.д. отказаться от этого в угоду графическому ускорителю прямо на плате, даже если он не нужен?

        Так ничто не запрещает выпускать различные линейки плат. Кому не нужен мощный GPU — покупают платы со встроенной графикой, без сокета под GPU. Кому нужно больше PCI-E — можно пожертвовать слотами под SSD (это я уже нафантазировал, почитав про то, что современным SSD уже маловато пропускной способности PCI-E). Звуковухам и ТВ-тюнерам за глаза хватит обычного USB.


      1. irnis
        19.03.2018 00:42

        чипсет на другой стороне, или вообще на второй плате :), а почему бы нет, кстати?


        1. Alexeyslav
          19.03.2018 21:47
          +1

          Не делаюбт почему-то. Там проблема с проброской высокочастотных сигналов через VIA, индуктивность у них повышенная. А потом, представьте себе техпроцесс когда компоненты надо будет запекать с обоих сторон… это сразу удорожит плату.


    1. equand
      19.03.2018 11:36

      У Вас вышла серверная компоновка под dualcpu только с GPU на месте второго CPU.

      Выкинуть SSD и SATA. Сделать их подключаемым модулем через NVMe интерфейс. Увеличить количество PCIe и RAM слотов.


  1. abbath0767
    18.03.2018 21:07

    Если не секрет — откуда такой подробный датасет по видеокартам?


    1. JohnHenry89 Автор
      18.03.2018 21:10

      В Википедии (там ссылки в тексте) собрано большое число данных по моделям. Перенес таблицы в Эксель, оставалось только переконвертировать дату в человеческий формат и построить графики.