Примечание. Дата публикации статьи: 26.12.2015. За прошедшее время некоторые тезисы автора подтвердились реальными фактами, а некоторые оказались ошибочными — прим. пер.
В последние 40 лет мы видели, как скорость компьютеров росла экспоненциально. У сегодняшних CPU тактовая частота в тысячу раз выше, чем у первых персональных компьютеров в начале 1980-х. Объём оперативной памяти на компьютере вырос в десять тысяч раз, а ёмкость жёсткого диска увеличилась более чем в сто тысяч раз. Мы так привыкли к этому непрерывному росту, что почти считаем его законом природы и называем законом Мура. Но есть пределы этому росту, на которые указал и сам Гордон Мур. Мы сейчас приближаемся к физическому пределу, где скорость вычислений ограничена размером атома и скоростью света.
Канонические часы Тик-так от Intel начали пропускать такты то здесь, то там. Каждый «тик» соответствует уменьшению размера транзисторов, а каждый «так» — улучшение микроархитектуры. Нынешнее поколение процессоров под названием Skylake — это «так» с 14-нанометровым технологическим процессом. Логически, следующим должен стать «тик» с 10-нанометровым техпроцессом, но Intel теперь выдаёт «циклы обновления» после каждого «так». Следующий процессор, анонсированный на 2016 год, станет обновлением Skylake, всё ещё на 14-нанометровом техпроцессе. Замедление часов Тик-так — это физическая необходимость, потому что мы приближаемся к лимиту, где размер транзистора составляет всего несколько атомов (размер атома кремния — 0,2 нанометра).
Другое физическое ограничение — это скорость передачи данных, которая не может превышать скорость света. Требуется несколько тактовых циклов, чтобы данные попали из одного конца CPU в другой конец. По мере того как микросхемы становятся крупнее с большим и большим количеством транзисторов, скорость начинает ограничиваться самой передачей данных на микросхеме.
Технологические ограничения — не единственная вещь, которая замедляет эволюцию процессоров. Другим фактором является ослабление рыночной конкуренции. Крупнейший конкурент Intel, компания AMD, сейчас больше внимания уделяет тому, что она называет APU (Accelerated Processing Units), то есть процессорам меньшего размера с интегрированной графикой для мини-ПК, планшетов и других ультра-мобильных устройств. Intel теперь завладела подавляющей долей рынка процессоров для высококлассных ПК и серверов. Свирепая конкуренция между Intel и AMD, которая несколько десятилетий толкала вперёд развитие процессоров x86, практически исчезла.
Рост компьютерной мощи в последние годы идёт не столько от увеличения скорости вычислений, сколько от усиления параллелизма. В современных микропроцессорах используется три типа параллелизма:
У этих типов параллелизма нет теоретических лимитов, но есть реальные практические. Выполнение команд с изменением их очерёдности ограничено количеством независимых команд в программном коде. Вы не можете одновременно выполнить две команды, если вторая команда ждёт результат выполнения первой. Нынешние CPU обычно могут одновременно выполнять четыре команды. Увеличение этого количества не принесёт много пользы, потому что процессору будет сложно или невозможно найти в коде больше независимых команд, которые можно выполнить одновременно.
В нынешних процессорах с набором инструкций AVX2 есть 16 векторных регистров по 256 бит. Грядущий набор инструкций AVX-512 даст нам 32 регистра по 512 бит, и вполне можно ожидать в будущем расширения на 1024- или 2048-битные векторы. Но эти увеличения векторных регистров будут давать всё меньший эффект. Немногие вычислительные задачи имеют достаточный встроенный параллелизм, чтобы извлечь выгоду из этих векторов большего размера. 512-битные векторные регистры соединяются набором регистров маски, у которых ограничение на размер 64 бита. 2048-битные векторные регистры смогут хранить 64 числа одинарной точности по 32 бита каждое. Можно предположить, что Intel не планирует делать векторные регистры более чем 2048 бита, поскольку они превзойдут ограничения 64-битных регистров маски.
Многочисленные ядра CPU дают преимущество только если имеется множество критических к скорости одновременно работающих программ или если задача делится на многочисленные независимые потоки. Количество потоков, на которые можно с выгодой разделить задачу, всегда ограничено.
Производители без сомнения постараются делать всё более и более мощные компьютеры, но какова вероятность, что эту компьютерная мощь можно будет использовать на практике?
Существует четвёртая возможность параллелизма, которая пока не используется. В программах обычно полно веток if-else, так что если CPU научатся предсказывать, какая из веток сработает, то можно было бы поставить её на выполнение. Можно выполнять одновременно сразу несколько веток кода, чтобы избежать потери времени, если предсказание окажется неправильным. Конечно, за это придётся заплатить повышенным энергопотреблением.
Другое возможное улучшение — разместить программируемое логическое устройство на микросхеме процессора. Подобная комбинация сейчас является обычным делом для так называемых FPGA, которые используются в продвинутой аппаратуре. Такие программируемые логические устройства в персональных компьютерах можно использовать для реализации функций, специфических для конкретных приложений, для задач вроде обработки изображений, шифрования, сжатия данных и нейросетей.
Полупроводниковая индустрия экспериментирует с материалами, которые можно использовать вместо кремния. Некоторые полупроводниковые материалы III-V способны работать на более низком напряжении и на более высоких частотах, чем кремний, но они не делают атомы меньше или свет медленнее. Физические ограничения по-прежнему в силе.
Когда-нибудь мы можем увидеть трёхмерные многослойные чипы. Это позволит уплотнить схемы, уменьшить расстояния, а следовательно, и задержки. Но как эффективно охлаждать такой чип, когда энергия распространяется повсюду внутри него? Потребуются новые технологии охлаждения. Микросхема не сможет передавать питание на все схемы одновременно без перегрева. Ей придётся держать отключенными большинство своих частей основную часть времени и подавать питание в каждую часть только во время её использования.
В последние годы скорость CPU увеличивается быстрее, чем скорость RAM, которая часто становится серьёзным узким местом. Без сомнения, в будущем мы увидим много попыток увеличить скорость оперативной памяти. Вероятной разработкой будет поместить оперативную память на одну микросхему с CPU (или хотя бы в один корпус), чтобы уменьшить расстояние для передачи данных. Это будет полезное использование трёхмерных чипов. Вероятно, RAM будет статического типа, то есть на каждую ячейку памяти будет подаваться питание только когда к ней осуществляется доступ.
Intel также снабжает рынок суперкомпьютеров для научного использования. У процессора Knight's Corner — до 61 ядра на одной микросхеме. Он имеет слабое соотношение производительность/цена, но его ожидаемый наследник Knight's Landing должен быть лучше по этому показателю. Он вместит до 72 ядер на чипе и сможет выполнять команды с изменением их очерёдности. Это маленький нишевый рынок, но Intel может повысить свой авторитет.
Сейчас лучшие возможности по улучшению производительности, как я думаю, с программной стороны. Разработчики ПО быстро нашли применение экспоненциальному росту производительности современных компьютеров, который произошёл благодаря закону Мура. Программная индустрия стала использовать её, а также начала использовать более и более продвинутые инструменты разработки и программные фреймворки. Эти высокоуровневые инструменты разработки и фреймворки сделали возможным ускорить разработку ПО, но за счёт потребления большего количества вычислительных ресурсов конечным продуктом. Многие из сегодняшних программ довольно расточительны в своём чрезмерном потреблении аппаратной вычислительной мощности.
На протяжении многих лет мы наблюдали симбиоз между аппаратной и программной индустриями, где последняя производила всё более продвинутые и ресурсоёмкие продукты, которые подталкивали пользователей покупать всё более мощное оборудование. Поскольку скорость роста аппаратных технологий замедлилась, а пользователи перешли на маленькие портативные устройства, где ёмкость батареи важнее, чем производительность, программной индустрии теперь придётся изменить курс. Ей придётся урезать ресурсоёмкие инструменты разработки и многоуровневый софт и разрабатывать программы, не так набитые функциями. Сроки разработки увеличатся, но программы станут потреблять меньше аппаратных ресурсов и быстрее работать на маленьких портативных устройствах с ограниченным ресурсом батареи. Если индустрия коммерческого ПО сейчас не изменит курс, то может уступить долю рынка более аскетичным продуктам open source.
В последние 40 лет мы видели, как скорость компьютеров росла экспоненциально. У сегодняшних CPU тактовая частота в тысячу раз выше, чем у первых персональных компьютеров в начале 1980-х. Объём оперативной памяти на компьютере вырос в десять тысяч раз, а ёмкость жёсткого диска увеличилась более чем в сто тысяч раз. Мы так привыкли к этому непрерывному росту, что почти считаем его законом природы и называем законом Мура. Но есть пределы этому росту, на которые указал и сам Гордон Мур. Мы сейчас приближаемся к физическому пределу, где скорость вычислений ограничена размером атома и скоростью света.
Канонические часы Тик-так от Intel начали пропускать такты то здесь, то там. Каждый «тик» соответствует уменьшению размера транзисторов, а каждый «так» — улучшение микроархитектуры. Нынешнее поколение процессоров под названием Skylake — это «так» с 14-нанометровым технологическим процессом. Логически, следующим должен стать «тик» с 10-нанометровым техпроцессом, но Intel теперь выдаёт «циклы обновления» после каждого «так». Следующий процессор, анонсированный на 2016 год, станет обновлением Skylake, всё ещё на 14-нанометровом техпроцессе. Замедление часов Тик-так — это физическая необходимость, потому что мы приближаемся к лимиту, где размер транзистора составляет всего несколько атомов (размер атома кремния — 0,2 нанометра).
Другое физическое ограничение — это скорость передачи данных, которая не может превышать скорость света. Требуется несколько тактовых циклов, чтобы данные попали из одного конца CPU в другой конец. По мере того как микросхемы становятся крупнее с большим и большим количеством транзисторов, скорость начинает ограничиваться самой передачей данных на микросхеме.
Технологические ограничения — не единственная вещь, которая замедляет эволюцию процессоров. Другим фактором является ослабление рыночной конкуренции. Крупнейший конкурент Intel, компания AMD, сейчас больше внимания уделяет тому, что она называет APU (Accelerated Processing Units), то есть процессорам меньшего размера с интегрированной графикой для мини-ПК, планшетов и других ультра-мобильных устройств. Intel теперь завладела подавляющей долей рынка процессоров для высококлассных ПК и серверов. Свирепая конкуренция между Intel и AMD, которая несколько десятилетий толкала вперёд развитие процессоров x86, практически исчезла.
Рост компьютерной мощи в последние годы идёт не столько от увеличения скорости вычислений, сколько от усиления параллелизма. В современных микропроцессорах используется три типа параллелизма:
- Одновременное выполнение нескольких команд с изменением их очерёдности.
- Операции Single-Operation-Multiple-Data (SIMD) в векторных регистрах.
- Несколько ядер CPU на одной микросхеме.
У этих типов параллелизма нет теоретических лимитов, но есть реальные практические. Выполнение команд с изменением их очерёдности ограничено количеством независимых команд в программном коде. Вы не можете одновременно выполнить две команды, если вторая команда ждёт результат выполнения первой. Нынешние CPU обычно могут одновременно выполнять четыре команды. Увеличение этого количества не принесёт много пользы, потому что процессору будет сложно или невозможно найти в коде больше независимых команд, которые можно выполнить одновременно.
В нынешних процессорах с набором инструкций AVX2 есть 16 векторных регистров по 256 бит. Грядущий набор инструкций AVX-512 даст нам 32 регистра по 512 бит, и вполне можно ожидать в будущем расширения на 1024- или 2048-битные векторы. Но эти увеличения векторных регистров будут давать всё меньший эффект. Немногие вычислительные задачи имеют достаточный встроенный параллелизм, чтобы извлечь выгоду из этих векторов большего размера. 512-битные векторные регистры соединяются набором регистров маски, у которых ограничение на размер 64 бита. 2048-битные векторные регистры смогут хранить 64 числа одинарной точности по 32 бита каждое. Можно предположить, что Intel не планирует делать векторные регистры более чем 2048 бита, поскольку они превзойдут ограничения 64-битных регистров маски.
Многочисленные ядра CPU дают преимущество только если имеется множество критических к скорости одновременно работающих программ или если задача делится на многочисленные независимые потоки. Количество потоков, на которые можно с выгодой разделить задачу, всегда ограничено.
Производители без сомнения постараются делать всё более и более мощные компьютеры, но какова вероятность, что эту компьютерная мощь можно будет использовать на практике?
Существует четвёртая возможность параллелизма, которая пока не используется. В программах обычно полно веток if-else, так что если CPU научатся предсказывать, какая из веток сработает, то можно было бы поставить её на выполнение. Можно выполнять одновременно сразу несколько веток кода, чтобы избежать потери времени, если предсказание окажется неправильным. Конечно, за это придётся заплатить повышенным энергопотреблением.
Другое возможное улучшение — разместить программируемое логическое устройство на микросхеме процессора. Подобная комбинация сейчас является обычным делом для так называемых FPGA, которые используются в продвинутой аппаратуре. Такие программируемые логические устройства в персональных компьютерах можно использовать для реализации функций, специфических для конкретных приложений, для задач вроде обработки изображений, шифрования, сжатия данных и нейросетей.
Полупроводниковая индустрия экспериментирует с материалами, которые можно использовать вместо кремния. Некоторые полупроводниковые материалы III-V способны работать на более низком напряжении и на более высоких частотах, чем кремний, но они не делают атомы меньше или свет медленнее. Физические ограничения по-прежнему в силе.
Когда-нибудь мы можем увидеть трёхмерные многослойные чипы. Это позволит уплотнить схемы, уменьшить расстояния, а следовательно, и задержки. Но как эффективно охлаждать такой чип, когда энергия распространяется повсюду внутри него? Потребуются новые технологии охлаждения. Микросхема не сможет передавать питание на все схемы одновременно без перегрева. Ей придётся держать отключенными большинство своих частей основную часть времени и подавать питание в каждую часть только во время её использования.
В последние годы скорость CPU увеличивается быстрее, чем скорость RAM, которая часто становится серьёзным узким местом. Без сомнения, в будущем мы увидим много попыток увеличить скорость оперативной памяти. Вероятной разработкой будет поместить оперативную память на одну микросхему с CPU (или хотя бы в один корпус), чтобы уменьшить расстояние для передачи данных. Это будет полезное использование трёхмерных чипов. Вероятно, RAM будет статического типа, то есть на каждую ячейку памяти будет подаваться питание только когда к ней осуществляется доступ.
Intel также снабжает рынок суперкомпьютеров для научного использования. У процессора Knight's Corner — до 61 ядра на одной микросхеме. Он имеет слабое соотношение производительность/цена, но его ожидаемый наследник Knight's Landing должен быть лучше по этому показателю. Он вместит до 72 ядер на чипе и сможет выполнять команды с изменением их очерёдности. Это маленький нишевый рынок, но Intel может повысить свой авторитет.
Сейчас лучшие возможности по улучшению производительности, как я думаю, с программной стороны. Разработчики ПО быстро нашли применение экспоненциальному росту производительности современных компьютеров, который произошёл благодаря закону Мура. Программная индустрия стала использовать её, а также начала использовать более и более продвинутые инструменты разработки и программные фреймворки. Эти высокоуровневые инструменты разработки и фреймворки сделали возможным ускорить разработку ПО, но за счёт потребления большего количества вычислительных ресурсов конечным продуктом. Многие из сегодняшних программ довольно расточительны в своём чрезмерном потреблении аппаратной вычислительной мощности.
На протяжении многих лет мы наблюдали симбиоз между аппаратной и программной индустриями, где последняя производила всё более продвинутые и ресурсоёмкие продукты, которые подталкивали пользователей покупать всё более мощное оборудование. Поскольку скорость роста аппаратных технологий замедлилась, а пользователи перешли на маленькие портативные устройства, где ёмкость батареи важнее, чем производительность, программной индустрии теперь придётся изменить курс. Ей придётся урезать ресурсоёмкие инструменты разработки и многоуровневый софт и разрабатывать программы, не так набитые функциями. Сроки разработки увеличатся, но программы станут потреблять меньше аппаратных ресурсов и быстрее работать на маленьких портативных устройствах с ограниченным ресурсом батареи. Если индустрия коммерческого ПО сейчас не изменит курс, то может уступить долю рынка более аскетичным продуктам open source.
Поделиться с друзьями
Noa69
Хорошая шутка, свежая, актуальная.
На практике же вычеслительные мощности переезжают в датаценты и доступ к ним конечный пользователь получает по подписке, или какой-нибудь другой странной схеме их оплаты.
MaxKorz
а из-за огромных вычислительных мощностей многие программисты не видят смысла в оптимизации, т.к. на core i7 всякая оптимизацией выглядит «экономией на спичках»
Skerrigan
Я вот кстати задаюсь таким вопросом — попади моя домашняя рабочая станция в прошлое, лет этак на 50-70 (ну когда там "звезды покоряли", стройки века, покемонов не ловили и котиков не смотрели на "ретина"-дисплеях), привело бы это к чему-то хорошему?
64Gb RAM, 6700 i7, "до 10Тб хранилище" (где-то там полный дамп всей Вики за 2015-тый год).
Garbus
Ну к нему бы было неплохо еще интерфейсного железа пачку, для снабжения подобного «суперкомпьютера» информацией для переработки. Да и подробной документации по командам на разные узлы, а то случайно потрешь прощивку какую нибуть и станет кучей бесполезного железа, так как исправить нечем.
AlexanderS
Да будет то же самое, если нам сейчас «упадёт» компьютер из 2087 года «на убыстрённых кварках с фотонно-распределённой памятью». С виду — прозрачный куб) Выглядит круто, стильно, мощно и привлекательно. Дамы — вообще в восторге. Но что с этим делать — непонятно) Я думаю, что мы его включали бы методом тыка так же как методом тыка бы искали в 1940ых настройки вашего BIOS для успешного прохождения POST системы с севшей батарейкой CMOS (хотя у вас на материнке наверняка UEFI и EEPROM — давайте не будем вдаваться в подробности). Я думаю ещё, что ваш комп разобраться и включить ещё и попроще будет ;)
gxcreator
50 лет назад — это 1970й, уже первые персональные компьютеры были.
AlexanderS
Я брал -70 лет.
x67
Сейчас полно научных и технических задач, которые даже отлично параллелятся, но ресурсов для них все равно не хватает. Те, кто работают с cfd моделями с руками оторвут этот пк 2087 года. И 50 лет назад современный пк мог кардинально поменять расстановку сил в мире, ускорить прогресс и спасти еще миллион человек. Сейчас прогресс тесно связан с развитием электроники. И так будет дальше. Мир вычислений не ограничивается маркетинговой бигдатой, индусским кодом для казино *улкан или тетрисом внутри майнкрафта, который внутри jvm, которая развернута на виртуальном сервере в дц под Москвой.
bondbig
x67
скорее «и наоборот». Естественно, компьютеры используются и для создания оружия и для других плохих вещей, но это не повод проявлять фундаментализм. Если человек хочет убивать, он прекрасно будет убивать и с палкой в руках
bondbig
С мощным компом будет попроще
MTyrz
Вот зря заминусовали, между прочим.
К такой рабочей станции дофигища всего нужно, чтобы извлечь пользу. В первую очередь — пользователи. А во вторую — периферия, софт, документация…
Изолированный комп без съемных носителей информации (а куда их подключать, если по условиям задачи станция одна на планете) — вещь совсем в себе. И узким местом у него будет пропускная способность ввода с клавиатуры/записи результата с экрана на бумажку. Даже при прочих равных условиях: грамотные пользователи, предустановленный набор софта на все случаи жизни…
Skerrigan
Ну я исходил из как минимум того, что сам факт воплощения в натуре подобного, будет способен подтолкнуть в нужную сторону тех-прогресс, ибо более чем уверен, что найди такое в те времена — непременно утащили бы в "зону 51"/"бункер под Лубянкой" и пошло бы сверх-засекреченное исследование. Причем почти наверняка на пределе осторожности. Все равно даже это колоссально толкнуло бы в нужную сторону R&D тех (Красные или Синие) у кого бы подобное оказалось. И кто знает, может кибернетику не объявили бы лженаукой. Или, кто знает — может у "Синих" и был какой-либо артефакт (не подумайте только обо мне, что я какой-то больной на голову). И их более верное развитие является итогом "подсказки".
runapa
А как вы себе представляете исследование современного чипа технологиями 70 летней давности? Даже элементарно принципиальную схему не сделать. А с учётом того, что он в единственном экземпляре, еще и не дадут.
Skerrigan
Есть же такое понятие, как косвенный анализ. И да, 70 лет назад бы просто опечатали и стояло бы в бункере. А лет через 10-15 уже полезли бы — т.к. технологически продвинулись бы.
Плюс ко всему дело не только в конкретном ЦП, а скорее в том, как и что делать, как компоновать, к чему стремиться и т.д.
Ну и если таки закинуть вместе с монитором/мышкой, тогда и пользоваться бы смогли (даже с одной клавой). А у меня на машине есть диапазон инструментов от физмат расчетов, до 3д-проектировки. Это не считая той же Вики образца 2015.
Когда непосредственно занимаешься разработкой электросхем, проектировкой — уже одного беглого взгляда на новый образец достаточно чтобы +- километр понимать с чем имеем дело.
Я не думаю, что наши предки 50-70 лет назад были совсем "неандертальцами".
tnenergy
Как человек, который каждый день занимается разработкой "электросхем", могу сказать, что неразрушающими методами 70 лет назад специалисты смогли бы разобраться в принципах работы компьютера (ну там, как DDR3 шина устроена, или USB) но не повторить.
Дамп википедии помог бы тут не меньше.
Skerrigan
Ну тогда совсем отлично — если смогли бы понять принцип работы, то как минимум уже сам компьютер смогли применять для чего-то нужно-полезного. К примеру вести расчеты для проектирования двигателей. Самые критически важные и трудоемкие расчеты делали бы на нем. А дамп вики — так же бы сильно ускорил ход прогресса. Ибо одно дело "жопокрутка Мали Сайрус" и совсем другое дело "развитие навыков в прикладной урбанизации"/"агрономия".
tnenergy
Если на этом образце был бы какой-нибудь Matlab или Simulink, то безусловно его можно было бы использовать для расчетов, самых разных. Прикладные применения просматриваются во множестве, тут вопроса нет.
sHaggY_caT
Достаточно компилятора и учебника C/C++, Python, etc
Nimo_tsi
т.е. этакий «Вояджер», отправленный в прошлое уже получается.
Skerrigan
Пора подключать Голливуд — мы почти написали каркас сценария!
Nimo_tsi
Имя этой «подсказки» ученые из Германиии, эмигрировавшие в Штаты: Вернер фон Браун, Эйнштейн и многие другие.
MTyrz
Может, и утащили бы. Если бы поняли, что это представляет интерес. Конечно, если бы случайно нашли в работающем виде с запущенной виндой, то заинтересовались бы.
Я скорее склоняюсь к постулату Кларка: опережающая технология не весьма хорошо отличима от магии. Я не разделял бы оптимизма tnenergy относительно возможности разобраться: впрочем, скорее всего он намного компетентнее меня.
М-мм…
Вот, придумал!
В течении многих лет, и в частности, 70 лет назад тоже, человечество имело в качестве объекта наблюдения сложные логические машины с биологической обвязкой. Их настолько достаточно для исследований, что никакой предельной осторожности они при обращении с собой не требуют. Ну да, собственно людей.
Надо заметить, что успехи в исследовании мозга и вообще основ жизни в последние десятилетия весьма впечатляют, тем не менее проблема пока далека от разрешения. Я постулирую, что для техники семидесяти-, и даже пятидесятилетней давности современный уровень развития будет схожим вызовом.
Cubango
Дамп википедии 2015 года имел бы гораздо большее влияние, чем данный компьютер сам по себе.
SteppenHorde
В таком случае было бы лучше, если бы он упал где-нибудь на территории СССР. Глядишь, и Перестройка была бы у них, а не у нас)
zuwr2t
Его бы сожгли как ересь и все.
Ernillgeek
Ага. Не было бы перестройки, был бы новый виток репрессий, были бы массовые убийства, вы бы не сидели в интернете, а сидели бы за колючей проволокой и вам бы ломали челюсть надзиратели(как Королеву), что бы вы лучше работали.
Прекрасный бы был мирок.
Всегда мечтаю, что бы всех вас, горе-совколюбов, закинуло хотя бы в конец сталинского времени, а лучше в разгар террора. Что бы вы совка полной лопатой пожрали.
sHaggY_caT
Да, Вы правы, было бы вот так:
А я не понимаю, что им мешает выучить корейский, и отправиться в страну мечты? Я всё же о таком не мечтаю, насилие неприемлимо, да и оскорблять людей не очень хорошо, всё должно быть добровольно, но ведь есть же реальная страна их мечты. Что мешает туда уехать?
Может, не так и велико желание, а любовь к Сталину это вроде такой игры, а на самом деле они понимают, что там было ужасно?
tieonabe
Ага, а любой двоечник на самом деле знает как решать уравнения и писать без ошибок. Просто играет в дурачка. Увы, идиоты не притворяются, а реально такие от природы.
SteppenHorde
Ну у вас и фантазия. Я, кстати, либеральных взглядов, так что хватит френдли файр)
SteppenHorde
Это я к тому, что может быть удалось бы избежать такого крупного технологического и идейного разрыва со Штатами.
Ernillgeek
К началу 80ых технологическое отставание совка от развитых стран составляло лет уже 30 и оно увеличивалось.
Matisumi
Это вы так завуалированно похвалились своей железкой?
Eldhenn
Павел Дмитриев, "Ещё не поздно".
seri0shka
Меня тоже впечатлило. Особенно «техническая» часть.
Skerrigan
Афигеть — когда-то давным давно читал похожее. Там в прошлое СССР кажется трое попали. В второй мировой участвовали. Сильно временную-событийную линию изменили — жаль не знаю, как называлось. Но предложенный вами рассказ я точно прочту. Спасибо!
MTyrz
(сарказм)
Откройте для себя термин «попаданцы».
Но будьте осторожны: ваш мир уже никогда не станет прежним.
(/сарказм)
AlexanderS
В статистическом большинстве попаданцы же вроде как в далёкое будущее попадали, а не в прошлое?
zuwr2t
Уверен, что такой статистики нет. Жаль что нет.
Они попадают куда угодно.
AlexanderS
Погуглил — да, возможно вы правы. Я просто к этому термину приобщился, когда штудировал подборку по еве)
MTyrz
К сожалению, не в большинстве.
Попадавших в прошлое от Второй Мировой до Римской империи какое-то немыслимое количество. И все, как один, владеют восточными единоборствами на уровне выпускников Шаолиня, естественными науками примерно на уровне дфмн, прикладники класса Туполева и Королева, и еще чисто случайно читали в школе и запомнили все даты целевой эпохи, включая даты критических дней любимой наложницы императора.
Разумеется, все это одновременно, плюс несколько эпохоспецифичных навыков: для ВМВ это обычно диверсионно-разведывательная подготовка, для Рима фехтование на мечах и тактические приемы управления легионом и тыды…
Издательство «Крылов» несколько лет только это и издавало, к вопросу о количестве, и на том весьма себе поднялось.
black_semargl
MTyrz
Учитывая абсолютно превосходящую численность тех, кто не имел, закрадывается страшное подозрение. Похоже, прошлое было заселено в основном попаданцами. Среди которых, пугливо озираясь, бродили редкие темпоральные аборигены.
Ernillgeek
Это вам повезло. Сейчас по теме попаданцев выходят тонны макулатуры, при чем всегда попадают правильные русско-арии несущие русский мир, обязательно в прошлое и сражаются в давно проигранных битвах. Макулатура про попаданцев — самый популярный жанр среди русскомирцев, ведь в реальности они и их взгляд на мир никому не нужны и являются мусором.
smilyfox
Фильм называется "Мы из будущего"
Skerrigan
Еще раз внимательно: читал.
Именно текст, кажется книга была в двух частях. Да, "клюквистая", но там много что обыграно. И война шла совсем по иному в итоге, та же РЭБ появилась очень рано у наших. Немцы так же развитие стали вести гораздо быстрей.
Основные персонажи (2-е) были кажется в той или иной степени танкистами. Третий пошел в КБ, "изобретать" танки и вертушки, в первой книге его убили (вроде как).
smilyfox
Для эстетов по этому фильму еще и книга есть, правда ее никто не читал, поэтому и указал на фильм, к вашему описанию в первом комментарии он подходит.
smilyfox
А вообще про "попаданцев" уйма книг. Здесь: https://m.vk.com/topic-44132962_28529156
их попытались каталогизировать. Посмотрите — может найдете нужную.
Skerrigan
Блин, Огромное Вам Спасибо!
Skerrigan
Два танкиста из будущего — нашел!
black_semargl
Есть ещё «Игра на выживание» Ходова — там в прошлое целый самолёт попал, хотя при падении выжили единицы.
hacklex
Ну, откуда ж знать...«зависит» ©
Gryphon88
Не надо рекламировать Симонова, там даже не клюква, а сразу морс.
hacklex
Ни в коем случае не реклама, боже упаси. Только указываю, что эта мысль настолько много кому в голову приходит, что уже аж книги, судя по всему, даже не единичные клепают…
PS. Да, там, конечно, «горячий-горячий, совсем белый». Но завязка практически совпадает.
bro-dev
ссср не проиграл холодную войну, ну и дальше реадалерт
Oleg_Dolbik
4 Мб RAM, 125 ns цикл процессора, 4х200 мб съемных жестких диска, 4 ленточных накопителя для бекапов — 24 рабочих места на терминалах и полностью учет движения материалов и продукции для приличного по размерам предприятия в реальном времени. (ЕС 1045, Adabas, Natural)
avacha
Черт побери, я видел порноф… книжку, которая начинается совершенно также.
К Хрущеву попадает ноутбук, ну и понеслось.
Nimo_tsi
На трибуне ООН стучал не тапком, а лэптопом?
avacha
Не, он там видеокартой стучал :)
Хм. Потыкал по ссылкам, и вот, пожалуйста, ее выше уже упоминали:
https://geektimes.ru/post/291713/#comment_10230109
vya
Согласен, когда парсер-агрегатор (xslx+csv ~ 500кб) жрёт 20 Мб в пике и выполняет полный цикл на i5 за 400 мс, особо не задумываешься.
Sleepwalker_ua
Вот поэтому я все чаще склоняюсь к мысли, что большую часть программерастов (а не нормальных пряморуких прогеров) надо принудительно сажать за машины уровня пентиум-2 +128 Мб ОЗУ и под угрозой трансплантации рук и ног между собой без наркоза заставлять писать программы, чтобы они без глюков на этом железе работали
DistortNeo
Будете ли вы готовы в этом случае в 3-4 раза больше за софт? Пока стоимость железа ниже стоимости софта, никто взерьёз не будет думать об оптимизации по используемой памяти.
d1f
Я не плачу за софт.
Nimo_tsi
Вы платите косвенно, расходы на софт заложены в ценах на товары, которые вы покупаете, в ставке банковского кредита, и т.д.
d1f
Нет, и косвенно не плачу.
theurs
Если какой-нибудь маилру собирается делать мессенджер которым по планам будет пользоваться 50млн человек то наверное стоит набрать программистов получше и платить им побольше.
Андроидом пользуется уже больше миллиарда человек а пишут его по прежнему индусы.
Swar
Я — готов. Хотя бы потому, что покупать софт придется заметно реже.
vedenin1980
Вообще-то, качество кода и его производительность это разные понятия, даже скорее несовместимые (после определенного предела оптимизированный код получается очень запутанным и сложным или вместо скажем Java приходится брать ассемблер). Быстрая, но дико глючная программа часто еще хуже, чем медленная, но не глючная.
Поэтому нет, покупать софт или платить за обновления придется скорее всего даже чаще, просто чтобы исправить все глюки ускорения.
Sleepwalker_ua
Готов. Потому что платить за железо приходится еще больше. Когда твой вполне адекватный комп начинает вешаться от 5 вкладок в браузере, и тебе приходится покупать железяку за 600 долларов, чтобы браузер не лагал еще хотя бы годик-полтора, это проблема. Я лучше заплачу за браузер 20 долларов (вместо бесплатности), но буду иметь гарантию, что он спокойно будет работать как на Intel Celeron 2011 г.в., так и на современном core7 практически одинаково.
прогресс в железе это хорошо, беда только в том, что кошельки многих пользователей за ним не успевают. И если в сфере видеоигр необходимость наращивания мощностей видеокарт оправдана вполне физическими параметрами и при этом виден _качественный_ прогресс, то понять, какого же черта то, что нормально работало год назад, теперь жутко лагает без малейших изменений функционала и внешнего вида, для меня затруднительно.
Skerrigan
Аж обидели — у меня несколько ИДЕ запущенно (java, java, php, php — суммарно 4 шт.).
Батареи браузеров. Виртуалки. А на второй половине ОЗУ работают игры — зачем мне куча никчемных ноутбуков или компов, когда можно собрать полностью боевую станцию, что способна перемолоть все и вся.
К тому же вы ничего не знаете о качестве моего кода, моих задачах — но сразу кидаете какахи.
Да и писать ПО без современных библиотек — это разработка времен динозавров. Я не под микроконтроллеры пишу — могу себе позволить использовать нормальный инструмент.
FernandoAlfonso
Увы, автор в заключении выдавал желаемое за действительное. За эти полтора с лишним года с написания статьи я, как обыватель, облегчения софта не ощущаю ни на йоту.
gkvert
Почему увы? Есть ведь и обратная сторона у этой проболемы. Хоть программы в среднем стали весить больше и потребляют больше ресурсов скорость разработки появления всяких новинок выросла. Расходы на разработку упали(на разработку такой же по функционалу программы но менее требовательной к ресурсам). Так что у монеты есть две стороны.
Nimo_tsi
Кому нужны эти «всякие новинки»? Сегодня выпускают одно г… люкавое, через неделю — другое. Большинству юзеров от этого ни холодно, ни жарко.
Речь скорее об ОС, СУБД, финансовом и корпоративном ПО, МС Офис, браузерах и т.п. софте, который используется ежедневно. За десять лет практически никакого прогресса.
ivan386
Как мне кажется проблема тормознутости многого софта не в том что процессор не успевает посчитать а в том что большую часть времени он байтики в памяти гоняет с места на место. Надо оптимизоровать работу с памятью.
boblenin
О каком облегчении программ можно говорить, если ОРМ, внедрение зависимостей и автоматические мапперы из мира ентерпрайза перелазят в мобильную разработку? Все будет только хуже и хуже.
kefirfromperm
2015 год, а автор не в курсе что предсказание переходов и упреждающее выполнение уже десять лет как реализовано?
izzholtik
Статья — какая-то компиляция фактов из википедии и наивных домыслов, подобных нестыковок в ней полно.
SHVV
Скорее неточность перевода. Автор как раз и говорит, что не верное предсказание перехода дорого обходится, а вот если бы обе ветки выполнялись параллельно, то мы получили бы некий прирост производительности.
alan008
Интересно, как обе ветки предполагается выполнять в параллели, если в одной ветке присвоение x=1, а во второй — x=2
:-)
quwy
В современных насыщеных регистрами архитектурах ваш x с большой вероятностью окажется регистром. А два набора регистров для двух вариантов исполнения — это даже поднятой от удивления брови нынче не стоит.
Но даже если x лежит в памяти, все равно остается вариант манипуляции очередью записи, что тоже не так сложно. Да и L1 можно задействовать под буфер.
Современный x86 (даже без "_64") уже далеко не так прост как дедушка i8086 из учебника, и полон самых неожиданных и неочевидных решений.
Vooon
Спекулятивное исполнение на уровне микрокода тоже уже давно есть. Достаточно сравнить сколько микрокоманд ISSUED и RETIRED.
Anton23
Мне кажется, вот что ждет нас в будущем:
Увеличение кол-ва процессоров в пк.
Квантовые процессоры.
Несколько «процессорных микросхем»(простите, забыл как называются, чипы под «крышкой» процессора, для которых еще делают скальпирование) под одной «крышкой».
amartology
Несколько микросхем внутри одного корпуса микропроцессора — это уже сейчас, а не будущее.
Nikita_64
А возможна ли теоретически хотя бы, по мнению сообщества Geektimes, система, которая бы анализировала исходники или машинный код имеющийся софта и полностью бы переписывала его покороче? Имеется ввиду что что-то вроде ИИ рассматривает программу как черный ящик и заново переписывает? По сути — робот-программист.
Gryphon88
вообще работы ведутся, с нескольких разных сторон (написание, компиляция, виртуальные машины). Что вы имеете в виду, мы подаём в оптимизирующий инструмент сорцы или уже исполняемый файл?
Nikita_64
Любопытно и то, и другое. Однако, думается, что, как это ни странно звучит, ИИ проще было бы работать с исполняемым файлом (с машинным кодом), потому что логига компилятора более предсказуемая, чем человека.
MrRIP
«программа-оптимизатор». Она-же «транслятор под выбранный процессор». Были такие раньше. С приходом «мощных» процессоров всё забросили, ибо как писали выше — «оптимизировать код на Core — экономия на спичках». В результате получаем то что получаем — процессора вроде в десятки раз быстрее. а код всё такой-же тормознутый :(
Nikita_64
Наверное, тут еще работает принцип вроде спрос-предложение: если пользователь готов ждать XX ms отклика системы до того, как схвАтится за молоток, то задержки меньше XX будут нормой. Например, загрузка небольшого файла с дискеты занимала 5-10 сек. Сейчас загрузка из облачного хранилища предприятия может быть такой же долгой. Или открытие сайта: что на dial-up 15 лет назад, что сейчас принципиально скорость получения текстовой информации мало изменилась, добавились свистелки. Другое дело, медиа-контент, тут прорыв, но в файле медиа-контента обычно мало мусора.
MrRIP
Ну да — за счёт «свистелок и перделок» средняя страница сейчас весит до 30-50МБ!!! Без учёта «подгружаемого медиаконтента»…
Да и про «медиа» — раньше реклама столько не весила. А если и весила — успешно прибивалась рекламорезками. Сейчас сайтописатели умные пошли — текст сайта засовывают в тот-же фрейм что и рекламу…
Общем — правду кто-то писал: «Лень и писькомерство — два двигателя прогресса человечества!»
Nikita_64
Медиа-контент я имел ввиду полезный, т.е. тот, который я хочу посмотреть-послушать, а не рекламу. про нее Вы совершенно правы.
alan008
Это называется оптимизирующий компилятор. Но прогресс в этой области крайне низкий.
DistortNeo
Да достаточно разрулить ситуацию, когда из-за какой-то мелкой функции программист тянет целый фреймворк, вместо того, чтобы просто выдрать её или написать её заново, если выдрать невозможно.
Skerrigan
В мире веба сейчас пошла эпоха хороших модульных фреймворков. Ленивая загрузка и прочие улучшайзеры так же все шире и шире проникают.
runapa
Вы сейчас покусились на священную корову программизма — не пиши велосипедов! А если серьёзно выше уже сказали про стоимость разроботки софта. Мне кажется, что оптимизировать начнут тогда, когда появятся серьёзные ограничения в одной из сыер — либо железо нельзя будет улучшить, либо требования к софту станут драконовскими.
DistortNeo
Да, покусился. В некоторых случаях велосипеды писать можно и даже нужно.
Hellsy22
Я бы даже сказал, что не писать велосипеды невозможно, равно как и на 100% писать велосипеды невозможно. Код всегда опирается на какие-либо библиотеки или фреймворки и всегда реализует функционал, который где-то кем-то и как-то уже был реализован. И соотношение это зависит от конкретной задачи.
vedenin1980
Виртуальные машины и компиляторы таких языков как Java и С# именно это и делают. Они легко могут выкинуть ненужный цикл, заменить медленный участок кода более быстрым, JVM, например, вообще собирает статистику в рантайме и переписывает код в зависимости от реального использования.
Основная проблема в невозможности для машины неэквивалентных преобразований, ну не может компилятор сказать, что фича А не очень важна для пользователей, но требует 99% машинного времени и ее просто выкинуть. Его за это программисты порвут.
Поэтому все оптимизации ведутся с сохранением 100% функциональности кода, а это всегда сложнее.
SerHitman
Честно говоря не понимаю смысла этой статьи, в начале нам 100500 раз разжевывается тик-так, «закон» мура и все такое, потом немного фантазии и закончили ошибочными тезисами (либо которые еще не сбылись)… время потрачено напрасно.
Uzm247
понятно, спасибо за перевод
Barnaby
Зато у GPU все очень даже хорошо, gtx 960 vs gtx 1060.
MrRIP
ГПУ — это другая опера. Но и там были свои «болота» в которых наблюдался «застой». Сейчас вот вроде что-то клепают. А суть-то та-же! Просто увеличивают кол-во ТМУ и СМУ и прицепляют чуток более производительную память.
rrrrex
Да не сказал бы, что все очень хорошо. Топовые решения используют на грани возможного количество транзисторов. Хотя куда перспективнее развивать ray tracing, но для этого надо полностью переработать gpu.
redpax
Вот кстати да, ведь уже почти хорошо получается даже на железе 3 годичной давности https://youtu.be/BpT6MkCeP7Y, почему бы не перестроить архитектуру GPU под трассировку лучей, ведь возможности манипуляций с освещением станут почти безграничными!
Hellsy22
Закон Мура — он про увеличение количества транзисторов, а не про быстродействие одного ядра.
Из увеличения кол-ва транзисторов напрямую ничего не следует, но можно связать его с увеличением производительности. Однако, через некоторое время охлаждение становится проблемой и поэтому более верно связывать закон Мура с производительностью на каждый ватт потребляемой мощности. И тут оказывается, что все не так уж и плохо — суммарная производительность систем продолжает расти из года в год ударными темпами. См. серию Xeon Phi.
Что же до увеличения производительности приложений, то она, обычно, ограничена востребованностью и здравым смыслом. Если не заниматься некромантией и не использовать железо десятилетней давности, то проблем с производительностью у пользователей практически нет — видеопроигрыватели, браузер, мессенджеры, все это «летает» даже на камнях трехлетней давности. Есть специфический софт, который тормозит, но в силу естественной монополии его оптимизацией занимаются в последнюю очередь — куда пользователи денутся с подводной-то лодки?
ferreto
Да, "специфический софт", который тормозит на моём i7 — это MSWord. Ненавижу его!
rrrrex
Как-то не уместно приводить размер атома кремния, куда логичнее упомянуть размер кристаллической решетки.
NeoTheFox
Не очень у вас актуальная информация, с релизом Ryzen Intel придется снова бодаться с AMD
alan008
Дык статья 2015 года, написано же
Nimo_tsi
Надеюсь на скорое наступление эпохи, когда производители процессоров упрутся в непреодолимый физический предел, тогда и пойдет заруба у производителей софта, чей код шустрее.
Fedcomp
71 ядро
Nimo_tsi
Размеры?
Тепловыделение-потребляемая мощность?
На примере ноутбука или планшета.
В качестве фантазии-бреда: в каждом доме и офисе ставится мэйнфрейм, в котором это 71 ядро, клиенты отдают ему данные, он считает и стримит им на экран картинку, технологии 50-летней давности, история по спирали :)
black_semargl
Достаточно популярный сюжет — комната со стенами-экранами, дающими неотличимое от реала изображение.
Как-то считал, сколько видеоядер под такое надо…
hulitolku
Майнингу конец?
EDA
Цитата: Зако?н Му?ра (англ. Moore's law) — эмпирическое наблюдение, изначально сделанное Гордоном Муром, согласно которому (в современной формулировке) количество транзисторов, размещаемых на кристалле интегральной схемы, удваивается каждые 24 месяца.
Закон Мура до сих пор работает. Число транзисторов в микропроцессорах с минимальной ценой на транзистор растёт приблизительно в 2 раза каждые два года. К примеру, смотрите в статье https://ourworldindata.org/technological-progress/. Другое дело, что все эти процессоры надо уметь использовать. Просто купив новый процессор в 2000-ом можно было ожидать, что одна и та же программа будет работать гораздо быстрее, чем на процессоре 1998-го года. Сейчас можно смухлевать и запихнуть 16 ядер в процессор вместо 8-ми с тем же техпроцессом и частотой и назвать это «улучшением в 2 раза». Можно даже не разрабатывать новые процессы, а просто увеличивать число ядер и это сохранит закон Мура ещё очень долго.
В статье правильно говорится, что основная проблема увеличения производительности — это тепло, которое надо отводить. Можно увеличить частоту, увеличив напряжение, но тогда растёт потребляемая мощность и количество тепла. А вот с чем я не согласен, так это с утверждением, что «Мы сейчас приближаемся к физическому пределу, где скорость вычислений ограничена размером атома и скоростью света». К размерам атомов мы довольно близко (но и то на 2 порядка), а вот до скорости света мы ещё очень далеко (от 3 порядков на миллиметровых расстояниях до 9 порядков на нанометрах).
Skerrigan
Вообще то нет — вы не берете в расчет частоты! Длину проводки внутри ЦП. А так же то, что к сожалению не помню, как грамотно называется… что-то про "единство информации".
В итоге выходит, что как раз таки очень близки к "скорости света" (исходя из длина+частоты+задержки_синхронизации+задержки_выполнения).
Тут же где-то даже статьи были на этот счет...
kisskin
Если бы «программасты» писали по-человечески, а не так что "… як… як, и в продакшн", когда 100 мб для софтинки уже стало обычным размером (раньше дистрибутив операционной системы был меньше), то проблемы с быстродействием и памятью в принципе бы не возникло.
Все что было в Windows2k меня вполне устраивало и сейчас, как и быстродействие компьютеров 15-летней давности с нею) Да, сейчас видеоформаты прожорливые — ну так есть видеокарты, которые могут с ними эффективно справляться. Для типичного пользователя необходимость апгрейда вынужденная не его потребностями, а потребностями странно написанного софта, не имеющего сильных конкурентов (того же Google Chrome с аппетитами до 2-3 гб памяти на основной процесс).
DistortNeo
Вы можете использовать более старые браузеры, которые не отъедают много памяти, но вот только половина сайтов в этом случае работать нормально не будет.
NIKOSV
На 5-летнем компе винда стартует за 10 секунд, приложения открываются практически моментально (если это не тяжеловесный софт типа фотошопа). Помню в начале 2000-х даже на новых, топовых компах о таком только мечтать приходилось.
DGolubets
А это не заслуга SSD больше?
NIKOSV
Он самый, но все-равно, пока не упираюсь в процессорные мощности и есть ощущение что еще 5 лет можно спокойно жить.
Nimo_tsi
Уже тогда, 15 лет назад на матерях верхнего сегмента существовали интегрированные RAID-контроллеры, сначала IDE, позже уже и SATA. Плюс «Спящий режим» в WinXP тоже был.
Жаль, Адоб выпустила свой ужасный Flash и последние лет 5 пользоваться нормально Интернетом на машинах той поры уже нельзя.
MTyrz
Точно ли во флеше дело? 15 лет назад флеш уже точно был, правда назывался не Adobe, а Macromedia.
kisskin
ну да ССД. А я о «программастах».
У меня на дюроне с 64 мб памяти Win2k грузилась полминуты, win 31 я умудрялся грузить за 20 сек, свежая win10 на 16 гб без ссд грузится с минуту. Прогресс?
Чем мощнее становится железо, тем больше плюют на качество кода. про гугл хром я уже упомянул: да говорят, что это чуть ли не целая ОС, но извините меня, ОС win 98 у меня работала на 32 Мб, очень хорошо на 32 мб работала, а тут какой-то браузер в легкую отжирает 6 гб. только потому что у меня их всего 8)
Поставьте в свой компьютер вместо SSD диск 5-летней давности и ощутите «прогресс».
Ernillgeek
> Поставьте в свой компьютер вместо SSD диск 5-летней давности и ощутите «прогресс».
Вот у меня ноутбук в котором стоит хард(ноуту, как и харду 7 лет). Вот на нем моя рабочая система(один из дистрибутивов GNU/Linux) грузится за 15 секунд. Вот рядом стоит его близнец, но с SSD, на нем загрузка идет 10 секунд. Ну и где разница?
Hellsy22
Нет, серьезно, вы сравниваете сайты 98г., где не было никаких динамических элементов, а яваскрипт только-только появился и изредка использовался ради простейших эффектов, типа летающих снежинок, десяток которых вешал комп. Разметка страницы была простейшей, объем — минимальным. А если не минимальным (например: тексты на lib.ru), то с легкостью вешал браузер на полминуты. Особенно забавен был ресайз окна браузера — NN имел паскуднейшую привычку тупо переоткрывать страничку из кеша…
Сейчас же пользователь начинает возмущаться если браузер на секунду подвиснет на странице, где контента больше, чем он в 98г. за месяц мог просмотреть.
quwy
В конце девяностых и начале нулевых система двухгодичной давности была откровенным барахлом. Сегодня же шестилетняя система, если не называть имен, почти ничем не отличается от современной. Если вспомнить принятый в то время формат записи конфига, то строка вида 3800/16/2/4 может характеризовать актуальный конфиг как 2010 года, так и 2017.
DistortNeo
Всё верно, я с тех пор поменял только видеокарту и монитор.
Моим процессору, памяти, даже SSD диску уже 6-7 лет и менять пока особо не на что.
Hellsy22
Можно взять восьмиядерный камень @5Ггц, вместо чего-нибудь старенького четырехядерного @3.5.
Можно добить память до 64 или даже 128 гигабайт.
Можно использовать SSD на PCIe, с производительностью раз в 10 выше, чем у SSD 6-летней давности.
Так что менять есть на что, просто незачем — все и так нормально работает.
NIKOSV
Можно поставить две топовые видяхи и 8к монитор за $5К :)
DistortNeo
А если у меня 4-ядерный @4.5?
За те деньги, что я купил i7-2600K, сейчас можно купить i7-7700K.
Те же 4 ядра, та же частота. Увеличение производительности максимум в 1.5 раза.
8-ядерных @5.0 просто не существует: ни один современный процессор не сможет выполнять числодробительные операции в таком режиме из-за тепловыделения.
Можно, вот только 16 гигов памяти в 2011 году мне обошлись в 3750 рублей, это $120.
Сейчас на $135 (с учётом инфляции) я могу купить всё те же 16 гигов, причём скорость этой памяти будет выше всего раза в полтора (DDR4 vs DDR3).
А если у меня уже такой SSD? И он прекрасно работает уже 6 лет?
Hellsy22
А при чем тут ваши деньги? Разумеется, топовые восьмиядерные камни дороже, и дороже они, полагаю, именно в силу невысокой востребованности.
То для вас выигрыш будет меньше, хотя было бы интересно сравнить вашу модель с топовыми современными.DistortNeo
Потому что прогресс — это когда за те же деньги можно получить более производительную систему.
Hellsy22
«Тех же» денег больше нет — инфляция.
А так — Ryzen 1700X в той же ценовой категории, тот же TDP.
DistortNeo
Угу, только вот мне бы производительность одного ядра повыше.
Ну и во многих тестах восьмиядерник 1700X показывает результаты хуже, чем четырёхъядерник 7700K.
Hellsy22
Об этом была речь выше. Наращивание производительности ядер слишком сложный и медленный путь, проще увеличивать их количество, а софт постепенно подтягивается.
И с точки зрения энергопотребления многоядерность тоже выгодна.
kisskin
на авито 2*8Гб DDR4 можно за 4 тр найти. А память — не та вещь которая выходит из строя, можно и без гарантии обойтись)
DistortNeo
Ну да, memtest обычно сразу ошибками сыпет, но у меня был случай, когда ошибки появились не сразу, а через пару месяцев после покупки.
Gryphon88
немного оффтоп: для домашнего применения есть какая-то разница между ssd на pcie и на m2?
DistortNeo
Вообще никакой. Обычного SATA (даже SATA-II) за глаза хватает.
Googlist
Есть. Разница в самооценке.
Skerrigan
m2 бывает либо в SATA-mode, либо в PCIE-mode.
Разница: 600МБ/сек или 4Гб/сек.
Считаете ли вы это сколь-нибудь значимым — это ваше дело. На мой взгляд разница колоссальна.
DistortNeo
Возьмите какой-нибудь монитор активности диска и посмотрите на объём дисковых операций при выполнении тех или иных действий. Сильно удивитесь.
Skerrigan
Ну вот у меня на "вкус цвет" есть мониторы — и? Что я в вашем воображении должен видеть?
Я удивился, на сколько огромная скорость возможна по сравнению с классическим вариантом.
Что еще должно удивить?
DistortNeo
Ну и во сколько раз стал быстрее грузиться Paint? Или Word? Или любимая IDE, например? Лично для меня линейная скорость чтения/записи была критична только один раз: при удалении ненужных звуковых дорожек из MKV-файла.
Удивились от самих циферок? Ну тогда понятно. Но решают-то не циферки, а итоговая производительность системы, и в линейную скорость операций с диском она практически не упирается при выполнении типичных задач на домашнем ПК.
Хотите, я вам покажу результат с сайта speedtest со своего гигабитного интернета? Вот только сайты грузятся с той же скоростью, что и на 10 мбит, потому что не только в скорости дело.
Skerrigan
Ага, вот и добрались до сути. Как я понимаю, это и есть ваш основной тезис.
Ну, с одной стороны вы полностью правы. Ибо это правда.
С другой — в данном случае к нему аппелировать "зло", ибо под эту гребенку можно с высокомерием перегибать палку. Поясню: были тут, на этом ресурсе, не так давно дебаты и на тему "да зачем людям машины с двигателем более 2л и мощностями более 400лс?" или "да какая вам разница, что за поезда будем брать, зачем нам TGV (около 450-500км/ч нормально держит), возьмем и Сапсан (by Simens, держит 150-200км/ч)".
Т.е. я о чем? О том что вы, я сомневаюсь, что являетесь прямо-таки образцовым примером человека, у которого жизнь на порядок(и) лучше, чем у 90-95% людей на земле. И, как следствие, не вам решать за остальных — что людям и для чего нужно. Это их право.
Но вот говорить, что разницы нет — это ложь. Ибо...
Если вы не в состоянии "утилизировать" эту мощность, то это не значит, что разницы нет.
У меня отличная система собрана на базе "логики Z170". И я занимаюсь весьма серьезной разработкой — когда 3-5с на запуск ОС и еще через 2-3с (после авторизации) ею можно пользоваться, это конечно приятно… но это не основное — машина почти никогда не выключается и не ребутится, меня больше прельщает, что IDE никак не лагают, работая просто безумно быстро.
DistortNeo
Для передвижения по городу — незачем. А вот для понтов — самое то.
Если дорожное полотно не позволяет ехать быстрее 200 км/ч, то разницы никакой, зато второй вариант будет более экономически выгоден.
Если я не в состоянии "утилизировать" эту мощность, то для меня это означает лишь разницу в цене.
Представьте себе, и у меня так же. И я не вижу разницы между PCI-E SSD в десктопе и SATA-II SSD в ноутбуке. Хочется побольше производительности процессора на ядро разве что, но увы, производители процесоров могут только предложить больше ядер.
И да, мгновенно — это субъективное понятие. Грубо говоря, 3 секунды загрузки — долго, секунда — терпимо. А вот между 100 мс и 500 мс субъективной разницы уже не ощущается.
Skerrigan
Вот она главная причина — и она разумному человеку не позволяет давать право искажать суть. А суть в том, что:
Плохому танцору и ноги мешают. И так везде в ваших тезисах, которые очень-очень не дальновидны. Что про машины, что про ж/д. Ну да ладно — вам суть нафиг не нужна. Вас заботит лишь ваше восприятие и личное эго.
Принимая в виду выше сказанное — мне не о чем с такими больше разговаривать.
Ernillgeek
> Сегодня же шестилетняя система, если не называть имен, почти ничем не отличается от современной.
Я вам больше скажу. Я вот на десктопе сижу на процессоре десятилетней давности(Xeon E5450) с памятью того же времени(12 гигов DDR2) и у меня все хорошо, у меня идут современные игры без тормозов(«Ведьмак 3», «Elite Dangerous») и они не упираются в проц или память совсем. Да, для «Ведьмак 3» и «Элиты» у меня стоит 1060 6Gb, но только видюха и нужна свежая. А для повседневной работы, для нескольких виртуалок, для браузинга и терминала, для офисного пакета и прочего мне хватает железа которому уже 10 лет.
Sleepwalker_ua
Поддерживаю. На данный момент 80% играют видеокарта и SSD + более-менее достаточный объем оперативы. А так любой более-менее шустрый процессор 2010 г.в. вполне тащит современные задачи.
Ernillgeek
Ну да. Собственно пример моего же компа: Elite Dangerous у меня и с GT710 прекрасно шла и с 6 гигами оперативки, а вот «Ведьмак 3» на неигровой GT710 упирался рогами. Стоило сменить видюху на хорошую игровую, как «Ведьмак 3» начал летать с изрядно выкрученными настройками, то есть дело было только в видюхе.
Собственно единственная причина по которой я в ближайшее время все же буду менять материнку(ну и само собой проц и память соответственно) это что мне очень не хватает VT-d, если бы не это еще бы лет пять не думал о замене, для всех текущих задач этой машины за глаза и уши.
DistortNeo
Ну да. Многие жалуются, что игры неоптимизированы, что используют только 1-2-3 ядра и больше не хотят. А по факту дело не в оптимизации, а в том, что многих играм просто не нужны такие процессорные мощности.
Но это не отменяет того факта, что процессорозависимые игры тоже существуют.
Ernillgeek
> Но это не отменяет того факта, что процессорозависимые игры тоже существуют.
Наверное существуют, но не среди AAA. Потому как на том же процессоре прекрасно и Civ V/VI, и GTA5 и так далее. Вот среди какой-нибудь индюшатины наверное есть те, кто упрутся в мой проц, ибо графики там нет, а писали левой задней ногой. А среди AAA разве что в видюху упираются, а проц пофигу(что-то я подозреваю, что если на место Xeon'а своего воткну Core2Duo валяющийся(сокет один, да и раньше этот C2D в этой матери и пахал, так что точно воткну), то и тогда особых проблем с играми не буду испытывать).
Skerrigan
Проц? Легко — Cities Skyline! Симуляция агломерации на площади в 100кв.км. Вашего ЦП будет едва-едва хватать (до определенного населения… на вскидку тысяч до 300 игро-человечков, что эквивалентно 3млн, т.к. симуляция идет в пропорции 1:10).
Ernillgeek
Буду знать. Игру покупал только в подарок племяннику, сам в нее не играл. Понятно, себе покупать, пока не сменю комп, не стану.
Skerrigan
Чтобы не закрывать все рабочее окружение, пришлось нарастить памяти с 32Гб до 64Гб. Теперь хватает и Скайлайн запустить, и весь work flow не прибивать.
Миграция с 775 на 1151 сокет так же частично этим обусловлена.
Знал заранее про игру и ждал, пока ddr4 не пойдет в продажу. Ибо и так 8Гб ОЗУ не хватало совсем никак, но из-за Скайлайна пришлось отложить апгрейд железа. А потом еще и памяти нарастить максимально много, сколько мать вмещает.
P.S. А по приросту производительности старой платформы и новой разница такая: ~40ГФлопс до ~200ГФлопс. Так что суммарно железо выросло за эти 7-8 лет очень прилично.
Ernillgeek
> Миграция с 775 на 1151 сокет так же частично этим обусловлена
А я вот первый раз с 2002 года смотрю в сторону AMD, вполне бюджетно можно хороший комп собрать. Надо только почитать что там у AMD вместо VT-d и есть ли оно.
А памяти много не бывает, 64 гига это совсем хорошо, завидую, мне на 12 порой неуютно, приходится лишнюю виртуалку гасить, когда памяти для работы не хватает
Skerrigan
Да, если у вас нет сильных прям задач, тогда можете смело в текущее время собирать на АМД. Виртуализация работает уже лет 5 точно.
*на работе станция как раз на АМД, относительно древняя. Но 16Гб ОЗУ там есть.
Ernillgeek
Да виртуализация(AMD-V), то есть аналог VT-x есть, а вот есть ли аналог VT-d(виртуализации ввода/вывода), то есть проброски в виртуалки железа воткнутого в комп напрямую(мне лично для проброса видеокарты нужно) это — вопрос.
А так, в целом, я присматриваюсь сейчас к Ryzen'ам, смотрю тесты и прочее, выглядит вкусно.
Skerrigan
Все, я вас целиком понял. Да, согласен, это критично и важно. И увы, на работе этого я не делаю (не мой профиль задач) — тут я не могу на практике что-либо подтвердить. :(
Ernillgeek
Просто в домашнем применении VT-d(или его аналог у AMD, если он есть) мне позволит игровую винду отправить в виртуалку, прокинуть ей игровую видюху, а линухе отдать неигровую. В результате и винда в домике(я ее только для игр использую), и видюха у нее полностью, то есть играм хорошо.
VT-d — вещь специфичная и на серверах мне вот не нужна, мне на серверах ничего такого пробрасывать не нужно, а вот дома незаменима.
Ну сам погуглю в сентябре, когда выделю себе денег на новый комп, если есть у AMD оно, то его буду брать, если нет, ну что, буду на i7 собирать.
Skerrigan
bro-dev
Есть ли какие то задачи которые решились с помощью именно вычислительных мощностей? Имхо если дать современный комп 20 лет назад людям пишущим бота для шахмат, он им все равно не поможет сам по себе. То есть весь прогресс только из за людей алгоритмов и программ, а не мощностей.
mbait
Этот абзац в самом начале заставляет усомниться в квалификации автора (оригинального текста) и, как следствие, ценности всей статьи.
REPISOT
Уже который раз вижу фразу
мы все умрем«Закон Мура перестал работать».Успокойтесь. Он все еще действует. Число транзисторов в CPU растет. А то, что оно растет не в 2.0000 раз, а в 1,6 или 1.9 раз, так ведь это эмпирический «закон». Это не закон физики.
saqef
"… если CPU научатся предсказывать.."- Предсказатель переходов появился в 1985 (согласно wiki).