Появилась возможность протестировать инженерный процессор Эльбрус-16С и сравнить его с предыдущим процессором Эльбрус-8СВ.

Эта статья является продолжением моих предыдущих статей по бенчмаркам Эльбрусов:

Эльбрус-16С на архитектуре e2k-v6 является развитием процессора Эльбрус-8СВ (e2k-v5), который имеет 16 ядер на частоте 2 ГГц, поддержку аппаратной виртуализации, поддерживает до 4 ТБ оперативной памяти DDR4-3200, 32 линии PCIe 3.0.

Тестируемый процессор работает на материнской плате 1Э16С-mATX c с 2мя установленными модулями памяти DDR4 на частоте 2400.

Внимание: тестируется инженерный процессор с частично отключенным кешем, у серийного образца результаты должны быть лучше.

 Фото инженерной платы из интернета (на фото плата не моего экземпляра):

К результатам процессоров Эльбрус-16С и Эльбрус-8СВ добавляю процессор Intel Core i7-2600 для относительного сравнения.

Характеристики сравниваемых процессоров:

Эльбрус-16СВ

Эльбрус-8СВ

Core i7-2600

Семейство ISA

VLIW

VLIW

CISC

Архитектура

e2k

e2k

x86-64

Микроархитектура

elbrus-v6

elbrus-v5

Sandy Bridge

Частота (МГц)

2000

1500

3400*

Ядра; Потоки

16

8

4; 8

Техпроцесс (нм)

16

28

32

TDP (Вт)

130

80-90

95

Тип ОЗУ

DDR4-3200 (2400)

DDR4-2400

DDR3-1333

Год

2021

2018

2011

* — У Intel Core i7-2600 частота бустится, ядер 4, но 8 потоков HT.


Список компилируемых тестов (на языках С и C++):

  • Dhrystone, Whetstone, Linpack 100, Scimark 2, SuperPI

  • MP MFLOPS

  • TLB test, STREAM

  • HPL (High Performance Linpack)

  • 7zip встроенный бенчмарк

  • StockFish (встроенный тест шахматного движка)

  • Cpu Miner (minerd)

  • Рендеринг в Blender (Файл для теста)

  • Готовые результаты в SPEC 2006

Кроме того, я запускал тесты на языках программирования Java, C#, Python, PHP, Lua. Результаты: https://github.com/EntityFX/EntityFX-Bench/tree/master/results

Теперь сразу перейдём к сводной таблице с результатами.

Результаты

Компилируемые тесты

ВНИМАНИЕ: Сборка тестов производилась с подбором флагов оптимизации и использования профилировщика и на результаты влияет версия компилятора (я являюсь энтузиастом и собирал код своими силами и, надеюсь, МЦСТ смогут собрать более правильно). Архитектура Эльбруса предполагает, что вы будете оптимизировать производительность не только флагами сборки, но и менять сам код (для бенчмарков это запрещено делать).

Тест

Эльбрус-16C

Эльбрус-8СВ

Core i7-2600

Dhrystone [DMIPS] (1 поток)

8652

9077

22076

Whetstone [MWIPS] (1 поток)

2667

2269

5729

Whetstone MP [MWIPS]

42467

16495

31319

Linpack 100 [MFLOPS]

1831

1723

4302

Scimark 2 [Composite score] (1 поток)

923

908

2427

Coremark (1T;MT)

6162; 96873

5500; 43008 / 61871* (rtc x86-64)

22692; 119670

MP MFLOPS

1010040

381326

81745

HPL [GFLOPS] (1T;MT)

39;       561.6

32.3;    232.6

93.9 (MT)

7zip (Comp; Decomp; Tot) (MT)

19070; 33490; 26280

8461; 13638; 11049

18024; 13363; 18664

STREAM (Copy; Scale; Add; Triad) [MB/s]

20090; 19408;21848;22284
(2 modules modules DDR4)

23097; 23137; 25578; 25643 (4 modules DDR4)

20860; 21838; 18512; 20452

SPEC 2006 INT

24

18

44.6

SPEC 2006 FP (1T)

30

22.5

Blender (RyzenGraphic_27) [min:sec]

1:08

2:32

1:18

StockFish [nodes/sec]

6193924

3123190

10860720

SuperPI [sec] (1 поток) (меньше – лучше)

2.77

3.76

1.81

Minerd [sha256d khash/s] (1T;MT)

8820; 141104

6840; 54714

5307; 21226

(Core i5-2500K)

Minerd [scrypt khash/s] (1T;MT)

11.52; 183.01

8.50; 68.24

19.54; 78.26

(Core i5-6500)

* — В нативном режиме Эльбрус-8СВ в тесте Coremark показывает в 1,5 раза хуже результаты чем в режиме бинарной трансляции x86-64 кода (этот бинарный транслятор называется RTC). На Эльбрус-16С такой проблемы больше нет.

Результаты всех тестов здесь: https://github.com/EntityFX/anybench/tree/master/results

Geekbench 5 в бинарной трансляции RTC

ID

Name

Platform

Architecture

Single-core Score

Multi-core Score

9622424

MCST Elbrus 4C (х86 compatibility mode) 4 CPUs Intel Pentium II/III 750 MHz (1 cores)

Linux 64

x86_64

74

374

3110803

MCST Elbrus 8C (х86 compatibility mode) Intel Pentium II/III 1299 MHz (1 cores)

Linux 64

x86_64

140

937

5537127

MCST Elbrus 8CB (х86 compatibility mode) Intel Pentium II/III 1549 MHz (1 cores)

Linux 64

x86_64

159

1100

12407301

MCST Elbrus 16C (х86 compatibility mode) Intel Pentium II/III 2000 MHz (1 cores)

Linux 64

x86_64

203

2821

3462610

Core i7-2600Intel Core i7-2600 3401 MHz (4 cores)

Windows 64

x86_64

720

2845

Подробнее

Разбираем результаты

Логи результатов можете смотреть здесь

Dhrystone

Dhrystone достаточно древний тест 80х годов, написан на C. Тестирует целочисленную арифметику и работу со строками. Результаты измеряются в Dhrystone/s и DMIPS. (DMIPS = Dhrystone/s делить на 1757).

Эльбрус-16С немного показал хуже результаты чем Эльбрус-8СВ. Скорее всего, проблема с оптимизациями компилятором LCC, с новой версией будет перепроверяться.

Whetstone

Тестирует арифметику с плавающей/фиксированной запятой, математические функции, ветвления, вызовов функций, присваиваний, работы с числами с фиксированной запятой, ветвлений. Результаты измеряются в MMIPS.

Эльбрус-16С показывает результаты кратные частоте (2000 / 1500).

Coremark

Современный тест, который должен заменить Dhrystone и Whetstone. Написан на C. Считает различные массивы, матрицы, сортировка и т. д. Предназначался для запуска на всём: от микроконтроллеров до мощных процессоров.

Эльбрус-16С показывает гораздо лучшие результаты чем Эльбрус-8СВ. На 8СВ результаты в бинарной трансляции выходили лучше, чем нативные.

MP MFLOPS

Эльбрус-16С значительно обгоняет 8СВ, набирая более 1 ТFlops в числах с плавующей запятой одинарной точности.

HPL

HPL – переносимый высокопроизводительный тест, который используется для суперкомпьютеров. Решает системы линейных уравнений, использует библиотеки BLAS и MPI . Результаты выдаёт в GFLOPS.

Cpu

Year

Freq

Cores

1 thread (GFLOPS)

Multithread  (GFLOPS)

Elbrus 2C+

2011

500

2

3.8

6.8

Elbrus 4C

2014

800

4

6

21.6

Elbrus 1C+

2015

1000

1

10

10.0

Elbrus 8C

2016

1300

8

13

96.00

Elbrus 8C

2016

1200

8

12

82.5

Elbrus 8CB

2018

1550

8

32.3

232.6

Elbrus 16C

2021

2000

16

39

561.6

Elbrus 2C3

2021

2000

2

39

70.2

Результаты HPL

7zip

Встроенный тест архиватора. Тест особо не параллелится, результаты примерно равные на этих процессорах (частота одинаковая).

Cpu

Year

Freq

Cores

Total MT

Comp Avr MT

Dec Avr MT

Total ST

Elbrus 8CB

2018

1500

8

12164

9975

14353

1894

Elbrus 8CB

2018

1550

8

11049

8461

13638

1651

Elbrus 8C

2016

1300

8

10865

8736

12994

1697

Elbrus 8C

2016

1200

8

9031

6619

11442

1391

Elbrus 16C

2021

2000

16

26280

19070

33490

1813

Elbrus 2C3

2021

2000

2

3448

2499

4396

1894

Elbrus 1C+

2015

1000

1

1277.5

1301

1254

1277.5

Elbrus 4C

2014

800

4

2793

2065

3520

849

Elbrus 2C+

2011

500

2

1077

878

1276

645

Elbrus R2000

2018

2000

8

8728

5896

11560

1246

Elbrus R1000

2011

1000

4

2514

1959

3069

692

Baikal M1000

2019

1500

8

9868

8483

11252

1513

Baikal S

2022

2000

48

90039

75097

1295732

2378

Huawei Kunpeng 920

2019

2600

48

126143

112386

139899

3177

Huawei Kunpeng 920

2019

2600

96

204155

153863

254447

3177

Apple M1

2020

3100

8

33034

38166

27903

4458

 

 

 

 

 

 

Celeron N3350 *

2016

1100

2

3966

3568

4364

1961

Core i7 2600

2011

3400

8

16601

16179

17024

3773

Core(TM) i7-7820X **

2017

3600

16

47733

48501

46965

4982

Результаты 7zip

Больше результатов

Blender

Рендеринг сцены

Cpu

Freq

Cores

Year

Time (seconds)

Time

Core i7 2600

3400

8

2011

80

0:01:20

Elbrus 4C

750

4

2014

811

0:13:31

Elbrus 4C x4

750

4

2014

223

0:03:43

Elbrus 4C

800

4

2014

600

0:10:00

Elbrus 1C+

1000

1

2015

1916

0:31:56

Elbrus 8C

1300

8

2016

172

0:02:52

Elbrus 8C

1200

8

2016

216

0:03:36

Elbrus 8C x4

1200

32

2016

57

0:00:57

Baikal M1000

1500

8

2016

161

0:02:41

Elbrus 8CB

1550

8

2018

152

0:02:32

Kunpeng 920 x2

2600

96

2019

8

0:00:08

Elbrus 16C

2000

16

2021

68

0:01:08

Elbrus 2C3

2000

2

2021

544

0:09:04

Результаты Blender

SuperPI (1 млн)

1 поток:

Core(TM)2 Duo CPU     T9400  @ 2.53GHz:  2.58 sec

Core i7 2600 3.4 GHz:  1.81 sec

Elbrus 2C+ 0.47 GHz: 18.05 sec

Elbrus 4C 0.75 GHz:  10.18 sec

Elbrus 8C 1.2 GHz: 5.20 sec

Elbrus 8CB 1.55 GHz: 3.76 sec

Elbrus 16C 2.0 GHz: 2.77 sec

Stockfish

Cpu

Freq

Cores

Year

Time (seconds)

Core i7 2600

3400

4 (8)

2011

10860720

Core(TM)2 Duo CPU     T9400

2530

2

2007

1254341

Elbrus 4C

750

4

2014

541039

Elbrus 8C

1200

8

2016

1753143

Elbrus 8CB

1550

8

2018

3123190

Elbrus 16C

2000

16

2021

6193924

Baikal M1000

1500

8

2016

2750526

Результаты Stockfish

Minerd (Cpu miner)

./minerd --benchmark -a sha256d

Core i5-2500K:

thread 0: 26798032 hashes, 5307 khash/s

Total: 21226 khash/s

Эльбрус 8С (не оптимизирован):

thread 7: 2900420 hashes, 966.98 khash/s

Total: 7736 khash/s

Эльбрус 8СВ (оптимизирован):

thread 7: 34198012 hashes, 6840 khash/s

Total: 54714 khash/s

Эльбрус 16C (оптимизирован):

thread 7: 44098544 hashes, 8820 khash/s

Total: 141104 khash/s

Байкал-М 8 core 1.5 GHz, Cortex-A57:

thread 7: 4443436 hashes, 888.20 khash/s

Total: 7023 khash/s

Intel(R) Celeron(R) CPU N3350 @ 1.10GHz

thread 0: 2097152 hashes, 2403 khash/s

Total: 4808 khash/s

./minerd --benchmark -a scrypt

Core i5-6500 3.20GHz:

thread: 19.54 khash/s

total 78.26 khash/s

Core i7-9700K:

thread 7: 131280 hashes, 26.26 khash/s

Total: 211.68 khash/s

Эльбрус 8С (не оптимизирован +профиль):

thread 7: 6777 hashes, 2.26 khash/s

Total: 18.08 khash/s

Эльбрус 8СВ (оптимизирован):

thread 0: 4096 hashes, 8.50 khash/s

Total: 68.24 khash/s

Эльбрус 16C (оптимизирован под e2k-v5):

thread 0: 4096 hashes, 11.52 khash/s

Total: 183.01 khash/s

Байкал-М 8 core 1.5 GHz, Cortex-A57:

thread 7: 8875 hashes, 1.77 khash/s

Total: 14.03 khash/s

Intel(R) Celeron(R) CPU N3350 @ 1.10GHz

thread 0: 4104 hashes, 4.63 khash/s

Total: 9.25 khash/s

SPEC 2006 INT/FP

SPEC CPU2006 инструмент исследования производительности систем, который основан на коде реальных приложений, поставляются в виде исходного кода. Тест оценивает не только производительность процессора и памяти, но и показывает то, насколько компиляторы могут оптимизировать код.

Имеется 2 группы тестов:

  • SPEC INT 2006, измеряющий производительность целочисленных вычислительных задач (integer);

  • SPEC FP 2006, измеряющий производительность вычислительных задач с вещественными числами (числами с плавающей точкой, floating point).

Результаты производительности языков программирования

Логи результатов смотрите тут:

Java

1 поток:

  • Эльбрус 1С+ в 11 раз медленнее на 1 поток чем Core i7 2600

  • Эльбрус 4С в 10 раз медленнее на 1 поток чем Core i7 2600

  • Эльбрус 8С в 5,5 раз медленнее на 1 поток чем Core i7 2600

  • Эльбрус 8СВ в 4,5 раз медленнее на 1 поток чем Core i7 2600

  • Эльбрус 16С в 2,5 раз медленнее на 1 поток чем Core i7 2600

На всех потоках:

  • Эльбрус 1С+ в 18 раз медленнее чем Core i7 2600 на всех потоках

  • Эльбрус 4С в 12,5 раз медленнее чем Core i7 2600 на всех потоках

  • Эльбрус 8С в 3 раз медленнее чем Core i7 2600 на всех потоках

  • Эльбрус 8СВ в 2,5 раз медленнее чем Core i7 2600 на всех потоках

  • Эльбрус 16С равен Core i7 2600 на всех потоках

PHP

1 поток:

  • Эльбрус 2С+ в 15,5 раз медленнее чем Core i7 2600

  • Эльбрус 1С+ в 8 раз медленнее чем Core i7 2600

  • Эльбрус 4С в 4,5 раза медленнее чем Core i7 2600

  • Эльбрус 8С в 3 раза медленнее чем Core i7 2600

  • Эльбрус 8СВ в 2,5 раза медленнее чем Core i7 2600

  • Эльбрус 16С в 2 раза медленнее чем Core i7 2600

Python

1 поток:

  • Эльбрус R1000 в 12,5 раз медленнее чем Core i7 2600

  • Эльбрус 2С+ в 30 раз медленнее поток чем Core i7 2600 на 1 поток

  • Эльбрус 1С+ в 12,5 раз медленнее поток чем Core i7 2600 на 1 поток

  • Эльбрус 4С в 15,5 раз медленнее поток чем Core i7 2600 на 1 поток

  • Эльбрус 8С в 9 раз медленнее поток чем Core i7 2600 на 1 поток

  • Эльбрус 8СВ в 7,8 раз медленнее поток чем Core i7 2600 на 1 поток

  • Эльбрус 16С в 7 раз медленнее поток чем Core i7 2600 на 1 поток

На всех потоках:

  • Эльбрус 2С+ в 58 раз медленнее поток чем Core i7 2600 на всех потоках

  • Эльбрус 1С+ в 25 раз медленнее поток чем Core i7 2600 на всех потоках

  • Эльбрус 4С в 13,5 раз медленнее поток чем Core i7 2600 на всех потоках

  • Эльбрус 8С в 4,2 раза медленнее поток чем Core i7 2600 на всех потоках

  • Эльбрус 8СВ в 3,8 раза медленнее поток чем Core i7 2600 на всех потоках

  • Эльбрус 16С в 1,7 раза медленнее поток чем Core i7 2600 на всех потоках

Lua

1 поток:

  • Эльбрус 2С+ в 16 раз медленнее чем Core i7 2600

  • Эльбрус 1С+ в 6 раз медленнее чем Core i7 2600

  • Эльбрус 4С в 10 раз медленнее чем Core i7 2600

  • Эльбрус 8С в 6 раз медленнее чем Core i7 2600

  • Эльбрус 8СВ в 5 раз медленнее чем Core i7 2600

  • Эльбрус 16С в 4 раз медленнее чем Core i7 2600

  • Эльбрус R1000 в 9 раз медленнее чем Core i7 2600

C# NetCore (В режиме трансляции RTC)

1 поток:

  • Эльбрус 8С в 3,5 раз медленнее на 1 поток чем Core i7 2600

  • Эльбрус 8СВ в 3 раз медленнее на 1 поток чем Core i7 2600

  • Эльбрус 16С в 2 раза медленнее на 1 поток чем Core i7 2600

На всех потоках:

  • Эльбрус 8С в 2 раза медленнее чем Core i7 2600

  • Эльбрус 8СВ в 1,5 раз медленнее чем Core i7 2600

  • Эльбрус 16С в 1,25 раза быстрее Core i7 2600

Выводы

Эльбрус-16С на 33% быстрее Эльбрус-8СВ на 1 поток и имеет в 2 раза больше ядер. Есть задачи, где он очень эффективен, где-то не очень, думаю найдёт свою нишу.

Жду ваши предложения, какие ещё бенчмарки можно прогнать на этих компьютерах (желательно с простой сборкой).

P. S. Принимаю ваши предложения и правки, статья пополняется.

Стикеры Телеграм с Эльбрусами: https://telegram.me/addstickers/Elbrus2000 :-)

Комментарии (203)


  1. AKonia
    27.01.2022 19:55
    +15

    Простейший вопрос: тесты оптимизировали ? Просто под интел они ясен пень оптимизированы и в цифрах соменения нет, но с Эльбрусом же важна связь с компилятором, т.е. это примитивные тесты или пиковые с учётом оптимизации ? В противном случае было бы не правильно, если данное сравнение окажется из той же оперы, что и "сравниваю пузырьковую сортировку с быстрой, без оглядки на теорию сложности"


    1. EntityFX Автор
      27.01.2022 19:56
      +10

      Да, само собой. Сам код не менял, игрался флагами сборки, профилирование компилятором LCC. Но вообще компилятор МЦСТ порой странно ведёт себя, да.


      1. Ul3ainee
        28.01.2022 11:23
        +6

        Может это в начале статьи где-то указать? А то меня ровно тот же вопрос сопровождал в течение всей статьи: «чем и как компилировали тесты?». Уж очень сильно это меняет дело в случае VLIW.


        1. EntityFX Автор
          29.01.2022 01:26
          +2

          Да, добавил, а то СМИ там уже ахинею начали писать.


          1. Banzay48
            29.01.2022 12:16
            +4

            Да дружище, маху ты дал, первоначально не указав, что тесты не были оптимизированы под Эльбрус-16...

            А то там в новостях, твои тесты выдирают из контекста, и пишут чуть ли не

            "Энтузиаст вогнал гвоздь в крышку гроба МЦСТ и Эльбруса"...

            На том же ДНС-ШОП в новостях усираются, что именно ты доказал, что Эльбрус-16 чуть ли не в 250 раз слабее Intel Core7, а в комментах там такой срач развели что дай дороги. Чуть ли не "энтузиаст-оппозиционер протестировал Эльбрус-16С, и всему миру доказал что это полный кал, крайне не рекомендованный к приобретению".

            Смотри как бы теперь у тебя проблем не возникло. Те же ДНС полностью переиначили твою статью, и выставили тебя чуть ли не "борцом с системой и изобличителем лжи о импортозамещении".

            Я бы на твоем месте подал на ДНС в суд, или потребовал опровержения


            1. EntityFX Автор
              29.01.2022 12:27
              +4

              Я со СМИ не сотрудничаю, мне интересны бенчмарки Эльбрусов, да и сами Эльбрусы (энтузиаст: работа с ними, программирование. Честно, мне Эльбрусы очень нравятся, хотел бы себе такой). Что там они пишут - я не отвечаю, я отвечаю за цифры и косяки тестов, постараюсь исправлять, если найдут ошибки в тестах/методике.

              Факторы:

              1. Инженерник (отключены часть кеш-линий)

              2. 2 планки ОЗУ на не полной частоте (2400 вместо 3200), надо 8 планок

              3. Компилятор не последней версии


    1. khis
      28.01.2022 09:04
      -18

      "А вы тесты оптимизировали?" - от создателей "А вы систему оптимизировали? " И "А вы ПО оптимизировали? ".

      Не слишком ли много накладных расходов ради того, чтобы заставить эту поделку работать хотябы на уровне 10-ти летнего? Я бы ещё может согласился с тем, что да, надо своё развивать, но ядра то, насколько я понимаю, это не отечественная разработка, то есть всё отечественное процессоростроение это не о классных спецах в проектировании ядер и архитектур, а о спецах, объединяющих IP ядра в соответствии с госзаказом?


      1. trunya
        28.01.2022 10:10
        +16

        Вы эльбрус с байкалом путаете


      1. bbvoronin
        28.01.2022 10:11
        +9

        Ядра, свои, родные, посконные, вероятно вы путаете Эльбрус с Байкалом (там АРМ)


        1. Neo28
          29.01.2022 07:36
          -3

          Там mips, но не суть)


          1. amartology
            29.01.2022 12:13
            +5

            В Байкал-Т — MIPS. В Байкал-M и Байкал-S — ARM.


      1. Am0ralist
        28.01.2022 13:11
        +8

        Я бы ещё может согласился с тем, что да, надо своё развивать, но ядра то, насколько я понимаю, это не отечественная разработка
        Своя, можете начинать переобуваться.
        Господи, сколько дзеном затянуло сюда людей, которые к IT отношение не имеют чуть более, чем полностью…


      1. AllexIn
        28.01.2022 17:55
        +4

        ТАк VLIW это как раз о "оптимизировано компилятором".

        Если мы забиваем на качество компиляции - бенч можно даже не запускать.


        1. EntityFX Автор
          29.01.2022 01:45
          +1

          Верно, это сразу бросается в глаза. Ещё нужно лезть в код и оптимизировать участки.


    1. Neo28
      28.01.2022 10:11
      +5

      Под платформу тест на уровне кода оптимизирует компилятор. У интел вместе с железом доступен свой компилятор. Основные вендоры железа контрибьютят в gcc и прочие тулы опенсорсные, что бы код работал бодро на их железе. Это огромная работа, сопоставимая с разработкой железа


    1. oYASo
      28.01.2022 13:23
      -12

      Что значит "тесты оптимизированы"? Для разработчика должно быть все по дефолту: взял код, собрал, проверил, отправил в прод. То, что там есть какая-то связь с компилятором - прекрасно, но я же не буду оптимизировать десятки миллионов строк плюсового кода, чтобы они как-то по-особенному стали работать на Эльбрусе. Разработчики процессора это подразумевают, но не уверен, что с ними согласны разработчики софта.


      1. anka007
        28.01.2022 14:43
        +12

        Вообще-то вычислительная система состоит не только из процессора. И разработчики компиляторов точно так же оттачивают свое детище на условных коремарках. Игнорирование ключей компиляции удел скриптописателей, для них эти ключи вообще что-то страшное. А вот разработчики на тех же плюсах еще и собственный скрипт сборки напишут (aka makefile), как именно и с какими ключами собирать разные части программы, чтобы получилось хорошо.


        1. oYASo
          30.01.2022 13:58
          +1

          Ключи оптимизации являются инструментом компилятора, они, естественно, должны быть выбраны максимально эффективно для целевой платформы, но я говорю не про них.

          В моем понимании "оптимизация" - это затачивание тестов под конкретную платформу. e2k архитектура подразумевает, что вы знаете о широкой команде, и стараетесь писать код так, чтобы эту широкую команду максимально заполнить для параллельной обработки. Если вы делаете так, вы действительно получаете сильный буст, но проблема в том, что 99.999% кода написано без оглядки на такие архитектуры, а, следовательно, никаких преимуществ вы тут не получите.

          Поэтому интересны такие тестовые кейсы:

          1) Мы берем любой стандартный бенчмарк и компилим код as is под x86 и e2k и смотрим, какая разница в попугаях. В подавляюшем большинстве это то, на что нужно смотреть, потому что вряд ли люди будут переписывать openssl или какой-нибудь jsoncpp.

          2) Пишем максимально эффективный код для x86 и e2k и смотрим, насколько архитектура реально эффективно тащит задачу. Этот кейс ок, когда вы самые ресурсоемкие части своего продукта сразу пишите с оглядкой на платформу e2k. Не представляю, кому это, кроме МО РФ и некоторой госухе, надо.

          И я на всякий случай напомню, что VLIW в Intel умер. Да и не только в Intel, были разные идеи сделать что-то похожее, потому как сама идея выглядит вполне себе ок, но на практике оказалось, что писать эффективный компилятор под этой дело крайне сложно, а заставить всех разработчиков быть умными и сразу писать эффектиный код под архитектуру не получилось.


      1. Crazy_Pit
        28.01.2022 14:46
        +3

        это свойство vliw.. вот если в эльбрусе бы не было транслятора для Х86 . то без компилятора бы тест не запустили и вопросов бы таких не возникало..то есть на нем можно запустить тест в двух режимах.


        1. oYASo
          30.01.2022 14:06

          Не очень понял, о чем Вы. Да, Эльбрус имеет бинарный транслятор, но это все-таки дополнительный бонус для историй, когда код под платформы по каким-то причинам пересобрать нельзя. Наверное, разработчиков в первую очередь интересует история, когда код собрать можно.

          Или о чем был комментарий?


          1. Crazy_Pit
            30.01.2022 15:14

            Что значит "тесты оптимизированы"? Для разработчика должно быть все по дефолту: взял код, собрал, проверил, отправил в прод

            тесты собраны под х86. и сравнивать именно этот процессор в режиме трансляции не корректно. то что хотели сделать плюсом процессора обернулось минусом. тк в режиме трансляции он устурает кстати разработчики это и не скрывают. я не собирал под данный процессор ничего. и поэтому не могу ничего сказать о сложности сборки под эльбрус.


            1. oYASo
              30.01.2022 16:49

              У автора статьи тесты собраны как нативно под платформу, так и с бинарной трансляцией. Тут можно поискать со словом RTC: https://github.com/EntityFX/anybench/tree/master/results

              Конечно, делать выводы по нативному исполнению и эмуляции некорреткно, это понятно. Но эмуляция x86 для Эльбруса стратегически правильное решение, потому что есть куча софта, которые портировать не получится, а запускать надо.

              Но основное сравнение: это все-таки нативный код для e2k и нативный код для x86.


      1. saboteur_kiev
        28.01.2022 16:16
        +4

        > Для разработчика должно быть все по дефолту: взял код, собрал, проверил, отправил в прод

        Да ладно. Возьмем какой-нить софт для расчетов, например magma
        http://magma.maths.usyd.edu.au/magma/download/x86_64-linux/
        Почему там есть отдельные дистрибутивы под amd и под intel?
        Просто Эльбрус недоступен широким массам и не популярен, поэтому под него нужно специально компилировать, и это еще компилятор должен знать особенности эльбруса.

        А так, если вас не интересует производительность, то совместимость позволяет работать и так. Но как разработчика, это вас не красит.


        1. Am0ralist
          28.01.2022 16:55
          +2

          А так, если вас не интересует производительность, то совместимость позволяет работать и так
          Примерно, как компилировалось интеловским компилятором с условием «если амд, то считай, что у него ничего нет из расширений и делай самым не оптимальным методом»? )))


        1. oYASo
          30.01.2022 14:18

          Потому что можно использовать свежие SSE и прочие AVX-512, которые дают сильный буст на математике.

          А использование всего оптимизационного добра на e2k хоть и дают сильный буст, но только в рамках их архитектуры - остальным они все равно сильно проигрывают. Поэтому ребята из magma и всех других расчетных софтов вряд ли будут пилить какую-то серьезную поддержку нашей архитектуры, потому что зачем? И отдел стратегического планирования МЦСТ должен это понимать: никакой массовости не будет, никто специально поддержку пилить не будет, значит, большинство кода на платформе будет использоваться as is.


      1. Karbofos42
        28.01.2022 17:13
        +2

        не будешь оптимизировать - значит твой софт будет проигрывать конкурентам и его не будут покупать. Как-будто под интелы не оптимизируют и всё само работает. Нужно найти что-то в упорядоченной коллекции из миллиона элементов - все конечно же тупо перебором ищут, а там уже умный процессор встроенный оптимизатор включает и внезапно какой-нибудь бинарный поиск появляется. Или это не так работает?


        1. sgjurano
          28.01.2022 17:42
          +3

          Бинарный поиск вместо линейного процессоры делать всё же не должны :)

          Они больше про локальное переупорядочивание инструкций и прочий пайплайнинг на уровне машинного кода, семантики у него особо нет, насколько мне известно.


          1. Neo28
            28.01.2022 22:22
            +3

            Хороший компилятор код довольно сильно переколбашивает, в том числе на уровне симантики языка и кусков кода, иногда заметного объема, в сотни с/c++ функций. У подобного поделия фронт энд который парсит язык это процентов 10% кода от силы, еще 10% это кодогенерация, а оставшиеся 80 это почти все оптимизация. Только по оптимизации циклов книжка с теорией страниц 500, с математикой) и еще 500-600 страниц по общим оптимизациям построением всяких SSA форм)) и еще наверно 400 про векторизацию, и наверно 300 про кодогенерацию...ну это если "класику брать")) они больше на учебник по матану похоже, чем на книжку по программированию))



        1. oYASo
          30.01.2022 14:35

          Свидетели Отечественных Процессоров на Хабр ботов завезли, что ли?

          Какой софт каким конкурентам будет проигрывать? Речь у нас про то, что софт под Эльбрус проигрывает по скорости конкурентам Intel, AMD и далее по списку. Рынок не у Эльбруса, чтобы он задавал тренды, если что :)

          Под привычную нам архитектуру x86 большинство оптимизации делает компилятор, не разработчик. Эльбрусовский же компилятор за вас не делает ту работу, которая нужна дла VLIW процов. Есть даже инструкция, как с этим жить.

          А то, что вы тут пишите про какие-то коллекции и поиски элементов за линию, говорит лишь о том, что вы вообще не понимаете, о чем тут речь и к чему все претензии. Алгоритмы и структуры данных работают одинаково на всех существующих платформах, потому что это математика.


      1. DungeonLords
        30.01.2022 05:39

        Для общего развития вам может быть полезна

        https://habr.com/ru/post/442682/


    1. DistortNeo
      28.01.2022 19:56
      +5

      Собственно, да. После вот этой статьи:
      https://habr.com/ru/post/647165/
      где оптимизацией кода можно достичь ускорения в 44 раза на Эльбрусе, становится очевидным, что тестировать надо тоже правильно.


      1. EntityFX Автор
        29.01.2022 02:51
        +2

        Полностью согласен!


      1. Neo28
        29.01.2022 06:57
        +1

        Кейс классический вообщем-то. Есть софт, есть железка. Софт собирается компилятором, получается скорость х. Затем если необходимо идёт тонкая настройка руками. Стоимость доведения софта до максимальной скорости работы руками обычно дорогая и применяется в крайних случаях. Если всё вылизать то в данном случае и конкуренты мягко говоря сильно прибавят). Если надо ещё быстрее то берём и считаем на gpu, как вообщем то и делают для подобных разностных схем обычно)

        Я что пытаюсь сказать. Сравнивать надо яблоки с яблоками. Те как работает тест или задача из коробки. И сколько можно выжать и за какое время руками(ну и не забываем, что людей кто может подобное делать хорошо не так много) . Ну и выбираем железо правильно под задачу)


        1. Am0ralist
          29.01.2022 11:00
          +3

          И поэтому интел кучу лет угробил на компилятор свой, который сам колбасит по исходному коду нехило так, при этом зачастую ещё и условия вставляя «если амд, не используй ветку с новыми наборами команд», чтоб сравнивались яблоки с яблоками, ага.
          Более того, в том кейсе автор проводил по большей части классические манипуляции, которые улучшали скорость везде, ровно по той причине, что компиляторы сами не всегда правильно преобразуют код и иногда код нужно написать более понятно для них (не для железа).

          Если всё вылизать то в данном случае и конкуренты мягко говоря сильно прибавя
          Если всё вылизать или если всё прибить гвоздями к конкретной реализации некросплатформенно?


          1. Neo28
            29.01.2022 12:04
            +2

            Ни один компилятор пока не умеет делать идеальный код. В любом компиляторе всегда ищется баланс.

            Компилятор у интел специально не замедляет код для АМД, он не пользует просто фичи, где АМД лучше интел) . Да, смысл то же для юзера, но юридический смысл другой, интел из за этого ходил неоднократно в суд). И делает он так очевидно почему. Интел же не компилятор продаёт, а процессор. АМД так же делал, когда у них был свой компилятор лет 20 назад или около того. Просто бизнес)

            А и да, код вылизывают, прибивают не просто гвоздями к вендору, А бывает и к конкретной железке иногда) вылизывают не всё, а только боттл неки, которые основное время жрут. Поэтому если такие кастомеры садятся на платформу, подвинуть их на конкурента очень сложно. Я ещё до времён gpu использования для расчётов с плавающей арифметики, для пиксара делал оптимизацию рендера, для рендеринга мультиков. Они сидели на интел и к красным уходить не хотели совсем) потаму что интел помогал код вылизывать, а они каждые 3-4 года обновляли процы для 20к серверов)


            1. Am0ralist
              29.01.2022 13:50
              +4

              В любом компиляторе всегда ищется баланс.
              Не ищется, а достигается. Многолетним развитием этих компиляторов. Возьмите компилятор для интела лет 15 назад и соберите с ним ту же программу, поиграйте и сравните.
              Компилятор у интел специально не замедляет код для АМД, он не пользует просто фичи, где АМД лучше интел)
              А если найду, вы перестанете писать подобное? А если вспомнить, что бывают ещё библиотеки интела?
              А и да, код вылизывают, прибивают не просто гвоздями к вендору, А бывает и к конкретной железке иногда)
              Так ведь в статье никто не прибил код к Эльбрусу, вообще-то. Поэтому ваши
              Если всё вылизать то в данном случае и конкуренты мягко говоря сильно прибавя
              Некорректны


              1. X3_Shim
                30.01.2022 12:09

                >> А если вспомнить, что бывают ещё библиотеки интела?

                Кстати, совсем давно я ускорял матлаб, путем подсовывания в него MKL, вместо использующейся ACML, получил огромное ускорение и параллельность. Всего то небольшую интерфейсную либу приделал к MKL.

                А  MKL_DEBUG_CPU_TYPE вообще была изначально задумана для тестирования разных веток кода на топовых процах. Расползлось однако, хотя прикрыто имя переменной в коде было просто XORом :)


        1. DistortNeo
          29.01.2022 13:23

          Если всё вылизать то в данном случае и конкуренты мягко говоря сильно прибавят

          Если посмотрите статью, на которую я сослался, то окажется, что прибавка у конкурентов уже не такая существенная.


  1. Alusar
    27.01.2022 19:56
    +6

    Интересно.

    Хотя пока слабо представляю в каких именно решениях может быть использован подобный камень.


    1. EntityFX Автор
      27.01.2022 19:57
      +10

      В считалках, в хранилках, БД сервера, защищённые компы, ну как Intel Itanium.


      1. Neo28
        28.01.2022 10:21
        +10

        Итаниум, сдох де-факто ещё в 2010 году, когда я оттуда уходил) интел его тянул ещё долго ибо были уже клиенты жирные, в основном япошки, которым по контракту интел был обязан поставлять чипы ещё несколько лет. Звучит странно но кто с Япошками работал поймёт, им что то продать сложно, но если продал они это годы будут пользовать.


    1. vanxant
      28.01.2022 00:06
      +1

      Во всех, где не любят Intel ME и прочие зонды, например.


      1. quwy
        28.01.2022 02:05
        +10

        RISC-V. И доступнее, и его производители синдромом вахтера не страдают.


        1. vanxant
          28.01.2022 03:01
          +11

          Доступнее? Назовите любой один сервер на RISC-V, чтобы можно было прям купить.


          1. quwy
            29.01.2022 14:41

            А много Эльбрусов можно вот прям купить? Чтобы без совдеповского маразма с обиванием порогов и подписыванием кипы бредовых бумажек?

            Я не зря предложил именно "виртуальный" RISC-V, а не свободно продающийся ARM, например. Просто потому что при всей своей текущей виртуальности RISC-V все равно доступнее. Не сейчас, так в перспективе ближайшого времени.

            А этих вахтеров с неблагозвучным названием и десятиление не научит простому правилу: на конкурентном рынке продавец бегает за покупателем, а не наоборот.

            P.S. Ответ в том числе и на реплику@Am0ralistниже.


            1. Am0ralist
              29.01.2022 14:50

              На госзакупках вполне себе будет реально.
              Лично вам? А зачем лично вам он? Государство для своих структур делать хочет свои решения. Это не обязательное к исполнению всем физикам и большинству юриков вещь.
              Может быть риск5 от ядра станет более широко применим, и его с удовольствием станут и коммерческие структуры себе брать. А может быть — нет. Вот только эльбрусы уже есть, а рисков5 нет вообще и не будет минимум года 3 ещё.
              По вашему что лучше — синица в руках или утка под кроватью журавль в небе?
              И кто сказал, что оные риски можно будет свободно купить?


              1. JerleShannara
                29.01.2022 15:00
                -2

                Хинт: если я не могу купить байкал, я иду и покупаю бродком/медиатек/рокчипс/аллвинер. Если я не смогу в будущем купить ядропуперриск я пойду и куплю хайфайв и прочих. Если я не могу купить эльбрус, ну да, ну да, пошёл я.


                1. Am0ralist
                  29.01.2022 15:05
                  +1

                  А если вы не можете купить винду, то куда вы пойдёте, особенно если ваше ПО к нему прибито разработчиком всё это время было?


                  1. JerleShannara
                    29.01.2022 15:09
                    -1

                    Достану из сундука попугая и повязку, если не найду решений, которые можно будет заюзать.
                    П.С. Дам подсказку — в компуктерном магазине можно спокойно купить коробочку с надписью Microsoft Windows 10 Professional и даже с Microsoft Windows Server 2019. И никто вам там не скажет: руки вверх, подлая морда, покажи докУмент, что ты не МГУ.


                    1. Am0ralist
                      29.01.2022 15:15

                      Ну, пошла фантастика.
                      Да проще тогда объявить трофейной, ага.
                      Вас спрашиваешь про реальность, вы уходите в выдуманные миры, извините, но я сверну общение с вами, ибо на таком уровне аргументация является попыткой убедить, что бога нет, того, кто искренне верит.
                      Реальность — по ссылке.


                      1. JerleShannara
                        29.01.2022 15:20
                        -2

                        Реальность такова, что винду (а вы про неё и спрашивали) можно купить в магазине — попробуйте, я так делал, это реально возможно.


                      1. Am0ralist
                        29.01.2022 16:37
                        +1

                        ...что вы описываете личные покупки.
                        Игнорируя реальность, ага.


                      1. JerleShannara
                        29.01.2022 17:00
                        -2

                        Подсказка: после покупки в зубы берётся чек с накладной, коробка с виндус. Далее идём бухгалтерию и опа, теперь это не у частника, а у организации на балансе. Если же нам надо 20000 виндусов, то есть фирмы, управляемые зицпредседателями фунтами, которые с радостью за +х% купят и перепродадут вам много чего интересного. Это если вернуться в реальность из розовых мечт, в которых ограничения действительно работают.


                      1. saboteur_kiev
                        30.01.2022 17:49

                        осле покупки в зубы берётся чек с накладной, коробка с виндус. Далее идём бухгалтерию и опа, теперь это не у частника, а у организации на балансе

                        Простите, вьюноша.

                        Но потом к вам приходит аудит, находит что у вас ОС не по ГОСТ, и впаивает вам миллионный штраф. А если вы работаете в военке, то и уголовку за подрыв государственной деятельности.

                        Вы вообще думайте шире, а не о своем личном компьютере где-то дома или о маленькой ООО "рога и копыта". Там где нет запретов - там их нет. Там где есть - они есть.

                        И если уж надо работать на винде там, где нельзя, это решается другими способами, а не те варианты, которые вы предлагаете и которые выглядят как детский лепет.


                      1. JerleShannara
                        30.01.2022 18:09

                        Я этим кстати реальность описывал. И если в инструкции на АРМ указана «Виндус Восемь», то ставить туда надо именно её, а за другую вам и прилетит всё, что вы наобещали. Плюс если прочитать внимательнее, с чего пошёл посыл про «купить за нал в магазе, а бухи поставят на учёт» или «заказать через фирму-прокладку», то он был про то, что делать, если используемый в производственной цепочке софт «Виндуз онли» и не хочет идеально работать при помощи всяких wine. Можете недавний скандал про турбины сименс вспомнить к примеру такого решения проблемы.


            1. DungeonLords
              30.01.2022 05:51

              Поддерживаю топик стартера ссылкой на компьютер на risc v. Купить можно хоть на али

              Allwinner D1


        1. Am0ralist
          28.01.2022 13:12
          +4

          RISC-V. И доступнее, и его производители синдромом вахтера не страдают.
          Ок, покажите в реальности а) доступный и б) производительнее уже сейчас?
          А когда-нибудь — так Ядро уже начали проектировать. Через 3-5 лет увидим.


      1. JerleShannara
        28.01.2022 14:17

        ARM не?


    1. Wan-Derer
      28.01.2022 15:58
      +2

      каких именно решениях может быть использован подобный камень

      В любых. Это ЦП общего назначения. А то что производительность ниже..... Ну сколько реальных задач, на которых ЦП загружен круглосуточно на 100% на все ядра? Сколько задач где жизненно важная скорость обработки? Я не спорю, такие есть, но каков их процент в реальной жизни?

      Интересно было бы взглянуть на такой тест, который бы учитывал производительность системы с учётом реального соотношения работы и простоя.


      1. Alusar
        28.01.2022 16:02

        Ну сколько реальных задач, на которых ЦП загружен круглосуточно на 100% на все ядра?

        Я не говорил об этом)
        Просто рассуждаю не только со стороны тех.параметров, но еще с немаловажной финансовой стороны.


      1. Neo28
        29.01.2022 07:50

        Не могу сказать сколько в %% по рынку. Но где сервер работает с загрузкой 80% я видел очень много. Это я бы сказал это типичный кейс для сколь-нибудь серьёзной инфраструктуры, где хотя бы пол-сотни серверов есть. 20% оставляется на нежданчики обычно. И народ да, прям вот планирует нагрузку и бюджет. Круг задач весьма высок, от стриминга киношек до ERP систем крупных контор. Да могут быть просадки в нагрузке в течении суток, но в целом сервер колбасит под нагрузкой


        1. Wan-Derer
          29.01.2022 08:21
          -1

          Хорошо. Но что мешает на такую задачу поставить два сервера вместо одного?

          Занимаемое место? Ну мы же не Сингапур! Мы 8 тыс км только в ширину :) Уж под ЦОД местечко найдётся! :)

          Потребляемое электричество? Ну так мы - ресурсодобывающая страна. И турбины крутить тоже умеем.

          Избыточное тепло? Ну так у нас обычно холодно! Почему бы не совместить приятное с полезным? :)

          В плюсах - резервирование.

          Конечно, не стоит ждать что так будут мыслить обычные эксплуатанты. Им чем проще/быстрее/стандартней - тем лучше. МЦСТ и Байкал - тоже не МикроИнтел, они эту тему субсидировать не могут. Здесь должно играть государство. А государство играет пока очень вяло. Я согласен с тем одним госзаказом отрасль не вытянуть. Так же одними запретами задачу не решить. А вот если добавить сюда пряник - может получиться. Если обычному коммерческому заказчику предложить хорошие условия приобретения и дальнейшего владения - он подумает-подумает, да и решится на эксперимент. А дальше уже дело производителей - сделать так чтобы эксперимент прошёл успешно.

          И во избежание бессмысленной дискуссии: я тут ни за что не "топлю", я пытаюсь ответить на вопрос "где этот камень можно применить".


      1. Paul_Arakelyan
        29.01.2022 12:29
        +2

        В настольном сегменте - производительность 1 ядра, пока что, важнее всего. Тут ситуация "ужас ужасный". И в БД - она тоже, часто, не редкая. Грубо говоря, то, что ты можешь отработать 100 параллельных запросов на 100 ядрах за 5 секунд, затратив Х Вт, не всегда компенсирует тот факт, что 1 запрос ты будешь отрабатывать те же 5 секунд, пусть даже конкурент сжирает 2*Х Вт на отработке 100 запросов, но если он это делает быстрее - юзер убежит к конкуренту и энергоэффективность не поможет.


        1. Am0ralist
          29.01.2022 13:56

          Стоп, нет, если именно в настольном сегменте, то там продаётся почему-то всяких силеронов, пеньков и прочего намного больше, чем топовых коре i7, у которых на ядро максимальные частоты и производительность оказывается.
          Вы уже приводите в пример уже более специализированного сегмента, кому нужны мало быстрых ядер в основном.
          А так даже на серверах стоят процы в основном с базовыми частотами по всем ядрам, а буст там хоть и есть, но далеко не у всех он требуется, так что даже те же армы, имея меньшее на ядро, таки в том же амазоне пошли, потому что в задачах параллельных нормально себя показали.


  1. Rezzet
    27.01.2022 20:01
    +10

    Возможно ошибаюсь, но мне кажется что там где идет простое числодробление без сложных переходов, там Эльбрус показывает себя достаточно уверено, но там где появляются условные переходы и наверно кеш-мисы, становится все плохо. Возможно дело в плохом предсказание переходов и загрузке кеша?

    Если бы мне дали принимать решение о политике полупроводниковой отрасли, то наверно смотрел в сторону RISC-V.


    1. lamerok
      27.01.2022 20:08
      +1

      Насколько я понял из пресс-релиза, где то к этому и идёт, микс RISC-V и родное ядро. Первое для всего, второе для спец задач.


    1. EntityFX Автор
      27.01.2022 20:08
      +7

      У Эльбруса нет предсказателя переходов, переупорядочивания инструкций. Прямое исполнение, микрокода нет, это и требуется для защищённого исполнения кода, 3 аппаратных стека и т.д.


      1. JerleShannara
        28.01.2022 14:17
        +5

        И до сих пор нет операционной системы, которая это бы всё смогла полноценно использовать.


    1. EntityFX Автор
      27.01.2022 20:48
      +1

      RISC-V интересна, на неё плохой код вертеть самое то, если сделают процессор 256 простых risc-v ядер, но серверного исполнения (даже без SIMD). PHP, NodeJS, Python будет нормально работать.


      1. Rezzet
        27.01.2022 21:20
        +1

        Как по мне, так RISC-V интересна тем что есть огромная куча фирм которые делают блоки процессора разного назначения и фактически можно собрать современный процессор как конструкто лего. Алибаба вообще открыла свои ядра которые по их заявлениям быстре ARM A73. https://www.opennet.ru/opennews/art.shtml?num=56010

        Есть разные блоки под разными лицензиями, открытые/закрытые.

        Плюс софт который уже портирован на данную архитектуру.


        1. EntityFX Автор
          27.01.2022 23:24
          +5

          Кстати, МЦСТ могли бы вместо своей линейки SPARC перейти на RISC-V. И деньги бы пошли, наверное.


          1. akaAzazello
            28.01.2022 11:07
            +4

            RISC-V только-только закончил формирование спецификаций - векторное расширение(RVV), без которого он был неполным для ниши HPC, в 2021 довели до версии 1.0 - так что сейчас очень подходящее время для перехода.


            1. Am0ralist
              28.01.2022 13:14
              +2

              Ну так этим же не обязательно МЦСТ должна заниматься) У нас и другие есть. Байкаловцы ж армы делали не оглядываясь на Эльбрусы. Ядро собирается.
              Это ж хорошо, если будет несколько команд и будет из чего выбирать.


              1. akaAzazello
                28.01.2022 16:45
                +3

                Как заметил автор, в МЦСТ (как минимум раньше было) 2 команды разработчиков - Е2К и (Sun) Spark - и было бы логично, чтобы знакомые с RISC архитектурой спарковцы занялись бы близкой (разработанной в том же Berkeley) и свободной RISC-V архитектурой, а не, скажем, ARM или слились с E2K командой


                1. Am0ralist
                  28.01.2022 17:09
                  +1

                  Это если есть, если есть в достаточном количестве и т.п. У них с 15 года новостей нет, да и откуда им взяться, если для военки чипы делаются вроде как «тут», а «тут» нет лучших техпроцессов. То есть в данном случае они должны будут потом соперничать с тем же Ядром по рискам, которые более коммерчески ориентированные, а я не очень в это верю — мцст слишком долго с военными чисто варилась...


                  1. amartology
                    28.01.2022 17:52

                    если для военки чипы делаются вроде как «тут»
                    С чего вы взяли?


                    1. Am0ralist
                      29.01.2022 11:07

                      из интернетов, где пишут:

                      Выпускаются небольшими партиями по несколько десятков комплектов в месяц, часть процессоров для удешевления производятся на Тайване по российской документации, но в вычислительных комплексах СПРН применяются исключительно отечественные изделия.


                      1. amartology
                        29.01.2022 11:59

                        Не стоит верить всему, что пишут в интернетах. Особенно если это не официальный пресс-релиз МЦСТ или Микрона об освоении серийного производства процессора на отечественной фабрике. Ну или, на худой конец, ТЗ на ОКР по адаптации дизайна с TSMC на Микрон.


                      1. Am0ralist
                        29.01.2022 13:58

                        Я — доверчивый.


                1. imotorin
                  29.01.2022 21:22

                  SPARC


    1. nixtonixto
      28.01.2022 09:27

      Смотреть лучше в сторону ARM, Apple не даст соврать. Даже здесь в тестах их процессор для мобильных телефонов оказался в разы производительней этого десктопного Эльбруса. Хотелось бы ещё увидеть не только абсолютные цифры результатов тестов, а в пересчёте на ватт потребляемой мощности. Для серверов это очень важно.


      1. Neo28
        28.01.2022 11:05
        +4

        В серверах важна не только производительность на ватт, но и скалируемость. У арма с этим печалька. Поэтому истории арм для серверов уже лет 10, но пока это узкоспециализированные решения


        1. Layan
          28.01.2022 12:41

          Почему узкоспециализированные то? Тот же AWS с Graviton очень даже неплох. Мы довольно быстро на него перешли — дешевле и производительнее получилось. Софт, в основном, уже собран под ARM. Да и собрать тоже не проблема.


          1. Neo28
            28.01.2022 13:03
            +2

            Амазон переработал заметную часть стека софтового под арм, они себе это могут позволить при их объемах.


            1. Layan
              28.01.2022 13:53

              Но ведь тот софт, что они переработали вполне можно использовать и на других ARM. Так, даже наш софт собирается под ARM и используется и на серверах, и на ноутбуках разработчиков с Apple M1.


              1. Neo28
                28.01.2022 21:58

                Скорее всего амазоновский софт можно пользовать на других армах, только не уверен что амазон все в опен сорс выложил)). И между "можно собрать и пользовать" и "работает хорошо и эффективно" есть большая разница) Не зря же целая индустрия существует, когда опенсорс допиливают и саппортят. Красная шапка вполне приличную кучку денег на этом зарабатывает)


      1. Am0ralist
        28.01.2022 13:16
        +4

        Смотреть лучше в сторону ARM, Apple не даст соврать.
        АРМ зависит от лицензий. Например, лицензии самого арма запрещать могут их использовать в силовых ведомствах и т.п.
        И смысл? Мы не китайцы, чтоб выкрутить руки арму и создать независимую от него дочку по сбору лицензионных бабок.
        И смысл смотреть на них? Либо «опенсорс», либо велосипед…


        1. nixtonixto
          28.01.2022 13:41
          -2

          Я на 99% уверен, что в российских реалиях «опенсорс» или велосипед окажутся такими же провальными затеями, как Йотафон, Марусся, лунная база… И в лучшем случае его будут так же, как в этой статье, сравнивать с 10...15-летними не-флагманскими моделями Интел. ИМХО более-менее конкурентоспособный процессор в России можно собрать, если брать Актуальные ядра ARM и обвешивать их своими IP, PHY и логикой. Процессор нужен не только оборонке, поэтому для гражданки вполне реально лицензировать ядра и собрать камень в разумные сроки.


      1. anka007
        28.01.2022 14:23
        +1

        На армах сложно состыковать требования вояк с требованиями лицензии арма. Сейчас вояки больше специализированные отечественные мипсы потребляют, но крупномощного на них ничего нет, насколько я знаю.


        1. amartology
          29.01.2022 18:30

          Вояки всю дорогу прекрасно потребляли не только отечественные ARM, но и скажем, процессоры Intel.

          отечественные мипсы потребляют, но крупномощного на них ничего нет, насколько я знаю.
          Неправильно знаете)


    1. Paskin
      30.01.2022 08:44

      Думаю, что если "числодробление" скомпилировать Интеловским компилятором - результаты i7 будут гораздо выше. А есть еще оптимизированные математические библиотеки, интринсики и т.п.


  1. toxano
    27.01.2022 20:07
    +1

    Можете уточнить про Geekbench. Там сравнение одного i7 2600 против двух 16С?


    1. EntityFX Автор
      27.01.2022 20:16

      Нет, это глюк распознавания проца, там 1 проц в бинарной трансляции, Geekbench падал, пришлось прокинуть ему кастомный /proc/cpuinfo.


  1. Extravert34
    27.01.2022 20:08
    +6

    Выложите пожалуйста тесты на openbenchmarking.org. Там регулярно выкладываются бенчмарки разных экзотических (и не очень) процессоров, будет интересно сравнить.


  1. EntityFX Автор
    27.01.2022 20:09
    +2

    Кому интересно как посчитать теоретические FLOPS:

    How calculate FLOPS (v1 .. v3):

    Single Precision: 4 FP ALUs * 4 Single operation * Cores * Frequency
    Double Precision: 4 FP ALUs * 2 Double operation * Cores * Frequency

    How calculate FLOPS (v4):

    Single Precision: 6 FP ALUs * 4 Single operation * Cores * Frequency
    Double Precision: 6 FP ALUs * 2 Double operation * Cores * Frequency

    How calculate FLOPS (v5+ [128 bit SIMD]):

    Single Precision: 6 FP ALUs * 4 Single operation * 2 SIMD * Cores * Frequency
    Double Precision: 6 FP ALUs * 2 Double operation * 2 SIMD * Cores * Frequency

    Example for Elbrus-16C: 6 ALUs * 2 DP * 2 * 16 Cores * 2e9 = 7.68e11 --> 768 GFlops FP64


  1. V1tol
    27.01.2022 20:13
    +4

    Интернет говорит, что в 16С аж целых 8 каналов памяти. Думаю, что 2 планки очень сильно ограничивают некоторые результаты.


    1. EntityFX Автор
      27.01.2022 20:21
      +1

      Да, верно, но столько установлено, а поменять конфигурацию памяти я не могу =, работал удалённо.


      1. toxano
        27.01.2022 20:29
        +2

        Может один удаленный образец, дадут сообществу на растерзание. Все сами соберём и проверим


        1. EntityFX Автор
          27.01.2022 20:46

          Тут спросите: https://t.me/e2k_chat


    1. EntityFX Автор
      27.01.2022 20:22

      Добавлю позже в описание про тип и каналы памяти.


    1. EntityFX Автор
      27.01.2022 20:26

      Уточнил: там 2 плашки KSM24RD4/32MEI по 32 Гига.


  1. VLev
    27.01.2022 20:45
    +1

    Не нашёл log-ов SPEC2006.

    Как именно в нём тестировалось?


    1. EntityFX Автор
      27.01.2022 20:46

      Это уже МЦСТшные цифры, купить тест не могу, хотя на нём они тестируют перфу компилятора.


      1. VLev
        27.01.2022 20:49

        я так и думал :(


  1. Armmaster
    27.01.2022 20:48
    +1

    Java

    1 поток:

    ...

    Эльбрус 16С в 1,7 раз медленнее на 1 поток чем Core i7 2600

    А можно уточнить, как цифра 1.7 получилась? Просто я смотрю в результаты замеров на Джаве и вижу там другие результаты. Да и чисто из понимания теории, такой результат на Э16С выглядит крайне сомнительным.


  1. VLev
    27.01.2022 20:54
    +1

    Whetstone...

    Эльбрус-16С показывает результаты кратные частоте (2000 / 1500).

    вообще-то 1831/1723=1.06 -- какая-то ошибка, вероятно

    по крайней мере

    42467/16495/2=1.29
    это уже ближе к 2000/1500=1.3(3)


    1. EntityFX Автор
      27.01.2022 21:01

      Повторно перепроверю, поиграюсь флагами.


  1. wigneddoom
    27.01.2022 21:10
    +2

    Астрологи объявили неделю эльбрусов...

    Baikal-S конечно интереснее выглядит.


    1. perfect_genius
      28.01.2022 15:15
      +2

      Чем он интереснее других ARM-процессоров?


      1. JerleShannara
        28.01.2022 15:19
        +2

        Тем, что его ещё как-то можно провести под лозунгом «Сделано в РФ».


      1. amartology
        28.01.2022 16:59
        +3

        Чем он интереснее других ARM-процессоров?
        И много вы знаете других 48-ядерных ARM-процессоров?
        Не говоря уже о том, что Байкал-S не должен быть интереснее других ARM-процессоров, он должен быть интереснее конкретно вот этого Эльбруса.


        1. lumag
          28.01.2022 18:34
          +2

          Cavium/Marvell ThunderX/ ThunderX2 и т.д.


          1. Am0ralist
            29.01.2022 11:12

            Эм, ну так они как вышли, так и всё… А на рынке то сейчас пойти купить что-то можно спокойно продукцию с подобными кому угодно?
            Если даже такие новости считаются за инновации.


        1. wigneddoom
          29.01.2022 20:01

          В точку. Что у Байкал, что у Эльбрус только одно "конкурентное" преимущество - проходят под лозунгом "Сделано в РФ". Только у первого готовая экосистема софта и выше производительность.

          Что касается других 48-х ARM. У нас на тестах был сервер Хуавей с их KunPeng 920 (48C, 2.6 GHz), вполне приличная машинка. Поэтому если Байкаловцы не врут, и Байкал S сможет работать на 2,5 GHz и производительность будет на уровне 0,7 KunPeng 920 или примерно Intel Xeon Gold 6148, то с этим уже можно работать.

          Тут главное как у них пойдёт с поставками и что их партнёры смогут предложить в виде готового продукта.


  1. evil_kabab
    27.01.2022 22:16
    +11

    Заходил на сайт мцст пару дней назад. У них нет SSL сертификата. Не то чтобы он просрочен или ещё чего, его там просто нет! Печатаешь https: и вываливается ошибка сервера...

    Не думаю что это влияет на производительность их цпу, просто наблюдение...


    1. EntityFX Автор
      27.01.2022 22:28
      +1

      Да, надо им сказать. Let's Encrypt пусть поставят.


      1. ogregor
        28.01.2022 00:11
        -8

        Давно в кубер пора заворачивать. Сейчас даже школьник это делать умеет.


        1. computerix
          28.01.2022 07:30
          +1

          Сарказм?


    1. KGeist
      27.01.2022 22:58
      +75

      Зашел на сайт разработчика сайта - у самих нет сертификата. Прошелся по кейсам клиентов - у половины тоже нет, при том что где-то есть вход/регистрация. Заинтересовало, откуда такая странная студия появилась. Выяснил, что их руководитель - юрист, который делал детский сайт о президенте на на kremlin.ru, сайт о патриархе Кирилле, в основном православные проекты. Сама студия названа в честь арабского правителя 6 века Арефы Эфиопского, которого в одной из войн сжёг омиритский царь-иудей Дунаан. В какой-то момент, читая википедию о христианских великомучениках, я задумался, "а при чем тут, собственно, процессоры Эльбрус", и прекратил исследование :)


      1. EntityFX Автор
        28.01.2022 09:10

        Лучший комментарий!


      1. IGR2014
        28.01.2022 13:00
        +6

        М'сье знает толк в исследованиях!)


    1. Akr0n
      28.01.2022 02:28
      +1

      Сейчас как воткнут ГОСТовый, вообще мало, кто зайдет на сайт.


      1. CodeHolder
        28.01.2022 13:58
        +3

        Будем продвигать хромиум-гост в массы.


  1. liano
    27.01.2022 23:06
    +2

    Сколько времени занимает компиляция Linux ядра?


  1. forthuser
    27.01.2022 23:41
    +2

    Жду ваши предложения, какие ещё бенчмарки можно прогнать на этих компьютерах

    А, проверьте, если не сложно такой «тест»
    vectorforth (SIMD vectorized Forth compiler with CPU based shader application)


    1. EntityFX Автор
      28.01.2022 09:42

      Словил ошибки компиляции
       line 7861: error #350:
                more than one operator "*" matches these operands:
                  function template
                            "jtk::Expr<jtk::BinExprOp<jtk::Constant<T>, jtk::matrix<T, Container>::const_iterator, jtk::OpMul                                                                                                                      <jtk::gettype<T, T2>::ty>>> jtk::operator*(T2, const jtk::matrix<T, Container> &)"
                  function template
                            "jtk::matrix<double, Container> jtk::symmetric_sparse_matrix_wrapper<T>::operator*(const jtk::mat                                                                                                                      rix<double, Container> &) const [with T=double]"
                  operand types are: const
                            jtk::symmetric_sparse_matrix_wrapper<double> *
                            jtk::matrix<double, std::vector<double,
                            std::allocator<double>>>
            matrix<T, Container> r = b - A * out;
                                           ^
                detected during:
                  instantiation of
                            "void jtk::preconditioned_conjugate_gradient(jtk::matrix<T, Container> &, T &, uint32_t &, const                                                                                                                       jtk::symmetric_sparse_matrix_wrapper<T> &, const TPreconditioner &, const jtk::matrix<T, Container> &, const jtk::matri                                                                                                                      x<T, Container> &, T) [with T=double, Container=std::vector<double, std::allocator<double>>, TPreconditioner=jtk::diago                                                                                                                      nal_preconditioner<double>]"
                            at line 7917
                  instantiation of
                            "void jtk::conjugate_gradient(jtk::matrix<T, Container> &, T &, uint32_t &, const jtk::symmetric_                                                                                                                      sparse_matrix_wrapper<T> &, const jtk::matrix<T, Container> &, const jtk::matrix<T, Container> &, T) [with T=double, Co                                                                                                                      ntainer=std::vector<double, std::allocator<double>>]"
                            at line 4739 of
                            "/root/vectorforth/jtk/jtk.tests/mat_tests.cpp"
      
      lcc: "/root/vectorforth/jtk/jtk.tests/../jtk/mat.h", line 7861: error #350:
                more than one operator "*" matches these operands:
                  function template
                            "jtk::Expr<jtk::BinExprOp<jtk::Constant<T>, jtk::matrix<T, Container>::const_iterator, jtk::OpMul                                                                                                                      <jtk::gettype<T, T2>::ty>>> jtk::operator*(T2, const jtk::matrix<T, Container> &)"
                  function template
                            "jtk::matrix<float, Container> jtk::symmetric_sparse_matrix_wrapper<T>::operator*(const jtk::matr                                                                                                                      ix<float, Container> &) const [with T=float]"
                  operand types are: const
                            jtk::symmetric_sparse_matrix_wrapper<float> *
                            jtk::matrix<float, std::vector<float,
                            std::allocator<float>>>
            matrix<T, Container> r = b - A * out;
                                           ^
                detected during instantiation of
                          "void jtk::preconditioned_conjugate_gradient(jtk::matrix<T, Container> &, T &, uint32_t &, const jt                                                                                                                      k::symmetric_sparse_matrix_wrapper<T> &, const TPreconditioner &, const jtk::matrix<T, Container> &, const jtk::matrix<                                                                                                                      T, Container> &, T) [with T=float, Container=std::vector<float, std::allocator<float>>, TPreconditioner=jtk::diagonal_p                                                                                                                      reconditioner<float>]"
                          at line 4773 of
                          "/root/vectorforth/jtk/jtk.tests/mat_tests.cpp"
      
      lcc: "/opt/mcst/lcc-home/1.25.17/e2k-v5-linux/include/smmintrin.h", line 155: warning #1444:
                function "__builtin_ia32_dpps" (declared at line 3929 of
                "/opt/mcst/lcc-home/1.25.17/e2k-v5-linux/include/e2kbuiltin.h") was
                declared deprecated
                ("The function may be slow due to inefficient implementation, please try to avoid it")
                [-Wdeprecated-declarations]
          ((__m128) __builtin_ia32_dpps ((__v4sf)(__m128)(X),                   \
                    ^
       in expansion of macro "_mm_dp_ps" at line 5318 of
                 "/root/vectorforth/jtk/jtk.tests/../jtk/mat.h"
              __m128 d = _mm_dp_ps(v1, v2, 0xf1);
                         ^
                detected during instantiation of
                          "void jtk::preconditioned_conjugate_gradient(jtk::matrix<T, Container> &, T &, uint32_t &, const jt                                                                                                                      k::symmetric_sparse_matrix_wrapper<T> &, const TPreconditioner &, const jtk::matrix<T, Container> &, const jtk::matrix<                                                                                                                      T, Container> &, T) [with T=float, Container=std::vector<float, std::allocator<float>>, TPreconditioner=jtk::diagonal_p                                                                                                                      reconditioner<float>]"
                          at line 4773 of
                          "/root/vectorforth/jtk/jtk.tests/mat_tests.cpp"
      
      2 errors detected in the compilation of "/root/vectorforth/jtk/jtk.tests/mat_tests.cpp".
      make[2]: *** [jtk/jtk.tests/CMakeFiles/jtk.tests.dir/build.make:132: jtk/jtk.tests/CMakeFiles/jtk.tests.dir/mat_tests.c


  1. Krey
    28.01.2022 00:32
    +1

    Спасибо за ваш труд по портированию и тестам. Слежу с момента как узнал о вас в ролике Д. Бачило.


    1. EntityFX Автор
      28.01.2022 09:06

      Да, Дмитрия обожаю, смотрю все его выпуски с 2014го.


  1. aborouhin
    28.01.2022 00:55
    +11

    Вот интересно, почему для сравнения выбран Core i7-2600 10-летней давности, у которого ядер меньше в 4 раза, потоков - в 2, память работает на в 2 с лишним раза меньшей частоте... Если уж мы оцениваем процессор 2021 года, давайте и возьмём в качестве конкурента какой-нибудь 11700K, хотя бы. А лучше, если потом ещё результаты тестов соотнести со стоимостью процессора - сколько производительности мы получаем на доллар/рубль.


    1. red_andr
      28.01.2022 01:25
      +8

      Ну так будет совсем не честно! Кстати, техпроцесс тоже в два раза отличается. И да, разница более чем в десять лет. Core i7-2600 был запущен в продажу в январе 2011, а Эльбрус 16С, как видим, до сих пор доступен только в инженерных образцах. В серию хорошо если пойдёт к началу 2023 года, то есть будет уже 12 лет.


    1. gshep
      28.01.2022 07:51
      +4

      наверное просто потому, что у автора тестирования под рукой есть только Core i7-2600. Я предполагаю, что если вы - или кто-либо другой - погоняют эти же самые тесты на упомянутом 11700K или Райзене, то автор добавит эти результаты в статью.


    1. PsihXMak
      28.01.2022 08:57

      Вот мне тоже интересно. Уже столько статей вышло и ни в одной нет сравнения с акутальными моделями.


    1. EntityFX Автор
      28.01.2022 09:08
      +2

      У меня есть только Core i7 2600 из самых мощных компов, работаю с ним уже 10 лет и все до сих пор летает (веб, разработка, игры не играю).


      1. yamabusi
        28.01.2022 14:31
        +1

        Очевидно конкретно в тесте Blender важнее многопоточность если E5-2620 v2 сделал Core i7 2600,нежели ГГц,с другой стороны у Elbrus 16C 16 ядер.


      1. BkmzSpb
        29.01.2022 13:13

        Недавно отправил на пенсию 2700K и заменил на 11700KF. Сразу предупреждаю, запускал на Windows как есть (чистое окружение не готовил). Имею проблемы с охлаждение, по моим прикидкам теряю примерно 1% частоты (0.05 ГГц) при продолжительной пиковой нагрузке.

        Дотнетовский бенчмарк у меня один раз выпал с ArgumentOutOfRangeException при досутпе к какой-то коллекции. В остальные два раза 24 тест у меня просто не отрабатывал -- 0 загрузки CPU и 0 прогресса. Что-то странное с бенчмарком на сравнение строк параллельно -- потребляет не более 20% CPU cycles, возможно там какой-то data race происходит (либо может это IO-bound/GC-heavy, но я не заметил ни давления на память ни доступа к диску). На джаве параллельные строки работали действительно праллельно с загрузкой в 100%.

        Т.к. в джаве не шарю, запустил бинарник "как есть".

        Возможно я что-то еще делаю не так, но тест блендера занял у меня 22 секунды.

        & 'C:\Program Files\Blender Foundation\Blender 3.0\blender.exe' -b RyzenGraphic_27.blend  -f 1 -- --cycles-device CPU.log
        Бенчмарк Blender
        Blender 3.0.1 (hash dc2d18018171 built 2022-01-26 01:46:57)
        Read blend: C:\Users\[redacted]\Downloads\RyzenGraphic_27.blend
        Fra:1 Mem:63.36M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | Plane.006
        Fra:1 Mem:63.37M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | Plane.005
        Fra:1 Mem:63.37M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | Plane.003
        Fra:1 Mem:63.37M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | Plane.001
        Fra:1 Mem:63.37M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | Curve.002
        Fra:1 Mem:63.38M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master pin_001 pin_grp372.001
        Fra:1 Mem:63.40M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master gold_plane.001
        Fra:1 Mem:63.40M (Peak 65.44M) | Time:00:00.04 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master numbers.001
        Fra:1 Mem:65.56M (Peak 65.95M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master D_letter.001
        Fra:1 Mem:64.84M (Peak 65.95M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master middle_layer.001
        Fra:1 Mem:65.05M (Peak 65.95M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | black_glue chip_master.001
        Fra:1 Mem:65.47M (Peak 65.95M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master top_layer.001
        Fra:1 Mem:65.78M (Peak 65.95M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master gold_plane_back.001
        Fra:1 Mem:65.79M (Peak 65.95M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master heat_spreader.001
        Fra:1 Mem:66.48M (Peak 66.48M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | chip_master bottom_layer.001
        Fra:1 Mem:66.09M (Peak 67.06M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Synchronizing object | Plane.004
        Fra:1 Mem:64.23M (Peak 67.06M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Initializing
        Fra:1 Mem:58.38M (Peak 67.06M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Updating Images | Loading Enso.png
        Fra:1 Mem:58.38M (Peak 67.06M) | Time:00:00.05 | Mem:0.00M, Peak:0.00M | Scene, RenderLayer | Updating Images | Loading summitRidge_color.jpg
        Fra:1 Mem:295.96M (Peak 826.42M) | Time:00:00.47 | Mem:256.00M, Peak:256.00M | Scene, RenderLayer | Waiting for render to start
        Fra:1 Mem:295.96M (Peak 826.42M) | Time:00:00.47 | Mem:256.00M, Peak:256.00M | Scene, RenderLayer | Loading render kernels (may take a few minutes the first time)
        Fra:1 Mem:295.96M (Peak 826.42M) | Time:00:00.47 | Mem:256.00M, Peak:256.00M | Scene, RenderLayer | Updating Scene
        Fra:1 Mem:295.96M (Peak 826.42M) | Time:00:00.47 | Mem:256.00M, Peak:256.00M | Scene, RenderLayer | Updating Shaders
        Fra:1 Mem:296.47M (Peak 826.42M) | Time:00:00.48 | Mem:256.01M, Peak:256.01M | Scene, RenderLayer | Updating Procedurals
        Fra:1 Mem:296.47M (Peak 826.42M) | Time:00:00.48 | Mem:256.01M, Peak:256.01M | Scene, RenderLayer | Updating Background
        Fra:1 Mem:296.47M (Peak 826.42M) | Time:00:00.48 | Mem:256.01M, Peak:256.01M | Scene, RenderLayer | Updating Camera
        Fra:1 Mem:296.47M (Peak 826.42M) | Time:00:00.48 | Mem:256.01M, Peak:256.01M | Scene, RenderLayer | Updating Meshes Flags
        Fra:1 Mem:296.47M (Peak 826.42M) | Time:00:00.48 | Mem:256.01M, Peak:256.01M | Scene, RenderLayer | Updating Objects
        Fra:1 Mem:296.47M (Peak 826.42M) | Time:00:00.48 | Mem:256.01M, Peak:256.01M | Scene, RenderLayer | Updating Objects | Copying Transformations to device
        Fra:1 Mem:296.75M (Peak 826.42M) | Time:00:00.48 | Mem:256.27M, Peak:256.27M | Scene, RenderLayer | Updating Objects | Applying Static Transformations
        Fra:1 Mem:296.75M (Peak 826.42M) | Time:00:00.48 | Mem:256.27M, Peak:256.27M | Scene, RenderLayer | Updating Particle Systems
        Fra:1 Mem:296.75M (Peak 826.42M) | Time:00:00.48 | Mem:256.27M, Peak:256.27M | Scene, RenderLayer | Updating Particle Systems | Copying Particles to device
        Fra:1 Mem:296.75M (Peak 826.42M) | Time:00:00.48 | Mem:256.27M, Peak:256.27M | Scene, RenderLayer | Updating Meshes
        Fra:1 Mem:297.11M (Peak 826.42M) | Time:00:00.48 | Mem:256.27M, Peak:256.27M | Scene, RenderLayer | Updating Mesh | Computing attributes
        Fra:1 Mem:297.24M (Peak 826.42M) | Time:00:00.48 | Mem:256.27M, Peak:256.27M | Scene, RenderLayer | Updating Mesh | Copying Attributes to device
        Fra:1 Mem:297.16M (Peak 826.42M) | Time:00:00.48 | Mem:256.33M, Peak:256.33M | Scene, RenderLayer | Updating Geometry BVH chip_master pin_001 pin_grp1848.001 1/1 | Building BVH
        Fra:1 Mem:297.16M (Peak 826.42M) | Time:00:00.48 | Mem:256.35M, Peak:256.35M | Scene, RenderLayer | Updating Geometry BVH chip_master pin_001 pin_grp1848.001 1/1 | Building BVH 0%
        Fra:1 Mem:297.16M (Peak 826.42M) | Time:00:00.48 | Mem:256.34M, Peak:256.36M | Scene, RenderLayer | Updating Scene BVH | Building
        Fra:1 Mem:297.17M (Peak 826.42M) | Time:00:00.48 | Mem:256.34M, Peak:256.36M | Scene, RenderLayer | Updating Scene BVH | Building BVH
        Fra:1 Mem:297.17M (Peak 826.42M) | Time:00:00.49 | Mem:257.67M, Peak:258.67M | Scene, RenderLayer | Updating Scene BVH | Copying BVH to device
        Fra:1 Mem:297.17M (Peak 826.42M) | Time:00:00.49 | Mem:257.67M, Peak:258.67M | Scene, RenderLayer | Updating Mesh | Computing normals
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:257.67M, Peak:258.67M | Scene, RenderLayer | Updating Mesh | Copying Mesh to device
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.59M, Peak:259.59M | Scene, RenderLayer | Updating Objects Flags
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.60M, Peak:259.60M | Scene, RenderLayer | Updating Images
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.60M, Peak:259.60M | Scene, RenderLayer | Updating Camera Volume
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.60M, Peak:259.60M | Scene, RenderLayer | Updating Lookup Tables
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.85M, Peak:259.85M | Scene, RenderLayer | Updating Lights
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.85M, Peak:259.85M | Scene, RenderLayer | Updating Lights | Computing distribution
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.85M, Peak:259.85M | Scene, RenderLayer | Updating Integrator
        Fra:1 Mem:299.10M (Peak 826.42M) | Time:00:00.49 | Mem:259.86M, Peak:259.86M | Scene, RenderLayer | Updating Film
        Fra:1 Mem:299.11M (Peak 826.42M) | Time:00:00.49 | Mem:259.61M, Peak:259.86M | Scene, RenderLayer | Updating Lookup Tables
        Fra:1 Mem:299.11M (Peak 826.42M) | Time:00:00.49 | Mem:259.87M, Peak:259.87M | Scene, RenderLayer | Updating Baking
        Fra:1 Mem:299.11M (Peak 826.42M) | Time:00:00.49 | Mem:259.87M, Peak:259.87M | Scene, RenderLayer | Updating Device | Writing constant memory
        Fra:1 Mem:299.13M (Peak 826.42M) | Time:00:00.49 | Mem:259.87M, Peak:259.87M | Scene, RenderLayer | Sample 0/150
        Fra:1 Mem:311.38M (Peak 826.42M) | Time:00:00.64 | Remaining:00:22.91 | Mem:272.09M, Peak:272.09M | Scene, RenderLayer | Sample 1/150
        Fra:1 Mem:323.59M (Peak 826.42M) | Time:00:21.32 | Mem:272.09M, Peak:272.09M | Scene, RenderLayer | Sample 150/150
        Fra:1 Mem:323.59M (Peak 826.42M) | Time:00:21.32 | Mem:272.09M, Peak:272.09M | Scene, RenderLayer | Finished
        Saved: 'C:\tmp\0001.png'
         Time: 00:21.93 (Saving: 00:00.57)
        
        
        Blender quit
        
        dotnet 6.0
        Warmup
        ........................
        Bench
        [1] ArithemticsBenchmark
        ArithemticsBenchmark                   939.62 ms        9578.35 pts   319279093.35 Iter/s
        Iterrations:       300000000, Ratio:            0.03
        [2] ParallelArithemticsBenchmark
        ParallelArithemticsBenchmark          2048.15 ms       71348.99 pts   146473632.65 Iter/s
        Iterrations:       300000000, Ratio:            0.03
        [3] MathBenchmark
        MathBenchmark                         8839.98 ms       11312.24 pts    22624489.41 Iter/s
        Iterrations:       200000000, Ratio:             0.5
        [4] ParallelMathBenchmark
        ParallelMathBenchmark                16034.94 ms      101111.87 pts    12472762.22 Iter/s
        Iterrations:       200000000, Ratio:             0.5
        [5] CallBenchmark
        CallBenchmark                         5052.00 ms        1980.57 pts   198056609.13 Iter/s
        Iterrations:      2000000000, Ratio:            0.01
        [6] ParallelCallBenchmark
        ParallelCallBenchmark                10741.28 ms       30260.08 pts   186197518.68 Iter/s
        Iterrations:      2000000000, Ratio:            0.01
        [7] IfElseBenchmark
        IfElseBenchmark                       2439.66 ms        8197.86 pts   819786229.26 Iter/s
        Iterrations:      2000000000, Ratio:            0.01
        [8] ParallelIfElseBenchmark
        ParallelIfElseBenchmark               2700.96 ms      125556.16 pts   740478063.00 Iter/s
        Iterrations:      2000000000, Ratio:            0.01
        [9] StringManipulation
        StringManipulation                    3450.07 ms       14492.44 pts     1449246.34 Iter/s
        Iterrations:         5000000, Ratio:              10
        [10] ParallelStringManipulation
        ParallelStringManipulation           78165.57 ms       10256.57 pts       63966.79 Iter/s
        Iterrations:         5000000, Ratio:              10
        [11] MemoryBenchmark
        MemoryBenchmark                       1277.64 ms       22872.52 pts       22872.52 MB/s
        Iterrations:          500000, Ratio:               1
        [12] ParallelMemoryBenchmark
        ParallelMemoryBenchmark              12719.73 ms      181774.73 pts      181774.73 MB/s
        Iterrations:          500000, Ratio:               1
        [13] RandomMemoryBenchmark
        RandomMemoryBenchmark                 2350.07 ms       18237.67 pts        9118.84 MB/s
        Iterrations:          500000, Ratio:               2
        [14] ParallelRandomMemoryBenchmark
        ParallelRandomMemoryBenchmark         5549.28 ms      251701.26 pts      125850.63 MB/s
        Iterrations:          500000, Ratio:               2
        [15] Scimark2Benchmark
        Scimark2Benchmark                    16709.78 ms       11746.67 pts        1174.67 CompositeScore
        Iterrations:               0, Ratio:              10
        [16] ParallelScimark2Benchmark
        ParallelScimark2Benchmark            15436.11 ms      119686.33 pts       11968.63 CompositeScore
        Iterrations:               0, Ratio:              10
        [17] DhrystoneBenchmark
        DhrystoneBenchmark                    1348.17 ms       34053.50 pts        8513.38 DMIPS
        Iterrations:               0, Ratio:               4
        [18] ParallelDhrystoneBenchmark
        ParallelDhrystoneBenchmark            3000.43 ms      245741.61 pts       61435.40 DMIPS
        Iterrations:               0, Ratio:               4
        [19] WhetstoneBenchmark
        WhetstoneBenchmark                  109342.94 ms        7165.07 pts        7165.07 MWIPS
        Iterrations:               0, Ratio:               1
        [20] ParallelWhetstoneBenchmark
        ParallelWhetstoneBenchmark          110528.07 ms      103971.71 pts      103971.71 MWIPS
        Iterrations:               0, Ratio:               1
        [21] LinpackBenchmark
        LinpackBenchmark                      2483.89 ms       22565.84 pts        2256.58 MFLOPS
        Iterrations:               0, Ratio:              10
        [22] ParallelLinpackBenchmark
        ParallelLinpackBenchmark             17634.09 ms        5080.34 pts        5080.34 MFLOPS
        Iterrations:               0, Ratio:              10
        [23] HashBenchmark
        HashBenchmark                         2158.10 ms        9267.41 pts      926743.69 Iter/s
        Iterrations:         2000000, Ratio:              10
        Java openjdk version "1.8.0_292"
        Warmup
        ........................
        Bench
        [1] ArithemticsBenchmark
        ArithemticsBenchmark                      872 ms     10321.08 pts   344036697.25 Iter/s
        Iterrations:       300000000, Ratio:        0.030000
        [2] ParallelArithemticsBenchmark
        ParallelArithemticsBenchmark             2447 ms     58876.02 pts  1962538061.39 Iter/s
        Iterrations:       300000000, Ratio:        0.030000
        [3] MathBenchmark
        MathBenchmark                           90900 ms      1100.00 pts     2200220.02 Iter/s
        Iterrations:       200000000, Ratio:        0.500000
        [4] ParallelMathBenchmark
        ParallelMathBenchmark                  135701 ms     11940.00 pts    23888908.06 Iter/s
        Iterrations:       200000000, Ratio:        0.500000
        [5] CallBenchmark
        Elapsed No Call: 0
        Elapsed Call: 4968
        CallBenchmark                            4968 ms      4024.14 pts   402414486.92 Iter/s
        Iterrations:      2000000000, Ratio:        0.010000
        [6] ParallelCallBenchmark
        ParallelCallBenchmark                    5285 ms     61852.27 pts  6185233887.08 Iter/s
        Iterrations:      2000000000, Ratio:        0.010000
        [7] IfElseBenchmark
        IfElseBenchmark                          1243 ms     16090.10 pts  1609010458.57 Iter/s
        Iterrations:      2000000000, Ratio:        0.010000
        [8] ParallelIfElseBenchmark
        ParallelIfElseBenchmark                  2579 ms    127079.06 pts 12707911543.49 Iter/s
        Iterrations:      2000000000, Ratio:        0.010000
        [9] StringManipulation
        StringManipulation                       6487 ms      7700.00 pts      770772.31 Iter/s
        Iterrations:         5000000, Ratio:       10.000000
        [10] ParallelStringManipulation
        ParallelStringManipulation              18905 ms     42680.00 pts     4275397.06 Iter/s
        Iterrations:         5000000, Ratio:       10.000000
        [11] MemoryBenchmark
        int 4k: 24112.65 MB/s
        int 512k: 21943.82 MB/s
        int 8M: 20989.25 MB/s
        int 32M: 16827.59 MB/s
        long 4k: 47063.25 MB/s
        long 512k: 34566.37 MB/s
        long 8M: 23100.59 MB/s
        long 32M: 21810.06 MB/s
        Average: 26301.70 MB/s
        MemoryBenchmark                           955 ms     26301.70 pts       26301.70 MB/s
        Iterrations:          500000, Ratio:        1.000000
        [12] ParallelMemoryBenchmark
        ParallelMemoryBenchmark                  5413 ms    147934.36 pts      147934.36 MB/s
        Iterrations:          500000, Ratio:        1.000000
        [13] RandomMemoryBenchmark
        Random int 4k: 17918.58 MB/s
        Random int 512k: 17594.59 MB/s
        Random int 8M: 16973.91 MB/s
        Random long 4k: 36168.98 MB/s
        Random long 512k: 34875.00 MB/s
        Random long 8M: 33367.52 MB/s
        Average: 26149.76 MB/s
        RandomMemoryBenchmark                     687 ms     52299.53 pts       26149.76 MB/s
        Iterrations:          500000, Ratio:        2.000000
        [14] ParallelRandomMemoryBenchmark
        ParallelRandomMemoryBenchmark            2411 ms    331520.67 pts      165760.33 MB/s
        Iterrations:          500000, Ratio:        2.000000
        [15] Scimark2Benchmark
        Scimark2Benchmark                       34367 ms     31676.80 pts        3167.68 CompositeScore
        Iterrations:               0, Ratio:       10.000000
        [16] ParallelScimark2Benchmark
        ParallelScimark2Benchmark               27409 ms    314022.20 pts       31402.22 CompositeScore
        Iterrations:               0, Ratio:       10.000000
        [17] DhrystoneBenchmark
        DhrystoneBenchmark                        295 ms    157004.00 pts       39251.00 DMIPS
        Iterrations:               0, Ratio:        4.000000
        [18] ParallelDhrystoneBenchmark
        ParallelDhrystoneBenchmark               1127 ms    741844.00 pts      185461.00 DMIPS
        Iterrations:               0, Ratio:        4.000000
        [19] WhetstoneBenchmark
        WhetstoneBenchmark                      31267 ms      1591.34 pts        1591.34 MWIPS
        Iterrations:               0, Ratio:        1.000000
        [20] ParallelWhetstoneBenchmark
        ParallelWhetstoneBenchmark              32012 ms     22219.28 pts       22219.28 MWIPS
        Iterrations:               0, Ratio:        1.000000
        [21] LinpackBenchmark
        LinpackBenchmark                         1345 ms     42190.63 pts        4219.06 MFLOPS
        Iterrations:               0, Ratio:       10.000000
        [22] ParallelLinpackBenchmark
        ParallelLinpackBenchmark                16789 ms     51935.02 pts        5193.50 MFLOPS
        Iterrations:               0, Ratio:       10.000000
        [23] HashBenchmark
        HashBenchmark                            1290 ms     15500.00 pts     1550387.60 Iter/s
        Iterrations:         2000000, Ratio:       10.000000
        [24] ParallelHashBenchmark
        ParallelHashBenchmark                   13803 ms     23830.00 pts     2392870.31 Iter/s
        Iterrations:         2000000, Ratio:       10.000000
        
        Total:                                 438557 ms   2301532.18 pts
        
        Single-thread results
        Operating System,Runtime,Threads Count,Memory Used,ArithemticsBenchmark,MathBenchmark,CallBenchmark,IfElseBenchmark,StringManipulation,MemoryBenchmark,RandomMemoryBenchmark,ParallelRandomMemoryBenchmark,Scimark2Benchmark,DhrystoneBenchmark,WhetstoneBenchmark,LinpackBenchmark,HashBenchmark,Total Points,Total Time (ms)
        Windows 10 10.0 amd64,Java Version 1.8.0_292,16,151860336,10321.08,1100.00,4024.14,16090.10,7700.00,26301.70,52299.53,331520.67,31676.80,157004.00,1591.34,42190.63,15500.00,2301532.18,438557
        All results
        Operating System,Runtime,Threads Count,Memory Used,ArithemticsBenchmark,ParallelArithemticsBenchmark,MathBenchmark,ParallelMathBenchmark,CallBenchmark,ParallelCallBenchmark,IfElseBenchmark,ParallelIfElseBenchmark,StringManipulation,ParallelStringManipulation,MemoryBenchmark,ParallelMemoryBenchmark,RandomMemoryBenchmark,ParallelRandomMemoryBenchmark,Scimark2Benchmark,ParallelScimark2Benchmark,DhrystoneBenchmark,ParallelDhrystoneBenchmark,WhetstoneBenchmark,ParallelWhetstoneBenchmark,LinpackBenchmark,ParallelLinpackBenchmark,HashBenchmark,ParallelHashBenchmark,Total Points,Total Time (ms)
        Windows 10 10.0 amd64,Java Version 1.8.0_292,16,151860336;10321.08;58876.02;1100.00;11940.00;4024.14;61852.27;16090.10;127079.06;7700.00;42680.00;26301.70;147934.36;52299.53;331520.67;31676.80;314022.20;157004.00;741844.00;1591.34;22219.28;42190.63;51935.02;15500.00;23830.00;2301532.18;438557
        Single-thread  Units results
        Operating System,Runtime,Threads Count,Memory Used,ArithemticsBenchmark (Iter/s),MathBenchmark (Iter/s),CallBenchmark (Iter/s),IfElseBenchmark (Iter/s),StringManipulation (Iter/s),MemoryBenchmark (MB/s),RandomMemoryBenchmark (MB/s),ParallelRandomMemoryBenchmark (MB/s),Scimark2Benchmark (CompositeScore),DhrystoneBenchmark (DMIPS),WhetstoneBenchmark (MWIPS),LinpackBenchmark (MFLOPS),HashBenchmark (Iter/s),Total Points,Total Time (ms)
        Windows 10 10.0 amd64,Java Version 1.8.0_292,16,151860336,344036697.25,2200220.02,402414486.92,1609010458.57,770772.31,26301.70,26149.76,165760.33,3167.68,39251.00,1591.34,4219.06,1550387.60;2301532.18;438557
        All  Units results
        Operating System,Runtime,Threads Count,Memory Used,ArithemticsBenchmark (Iter/s),ParallelArithemticsBenchmark (Iter/s),MathBenchmark (Iter/s),ParallelMathBenchmark (Iter/s),CallBenchmark (Iter/s),ParallelCallBenchmark (Iter/s),IfElseBenchmark (Iter/s),ParallelIfElseBenchmark (Iter/s),StringManipulation (Iter/s),ParallelStringManipulation (Iter/s),MemoryBenchmark (MB/s),ParallelMemoryBenchmark (MB/s),RandomMemoryBenchmark (MB/s),ParallelRandomMemoryBenchmark (MB/s),Scimark2Benchmark (CompositeScore),ParallelScimark2Benchmark (CompositeScore),DhrystoneBenchmark (DMIPS),ParallelDhrystoneBenchmark (DMIPS),WhetstoneBenchmark (MWIPS),ParallelWhetstoneBenchmark (MWIPS),LinpackBenchmark (MFLOPS),ParallelLinpackBenchmark (MFLOPS),HashBenchmark (Iter/s),ParallelHashBenchmark (Iter/s),Total Points,Total Time (ms)
        Windows 10 10.0 amd64,Java Version 1.8.0_292,16,151860336,344036697.25,1962538061.39,2200220.02,23888908.06,402414486.92,6185233887.08,1609010458.57,12707911543.49,770772.31,4275397.06,26301.70,147934.36,26149.76,165760.33,3167.68,31402.22,39251.00,185461.00,1591.34,22219.28,4219.06,5193.50,1550387.60,2392870.31,2301532.18,438557
        
        CPU-Z
        Processors Information
        -------------------------------------------------------------------------
        
        Socket 1			ID = 0
        	Number of cores		8 (max 8)
        	Number of threads	16 (max 16)
        	Manufacturer		GenuineIntel
        	Name			Intel Core i7 11700KF
        	Codename		Rocket Lake
        	Specification		11th Gen Intel(R) Core(TM) i7-11700KF @ 3.60GHz
        	Package (platform ID)	Socket 1200 LGA (0x1)
        	CPUID			6.7.1
        	Extended CPUID		6.A7
        	Core Stepping		B0
        	Technology		14 nm
        	TDP Limit		125.0 Watts
        	Tjmax			100.0 �C
        	Core Speed		4889.2 MHz
        	Multiplier x Bus Speed	49.0 x 99.8 MHz
        	Base frequency (cores)	99.8 MHz
        	Base frequency (ext.)	99.8 MHz
        	Stock frequency		3600 MHz
        	Max frequency		0 MHz
        	Instructions sets	MMX, SSE, SSE2, SSE3, SSSE3, SSE4.1, SSE4.2, EM64T, AES, AVX, AVX2, AVX512F, FMA3, SHA
        	Microcode Revision	0x3C
        	L1 Data cache		8 x 48 KB (12-way, 64-byte line)
        	L1 Instruction cache	8 x 32 KB (8-way, 64-byte line)
        	L2 cache		8 x 512 KB (8-way, 64-byte line)
        	L3 cache		16 MB (16-way, 64-byte line)
        	Preferred cores		2 (#2, #3)
        	Max CPUID level		0000001Bh
        	Max CPUID ext. level	80000008h
        	FID/VID Control		yes
        
        
        	Turbo Mode		supported, enabled
        	Max non-turbo ratio	36x
        	Max turbo ratio		50x
        	Max efficiency ratio	8x
        	Min operating ratio	8x
        	Speedshift		Autonomous
        	FLL_OC_MODE		0
        	FLL_OC_MODE_REG		0x00000000
        	O/C bins		unlimited
        	Ratio 1 core		50x
        	Ratio 2 cores		50x
        	Ratio 3 cores		49x
        	Ratio 4 cores		49x
        	Ratio 5 cores		49x
        	Ratio 6 cores		49x
        	Ratio 7 cores		49x
        	Ratio 8 cores		49x
        	IA Voltage Mode		PCU adaptive
        	IA Voltage Offset	0 mV
        	GT Voltage Mode		PCU adaptive
        	GT Voltage Offset	0 mV
        	LLC/Ring Voltage Mode	PCU adaptive
        	LLC/Ring Voltage Offset	0 mV
        	Agent Voltage Mode	Override
        	Agent Voltage Target	1075 mV
        	Agent Voltage Offset	0 mV
        	TDP Level		125.0 W @ 36x
        	TDP Level		95.0 W @ 31x
        
        	Temperature 0		50 degC (122 degF) (Package)
        	Temperature 1		42 degC (107 degF) (Core #0)
        	Temperature 2		39 degC (102 degF) (Core #1)
        	Temperature 3		39 degC (102 degF) (Core #2)
        	Temperature 4		36 degC (96 degF) (Core #3)
        	Temperature 5		37 degC (98 degF) (Core #4)
        	Temperature 6		43 degC (109 degF) (Core #5)
        	Temperature 7		39 degC (102 degF) (Core #6)
        	Temperature 8		37 degC (98 degF) (Core #7)
        	Voltage 0		1.46 Volts (VID)
        	Voltage 1		+0.00 Volts (IA Offset)
        	Voltage 2		+0.00 Volts (GT Offset)
        	Voltage 3		+0.00 Volts (LLC/Ring Offset)
        	Voltage 4		1.08 Volts (System Agent)
        	Power 00		38.60 W (Package)
        	Power 01		27.07 W (IA Cores)
        	Power 02		n.a. (GT)
        	Power 03		11.53 W (Uncore)
        	Power 04		n.a. (DRAM)
        	Clock Speed 0		4889.22 MHz (Core #0)
        	Clock Speed 1		4889.22 MHz (Core #1)
        	Clock Speed 2		4889.22 MHz (Core #2)
        	Clock Speed 3		4889.22 MHz (Core #3)
        	Clock Speed 4		4889.22 MHz (Core #4)
        	Clock Speed 5		4889.22 MHz (Core #5)
        	Clock Speed 6		4889.22 MHz (Core #6)
        	Clock Speed 7		4889.22 MHz (Core #7)
        	Core 0 max ratio	49.00 (effective 49.00)
        	Core 1 max ratio	49.00 (effective 49.00)
        	Core 2 max ratio	50.00 (effective 50.00)
        	Core 3 max ratio	50.00 (effective 50.00)
        	Core 4 max ratio	49.00 (effective 49.00)
        	Core 5 max ratio	49.00 (effective 49.00)
        	Core 6 max ratio	49.00 (effective 49.00)
        	Core 7 max ratio	49.00 (effective 49.00)
        


        1. BkmzSpb
          29.01.2022 13:57

          C# - имплементация хэширования просто адовая, не учитывает особенности платформы (вангую переписывание бенчей с какой-нибудь Java не задумываясь). Было бы не плохо это починить.


      1. Paskin
        30.01.2022 08:46

        А чем вы под него тесты компилировали?


    1. yamabusi
      28.01.2022 14:14
      +1

      Просто ради интереса отрендерил сцену в Blender на копееченом Зеон с Алика(Intel(R) Xeon(R) CPU E5-2620 v2 @ 2.10GHz),6 ядер/12 потоков.

      На 1 секунду медленнее вышло.
      https://radikal.ru/lfp/d.radikal.ru/d05/2201/0a/227d8f126617t.jpg/htm

      Я понимаю что там далеко не оптимизированно,но в этом плане разница производительность/доллар космическая мягко сказать.)


  1. checkpoint
    28.01.2022 03:24
    +3

    Что там с тестами кэш памяти ? Это самый важный показатель для СУБД.


    1. EntityFX Автор
      28.01.2022 09:15
      +1

      1. checkpoint
        28.01.2022 11:36
        +2

        Хорошая табличка, спасибо.

        Видно, что у Э-16С кэш почти в полтора раза медленее чем у Э-8СВ, при том, что частота DDR выше (DDR4-2400 у Э-8СВ и DDR4-3200 у Э-16С если верить спецификации). Не ожиданно.


        1. EntityFX Автор
          28.01.2022 12:12
          +1

          Инженерник, там частично отключены некоторые кеш-линии, это всё влияет на результаты. Память работает на DDR4-2400, в серийном должна на DDR4-3200.


          1. checkpoint
            28.01.2022 14:50
            +1

            Понятно. Значит ждем релиза.


            1. EntityFX Автор
              28.01.2022 16:01


        1. EntityFX Автор
          28.01.2022 20:34

          STREAM
          -------------------------------------------------------------
          STREAM version $Revision: 5.10 $
          -------------------------------------------------------------
          This system uses 8 bytes per array element.
          -------------------------------------------------------------
          Array size = 10000000 (elements), Offset = 0 (elements)
          Memory per array = 76.3 MiB (= 0.1 GiB).
          Total memory required = 228.9 MiB (= 0.2 GiB).
          Each kernel will be executed 10 times.
           The *best* time for each kernel (excluding the first iteration)
           will be used to compute the reported bandwidth.
          -------------------------------------------------------------
          Your clock granularity/precision appears to be 1 microseconds.
          Each test below will take on the order of 5202 microseconds.
             (= 5202 clock ticks)
          Increase the size of the arrays if this shows that
          you are not getting at least 20 clock ticks per test.
          -------------------------------------------------------------
          WARNING -- The above is only a rough guideline.
          For best results, please be sure you know the
          precision of your system timer.
          -------------------------------------------------------------
          Function    Best Rate MB/s  Avg time     Min time     Max time
          Copy:           20090.1     0.007969     0.007964     0.007975
          Scale:          19408.0     0.008253     0.008244     0.008262
          Add:            21848.2     0.010992     0.010985     0.011005
          Triad:          22284.0     0.010776     0.010770     0.010796
          -------------------------------------------------------------
          Solution Validates: avg error less than 1.000000e-13 on all three arrays
          -------------------------------------------------------------


          1. checkpoint
            28.01.2022 22:26

            Это тест для Э-16С ? А можно такой же тест для Э-8СВ, ну и для интелла ? Заранее большое спасибо.


    1. InChaos
      28.01.2022 09:34

      Кэш память ЦП важный показатель для СУБД? Извините, не мое дело, но не курите это больше.


      1. checkpoint
        28.01.2022 11:25
        +4

        Кэш память ЦП важный показатель для СУБД?

        Именно так. В СУБД очень мало вычислений, подавляющее большинство операций - это копирование массивов данных из одной области памяти в другую. Чем больше и оперативней кэш, тем быстрее отработает ваш запрос.


  1. amartology
    28.01.2022 12:15
    +13

    Intel i7-2600
    Status: Discontinued
    Launch Date: Q1'11
    Lithography: 32 nm

    Реально? На в два раза меньших проектных нормах получили камень медленнее и жарче, чем уже снятый с производства десятилетний Intel, и после этого кто-то все еще считает, что у Эльбурса как архитектуры есть какие-то перспективы?


    1. Fjfvh
      28.01.2022 12:43
      -3

      Тогда почему этот явно негодный процессор с удовольствием выпускают вполне современные китайские производители? Им на свою репутацию совсем наплевать?


      1. amartology
        28.01.2022 13:16
        +5

        Какие китайские производители что выпускают? Интел? Вряд ли. Эльбрус? Точно нет.


      1. mithdradates
        28.01.2022 14:02
        +4

        Тогда почему этот явно негодный процессор с удовольствием выпускают вполне современные китайские производители? Им на свою репутацию совсем наплевать?

        Какие китайские производители выпускают Эльбрус? Вы про TSMC что ли? Это фаб, они "выпекают" что закажет клиент.


    1. forthuser
      28.01.2022 12:46

      А, почему нет?

      У IA-x86 есть «тяжёлое» наследие, которое Intel должна ускорять с помощью аппаратной магии, у Эльбрус магия ускорения кода в возможностях компилятора.
      При этом, полагаю, что железное наполнение у Эльбрус более специфично по его управлению, чем в модели IA-x86 в связи со спецификацией программного кода.
      Отсюда следует, предположительно, что инженеры Intel вынуждены использовать определённый базис решений к которым они пришли в результате многих десятилетий, а у Эльбрус архитектуры более свободы в выборе пути реализации проекта программно-аппаратно процессора Эльбрус.
      Отсюда и такие, вполне достойные результаты на «коротком» старте этого проекта.

      P.S. Мне это так видится в общих рассуждениях. ????

      Чем то Эльбрус похож на идеи процессора Transmeta.
      Жаль, что они не смогли удержаться на рынке.


      1. amartology
        28.01.2022 13:18
        +6

        Отсюда и такие, вполне достойные результаты на «коротком» старте этого проекта.
        Коротком? Архитектура Эльбрус — ровесница ARM.

        Чем то Эльбрус похож на идеи процессора Transmeta.
        Жаль, что они не смогли удержаться на рынке.
        Так раз Трансмета и Итаниум не смогли, может в этом есть какая-то закономерность? Например, то, что VLIW как подход к процессорам общего назначения не работает?


        1. forthuser
          28.01.2022 13:44

          Так и, к примеру, M68K тоже общего назначения и где то ровесница, и долго была на рынке, но конкурентную борьбу с инженерами Intel не выиграла.
          И, вроде, только с Pentium-1 произошёл «отрыв» IA-x86 от конкурентов.

          P.S. Даже Apple в своих ПК, 15-ть лет назад перешла на IA-x86 процессоры от Intel закопав свою архитектуру, а сейчас и от Intel процессоров ушла на свои процессоры, но разрабатывала она их в течении где то 10-ти лет.

          А, сколько ещё процессоров общего назначения, к примеру, начиная с Z-80 не смогли составить конкуренцию…


          1. JerleShannara
            28.01.2022 14:29
            +2

            Небольшая подсказка: что IBM Power, что M68K, что x86, что ARM вполне себе RISC/CISC/MIPS (х86 только снаружи имеет обёртку CISC, внутри это RISC начиная с Pentium Pro/2). VLIWы это: трансмета (не выстрелила), итаник(почётно утонул), ещё VLIW мелькал в GPU AMD (RDNA 2 уже не VLIW ЕМНИП) и куче сигнальных процессоров(а вот тут он выстрелил, правда нынче, если надо скорости, вместо DSP ставят FPGA).


            1. forthuser
              28.01.2022 14:44

              Небольшая подсказка

              Имеет смысл, тогда указать, что в Вашем понимании RISC, и что с того, что где то по слухам внутри x86 есть RISC процессор, а вероятно и не один если к ним нет прямого доступа у программ.

              P.S. Вы ещё не указали MISC абревиатуру.


              1. JerleShannara
                28.01.2022 21:33
                +1

                Не по слухам, читайте документацию на интеловские процессоры и особенно про то, что такое микрокод. Если бы современные интеля были бы внутри чистым CISCом, то вместе с процессором вам бы в комплекте шёл фреоновый кондиционер-охладитель для процессора. RISC — короткие инструкции, подразумевающие простые действия вида «записать из памяти в регистр», «прибавить к аккумулятору регистр» и так далее, а не «взять из памяти число по смещению из регистра и прибавив к нему второй регистр положить в аккумулятор».


            1. kedoki
              28.01.2022 15:54
              +1

              ещё VLIW мелькал в GPU AMD (RDNA 2 уже не VLIW ЕМНИП)

              Ну как мелькал, применялся не одно поколение начиная с HD 2000 и заканчивая HD 6000, плюс ранние APU и некоторые видеокарты формально из более поздних линеек (AMD не раз помещала карты с разными архитектурами в одну линейку). За долгие годы AMD не смогли хорошо загружать VLIW, потоковые процессоры хронически недогружались. В HD 6000 VLIW5 порезали до VLIW4, а в следующем поколении перешли на GCN с RISC. RDNA с самого начала RISC, как и GCN.

              Итого: слили область GPGPU Хуангу с его RISC, не смогли обеспечить хорошую загрузку VLIW и сменили архитектуру более десяти лет назад. Не сказать, что Itanic в мире видеокарт, но от полного успеха очень далеко.


      1. 0xd34df00d
        28.01.2022 21:06
        +7

        Компилятор физически не способен ускорять то, что становится известно только в рантайме, вроде нетривиальных паттернов переходов для ветвлений.


    1. northzen
      28.01.2022 13:54

      А какие перспективы у неЭльбруса? У его отсутствия?
      Радоваться надо, что осиляют технологии хотя бы десятилетней давности.


      1. JerleShannara
        28.01.2022 14:30
        +2

        Перспективы посидеть на ARMах, пока не будут готовы RISC-V.


        1. Am0ralist
          28.01.2022 14:44
          +4

          Да нет на них перспектив. Его даже в качестве компов ментам всяким не сунешь, как вроде из обсуждения прошлого на хабре вышло. То есть половину госзакупок можно сразу херить.
          Наоборот, на эльбрусах можно было бы перекантоваться в плане «защищенных» с сертификатами машинках до появления рисков5, а там бы и закопать глядишь можно было бы, или наоборот, прижились бы где.


          1. JerleShannara
            28.01.2022 15:18

            Силовикам на спарках перекантоваться проще, пока риск5 не появится, а вот куда совать e2k я вообще не знаю, ну не пригоден этот процессор на роль GP CPU. В радар его засунуть — может что и выйдет. Не силовкам — на АРМах с перспективой слезть на риск5, если всё станет только хуже.


            1. Am0ralist
              28.01.2022 16:15

              И где вы видели те же гозакупки, работающие на спарках?
              Не, серьезно, у вас странные представления о том, чем занимается куча народа (которым компьютер нужен для работы) в наших силовых ведомствах.

              а вот куда совать e2k я вообще не знаю, ну не пригоден этот процессор на роль GP CPU
              чего это не пригоден, когда даже процы а-ля пеньки и силероны офисные считаются пригодными? Ну те, которые 2600k скорей всего так же проиграют в этих же тестах из статьи)))
              Уж на кучу рабочих мест подобные вполне сойдут. И уж точно лучше, чем спарки или некоторые мипсы…
              А с учётом, что при этом по сути будет а) переход на линь, б) разрабы много чего перенесут на линь, то уж потом что именно под капотом станет вообще глубоко фиолетово.


              1. JerleShannara
                28.01.2022 16:31

                Госзакупки, на которые прилетает птица, которая может кушать падаль и не дохнуть, вряд ли видят все. Ну а работать в условном офисе старого разлива под линуксом можно и на Rках от МЦСТ ещё какое-то время.


                1. Am0ralist
                  28.01.2022 17:12
                  +1

                  А смысл? Эльбрусы вроде как всё равно будут производительнее всего прочего, рки 15-го года на 90 нм делаются. О чем вы?
                  По мне проще заказать две партии эльбрусов, что уменьшит стоимость, и воткнуть их в рабочие станции, софт даже без натива вроде как будет не хуже, а может лучше работать. А от старых байкалов даже полиция отбрыкивалась, которые мипсы, там же вообще пень4 по сути.
                  Ещё на 3-4 года этого бы хватило точно. А дальше — вон, ядро пообещало всех порвать, потом правда осётра подурезало по частотам. Но если получится, то эльбрусы могут уйти в какие-то специфические железки, если будут где нужны.


                  1. JerleShannara
                    28.01.2022 21:03

                    Ну вот опять вы Тшку приплетаете. Запишите себе: Тшка хороший микроконтроллер для управляемого L2 коммутатора, Тшка с приделанной видеокартой — условно частично терпимый тонкий клиент, если разрешение не выше 720p и нет 3D. По мне проще наконец закопать стюардессу, переждать время на спарках и стартовать на risc-v, у которого хотя бы есть более-менее нормальное комьюнити.


                    1. Am0ralist
                      29.01.2022 11:20

                      Ну вот опять вы Тшку приплетаете.
                      Я приплетаю?
                      Ну вот исходя из этого и давайте поговорим, что более приспособлено быть на роль GP CPU из реально существующего?
                      По мне проще наконец закопать стюардессу, переждать время на спарках
                      какие спарки, если их так же не делают массово и на них производительность тоже ни о чём? там что, 4 ядра на уровне арма 2007 года?
                      Ну, на них проще закопать всю инфраструктуру вообще. Вон в том окне, где открывали, туда и закрывать бегите, ибо только там бумажка ваша хранится


                      1. JerleShannara
                        29.01.2022 13:34

                        С таволгой была поличитески-маскишоу ситуация, которую ниже уже описали.
                        Из имеющегося на рынке с флагом «РФ» — Baikal-M1000, всё прочее либо не GPСPU, либо устаревшее порядком. Для Siloviks я предлагаю переждать на MCST R-Series (гугл кстати про это таки что-то знает). e2k — это не GPCPU как бы его не пытались за него выдать, все попытки вытащить на рынок VLIW процессоры в роли GPCPU завершились гранд-обломами, а уж ресурсов там было потрачено гораздо больше. Если уж тащить эту архитектуру — то делать из неё ускорители (матрицы 10000х10000 там перемножить, всякие фильтры наложить и т.д.) которые будут разгружать GPCPU на рабочих задачах.


                      1. yalex1442
                        29.01.2022 13:51

                        >e2k — это не GPCPU
                        Какой-нибуль другой из отечественных GPCPU способен на такое?
                        image
                        Причем это крутится на предыдущем камне в эмуляции с сопутствующими потерями.


                      1. JerleShannara
                        29.01.2022 13:56
                        +1

                        На 1 FPM? Думаю что вполне, если под QEMU на aarch64 запустить через wine и в PCIe вставить хорошую видеокарту.


                      1. Am0ralist
                        29.01.2022 14:04

                        Ну то есть посылаете в гугл и не можете подтвердить, что Rseries r1000 на 90 нм, который примерно равен на ядро арму 2007 года, позволит юзать его как центральный процессор, а процессор, на котором даже в игрушки игрались хоть как-то — всё, фигня, он, видите ли, в 2-3 раза слабее старого i7?

                        все попытки вытащить на рынок VLIW процессоры в роли GPCPU завершились гранд-обломами,
                        Итаник завершился обломом, потому что интелу две линии тянуть не хотелось. Причём в конце итаники были просто слабее, но не критично, но смысла не было, не получилось закапать x86.
                        x86 у нас — нет.
                        Тогда и арм надо закапывать, если интел от него отказался десяток лет назад, да?

                        Всё, кроме вашей предвзятости у вас аргументов нет. Если вы считаете, что R1000 лучше вот 16С — ну это прям сильно.
                        Аргументище!


                      1. JerleShannara
                        29.01.2022 14:15
                        +1

                        Дам ещё одну подсказку — поищите древность по имени «Эльбрус 90 микро», чтобы понять для кого МЦСТ клепает SPARC. Вот они совершенно спокойно на них и пересидят, пока не появится что-то более вкусное на безпроблеммной с точки зрения лицензирования корке. Итаник завершился обломом потому, что там была та же самая канитель «будет совместимо, компилятор разрулит» и интел держал их сугубо для тех, кто поверил в то, что VLIW это круто(ибо контракты и прочее). Трансмета тоже удачно утонула со своим робинзоном на VLIW. И только МЦСТ продолжает тянуть лямку, что VLIW это GPCPU. А так — назовите на момент отказа фирмой Intel от ARM тех, кто ещё делал тогда процессоры на ARM ядрах. И назовите тех, кто на момент отказа фирмы Intel от Итаника делал тогда процессоры на VLIW.


                      1. Am0ralist
                        29.01.2022 14:45

                        Ещё раз, я вам показывают закупку Т, как показатель того, куда и зачем вообще могут быть нужны подобные решения в принципе уже сейчас. Показываю их, вы мне показываете другое, что не имеет отношения к вопросу.
                        И там 16С — уже будет вполне хватать для всего.
                        Итаник ушёл, ибо был x86. У нас — НЕТ x86. До этого он как центральный процессор — работал. Понимаете, работал.
                        Да, на нём не получится сделать топ-топ. И?
                        Вы отрицаете все процессоры, кроме топов? У вас дома стоит минимум два эпика?
                        Нет? Тогда в чём вопрос, что даже 16с закроет кучу мест спокойно. Что всех заставят, бедняжек, перейти на линукс, а не винду? Из-за этого преживаете?


                      1. JerleShannara
                        29.01.2022 14:57

                        То есть госзакупки всегда будем делать по принципу «я дебил», хорошо, записал.
                        Я ругаюсь с того, что стоящий у меня камень, которому уже 11 лет, по прежнему рвёт все эти эльбрусы, при учёте того, что в момент выхода он стоил менее 500уе., а бюджетные деньги тратятся на то, что ему сливает, стоит гораздо дороже и не имеет перспектив на рынке GPCPU. Вам кстати самому не смешно, что «GPCPU», представляемый как серверный, мягко говоря пригоден в основном только как десктопный? Плюс ещё один толстый и большой гвоздь в крышку VLIWа: у нас сейчас основная масса кода — это говнокод. Фреймворки на фреймворках поверх либы абстракции. При этом каждую тему с e2k преследует «ну вот компилятор допилим и всё будет телемаркет» и «ну код надо оптимизировать». Вы себе как представляете тонну говнокодеров, которые будут под e2k оптимизацию делать?
                        П.С. Серьёзные задачи я на домашней машине не кручу, для этого есть такие удобные штуки как мощные сервера, которые увы на e2k не удастся построить.
                        П.П.С. Винда у меня уже давно скончалась, живу как-то под линуксом спокойно.


                      1. Am0ralist
                        29.01.2022 15:13

                        Я ругаюсь с того, что стоящий у меня камень, которому уже 11 лет, по прежнему рвёт все эти эльбрусы, при учёте того, что в момент выхода он стоил менее 500уе.
                        А конфидераты из-за этого войну с севером устроили. Проиграли, прикиньте? Оказалось, что иметь свою промышленность — таки надо!
                        а бюджетные деньги тратятся на то, что ему сливает, стоит гораздо дороже и не имеет перспектив на рынке GPCPU.
                        Это вы про то, что примерно такой же камень в системнике, как ваш 11 летний, только с сертификатами определёнными, бюджет покупает за 180к, например?
                        Вам кстати самому не смешно, что «GPCPU», представляемый как серверный, мягко говоря пригоден в основном только как десктопный?
                        Вам не смешно, что в сервере может стоять celeron ххххT?
                        У вас в декстопе может быть 4 ТБ оперативки?
                        П.С. Серьёзные задачи я на домашней машине не кручу, для этого есть такие удобные штуки как мощные сервера, которые увы на e2k не удастся построить.
                        Ну и что? Как это отменяет тот факт, что 16С в куче мест будет выше крыши?
                        П.П.С. Винда у меня уже давно скончалась, живу как-то под линуксом спокойно.
                        А вот тот весь говнософт сейчас в реале под винду написан, если что. И когда выйдут риски5, если выйдут, проблема переписать всё будет также стоять. Ибо что? Пока не пнёшь, не полетит.
                        Если к моменту выхода оных весь говнософт перейдёт на линукс, то уже б прекрасно всё было, но, однако, по факту, вы предлагаете ещё лет 5 сидеть ровно на заднице, потом ещё лет 5 всё переписывать, вот тогда, возможно, но не точно… Ведь и винда к тому моменту может уже на рисках начать работать.

                        Ну ок, замечательный план, надёжный, как швейцарские часы, ага.


                      1. JerleShannara
                        29.01.2022 15:18

                        Я предлагаю говнософт пока переписать под ARM/SPARC, параллельно смотря, как это будет теоретически выглядеть на RISC-V, благо его сейчас на «посмотреть» можно даже на cyclone iv собрать. В сервер, где стоит сельдерон можно спокойно запихнуть ARM, или заменить его на несколько серверов на SPARC. В сервер, где стоит парочка Xeon, ну да, ну да, пошёл я на ближайшие пару-тройку лет.


                      1. Am0ralist
                        29.01.2022 16:38

                        Я предлагаю говнософт пока переписать под ARM/SPARC,
                        армы уже нельзя, спарки имеют производительность хуже эльбрусов вообще.
                        И?
                        Вместо переписать под линукс.
                        В сервер, где стоит сельдерон можно спокойно запихнуть ARM, или заменить его на несколько серверов на SPARC
                        с 4 тб. ну да, ну да. вы гуляйте, гуляйте


                      1. JerleShannara
                        29.01.2022 17:02

                        Эмм, если вы в сервера с сельдеронами пихаете 4Тб оперативки, то надо проверить психическое здоровье.


                  1. amartology
                    29.01.2022 12:05
                    +1

                    А от старых байкалов даже полиция отбрыкивалась
                    Таки полиция отбрыкивалась, или просто появился удобный повод посадить владельца компании, отобрать у него бизнес и передать кому надо? А владельца потом отпустить в связи с тем, что за предельный срок ограничения свободы никакое внятное обвинение так и не вышло предъявить?


                    1. Am0ralist
                      29.01.2022 14:06

                      Если вы не знаете, как работают госзакупки, то, кстати, не советую вам там участвовать, а по срокам они там конкретно накосячили, кстати.

                      А отбрыкивались, как понимаю, в том числе потому, что, как сказал выше человек:

                      Тшка хороший микроконтроллер для управляемого L2 коммутатора, Тшка с приделанной видеокартой — условно частично терпимый тонкий клиент, если разрешение не выше 720p и нет 3D.
                      А не то чтобы нормальное рабочее место, под которые ещё б пришлось кучу всего переделывать, а желания у ментов явно было мало…
                      Отжим компаний не обязательно через суды делать, ага.


        1. northzen
          28.01.2022 18:43

          Это вариант "еще немножко потерпеть". Но когда терпится, опыт разработки не накапливается, а лишь теряется.


          1. JerleShannara
            28.01.2022 21:04

            Ну так никто не говорит, что надо оставаться на АРМах, можно уже начинать пилить софт по risc.


  1. Mox
    28.01.2022 16:17
    +3

    16 нанометровый процессор с 16 ядрами тягается, и временами проигрывает, 4-х ядерному, 8 поточному 32 нанометровому, да еще и на более медленной памяти.

    Что-то печально это все (((


    Надежда на то что компилятор все таки может раскрыть потенциал, но без серьезных вливаний надежды особо нет, да и политика закрытости тоже не позволяет надеяться что сообщество что-то там подпатчит.


    1. JerleShannara
      28.01.2022 16:31
      +4

      Песня про раскрытие компилятора исполняется ещё со времён монокуба.


    1. Armmaster
      28.01.2022 16:37
      +1

      Надежда на то что компилятор все таки может раскрыть потенциал

      не сможет


    1. amartology
      28.01.2022 17:02
      +3

      Надежда на то что компилятор все таки может
      Решительно ничем не обоснованная, зато опровергаемая опытом других сходных архитектур.


      1. Mox
        28.01.2022 17:44

        Я так понимаю что lcc еще толком не умеет profile-guided optimization, а без этого для vliw компилятора слишком мало данных. На это надежда )


        1. amartology
          28.01.2022 20:59
          +3

          Видите ли, идея VLIW была в том, чтобы можно было сделать более простое железо и дальше разогнать машину за счет компилятора. Прямо сейчас мы уже видим, что железо намного более сложное и дорогое (не конкретно сейчас более дорогое, а в большой серии 16 нм сильно дороже, чем 32 нм), чем сильно превосходящие его х86. Так зачем оно тогда?


          1. Mox
            28.01.2022 23:12

            Я кстати не знаю насколько оно сложное, думаю что все таки попроще чем конкуренты.

            Я так понимаю что идея уперлась в то, что вещи типа Tensorflow, где процессор бы раскрылся - никто на него не портирует. А для обычных задач статических данных недостаточно, нужен компилятор с поддержкой оптимизации по собранной статистике выполнения. gcc кстати такое умел еще хз когда.

            Зачем - я не знаю. Идея как идея. Пока считаю чтоб без встряски, крупных инвестиций и смены политики в отношении открытости к сообществу проект загнется. Чуваки слишком надеются на государство, не пытаются денег заработать


            1. amartology
              29.01.2022 12:08

              кстати не знаю насколько оно сложное, думаю что все таки попроще чем конкуренты.
              Настолько проще, что нужен гораздо более продвинутый техпроцесс, чтобы достичь существенно худших параметров?

              вещи типа Tensorflow, где процессор бы раскрылся
              Не вижу причин, по которым Эльбрус был бы хорош как аппаратная часть для нейросеток. Точнее, если бы он был хорош в этом, он бы уже там использовался вовсю.


          1. JerleShannara
            29.01.2022 04:35
            +2

            Выкидываем из e2k всю ненужную периферию. Оставляем в нём только PCIe Device и кучу каналов памяти, сажаем всё это дело на full sized PCIe карту. Получаем ускоритель, который поможет разгрузить CPU на всяких хитрых задачах.


    1. saboteur_kiev
      28.01.2022 20:42
      +1

      Я вам так скажу, что мы тут в Украине завидуем что у вас есть свои разработки процессоров, которые в принципе можно сравнивать по производительности в десятки раз, а то и в разы (а не в тысячи и десятки тысяч).
      Это означает что отрасль в принципе вообще есть. Да маленькая. Да, не конкурент на мировом рынке, но уже существует в виде, когда ее можно использовать даже в продакшене, и на внутреннем рынке у нее уже могут/должны быть заказчики, а это значит продолжение разработки, наработка экспертизы. И кто его знает что будет лет через 10-20.


      1. amartology
        28.01.2022 21:00
        +1

        Я вам так скажу, что мы тут в Украине завидуем
        У вас в Украине тоже есть толковые микроэлектронщики. Они только, как и ваши айтишники, работают на мировой рынок, а не на внутренний. И это, кстати, в плане квалификации большой плюс.


        1. saboteur_kiev
          28.01.2022 23:05

          В том-то и дело, что работая на "мировой рынок" ты патенты не себе нарабатываешь. А в разработку основных узлов и не пустят.


          1. amartology
            29.01.2022 12:12
            +1

            А в разработку основных узлов и не пустят.
            Насколько мне известно, пускают ещё как. Патенты себе — это и риски себе, видимо, желающих создавать свои собственные компании особенно нет. Но специалисты есть, и отрасль в каком-то виде есть.
            В России все крутится вокруг госзаказа, а у Украины собственных денег на микроэлектронный госзаказ нет. Но у Украины есть, например, перспективы войти в ЕС и устроиться в европейскую систему микроэлектронного госзаказа. — тогда, глядишь, и собственные компании станут выгоднее работы на дядю.


  1. vakhramov
    28.01.2022 19:52

    DSP ядра выпилили из него?

    Ребята разработали эмулятор популярного в узких музыкальных кругах ДСП от моторолы, и x86_64 этот эмулятор тянет со скрипом...

    https://dsp56300.wordpress.com/


  1. RiddleRider
    28.01.2022 20:36
    +2

    Благодарю за тестирование!


  1. theoretician
    29.01.2022 07:34
    +2

    По-моему, главная проблема МЦСТ в том, что она не понимает, как правильно презентовать свои процессоры рынку. Почему-то всё время сравнивает с Intel и AMD, говоря при этом, что у монструозных западных компаний намного больше денег на разработку, производство и т.д. В этом главная ошибка, мне кажется, не надо пытаться бросать вызов существующим решениям сразу во всём, особенно в том, в чём они заведомо выиграют - в общих задачах со сложной логикой и тем более в попытках запустить программы с трансляцией в x86, показать выполнение Windows и прочее - не нужно этого делать. Автор данного повествования тоже зря ограничился "для бенчмарков это запрещено делать" - ничего не запрещено, такая честность никого не интересует, и вообще честность - это бред, в рынке надо полностью раскручивать все преимущества, даже полностью спекулятивные и фиктивные. Наоборот, надо брать особенности данной архитектуры и читить так, как недоступно для других архитектур, перекомпилировать с флагами и оптимизировать, по ситуации представляя данные процессоры не как общего серверного назначения, а специалированного. Даже статья получилась бы намного интереснее, если бы удалось полностью раскрыть именно особенности этой архитектуры, и если бы при этом эльбрусы ушли в отрыв.

    Сейчас МЦСТ ещё не вклинилась в рынок, живёт за счёт господдержки, но, лично я бы не стал рассчитывать в российских реалиях на это в долгосрочной перспективе. Пусть сейчас есть господдержка, но её надо использовать, чтобы постепенно найти себя в рынке.


  1. edo1h
    29.01.2022 23:59

    почему всего в двумя модулями памяти? память уж точно дефицитом не является.
    каналов памяти у процессора явно больше