image

Современные процессоры суперскалярны, то есть способны выполнять несколько инструкций одновременно. Например, некоторые процессоры могут обрабатывать за цикл от четырёх до шести инструкций. Более того, многие такие процессоры способны инициировать команды не по порядку: они могут начать работать с командами, расположенными в коде намного позже.

В то же время, код часто содержит ветвления (операторы if–then). Такие ветвления часто реализуются как «переходы», при которых процессор или переходит к выполнению инструкции ниже по коду, или продолжает текущий путь.

При суперскалярном выполнении команд вне порядка с ветвлениями справляться сложно. Для этого у процессоров имеются изощрённые блоки предсказания ветвления. То есть процессор пытается предсказать будущее. Когда он видит ветвление, а значит, переход, то пытается догадаться, каким путём пойдёт программа.

Очень часто это работает достаточно хорошо. Например, большинство циклов реализовано как ветвления. В конце каждой итерации цикла процессор должен предсказывать, будет ли выполняться следующая итерация. Часто для процессора безопаснее предсказать, что цикл будет продолжаться (вечно). В таком случае процессор ошибочно предскажет только одно ветвление на цикл.

Существуют и другие распространённые примеры. Если вы выполняете доступ к содержимому массива, то многие языки программирования перед совершением доступа к значению массива добавляют «контроль границ» (bound checking) — скрытую проверку правильности индекса. Если индекс неверен, то генерируется ошибка, в противном случае код продолжает выполняться обычным образом. Проверки границ предсказуемы, потому что в обычной ситуации все операции доступа должны быть правильными. Следовательно, большинство процессоров должно почти идеально предсказывать результат.

Что происходит, если ветвление сложно предсказать?


Внутри процессора все инструкции, которые были выполнены, но находятся на неверно предсказанном ветвлении, должны быть отменены, и вычисления необходимо начинать заново. Следует ожидать, что за каждую ошибку предсказания ветвления мы расплачиваемся более чем 10 циклами. Из-за этого время выполнения программы может возрасти в разы.

Давайте рассмотрим простой код, в котором мы записываем случайные целые числа в выходной массив:

while (howmany != 0) {
    out[index] =  random();
    index += 1;
    howmany--;
}

Мы можем генерировать подходящее случайное число в среднем за 3 цикла. То есть общая задержка генератора случайных чисел может быть равна 10 циклам. Но наш процессор является суперскалярным, то есть мы можем выполнять одновременно несколько вычислений случайных чисел. Следовательно, мы сможем генерировать новое случайное число примерно каждые 3 цикла.

Давайте немного изменим функцию, чтобы в массив записывались только нечётные числа:

while (howmany != 0) {
    val = random();
    if( val is an odd integer ) {
      out[index] =  val;
      index += 1;
    }
    howmany--;
}

Можно наивно подумать, что эта новая функция может быть быстрее. И в самом деле, ведь нам нужно в среднем записывать только одно из двух целых чисел. В коде есть ветвление, но для проверки чётности целого числа достаточно проверить один бит.

Я провёл бенчмарк этих двух функций на C++ на процессоре Skylake:

Запись всех случайных чисел 3,3 цикла на integer
Запись только нечётных случайных чисел 15 циклов на integer

Вторая функция работает примерно в пять раз дольше!

Можно ли тут что-нибудь исправить? Да, мы можем просто устранить ветвление. Нечётное целое число можно характерировать таким образом, что это побитовое логическое И со значением 1, равным единице. Хитрость в том, чтобы выполнять инкремент индекса массива на единицу, только если случайное значение нечётно.

while (howmany != 0) {
    val = random();
    out[index] = val;
    index += (val bitand 1);
    howmany--;
}

В этой новой версии мы всегда записываем случайное значение в выходной массив, даже если это не требуется. На первый взгляд, это пустая трата ресурсов. Однако она избавляет нас от ошибочно предсказанных ветвлений. На практике производительность оказывается почти такой же, как у первоначального кода, и намного лучше, чем у версии с ветвлениями:

Запись всех случайных чисел 3,3 цикла на integer
запись только нечётных случайных чисел 15 циклов на integer
с устранённым ветвлением 3,8 цикла на integer

Мог ли компилятор решить эту проблему самостоятельно? В общем случае ответ отрицательный. Иногда у компиляторов есть опции полного исключения ветвлений, даже если в исходном коде есть оператор if-then. Например, ветвления иногда можно заменить «условными перемещениями» (conditional move) или другими арифметическими трюками. Однако такие трюки небезопасны для использования в компиляторах.

Важный вывод: ошибочно предсказанное ветвление — это не малозначительная проблема, оно имеет большое влияние.

Мой исходный код на Github.

Создание бенчмарков — сложная задача: процессоры учатся предсказывать ветвления


[Прим. пер.: эта часть была у автора отдельной статьёй, но я объединил её с предыдущей, потому что они имеют общую тему.]

В предыдущей части я показал, что большая часть времени выполнения программы может быть вызвана неверным предсказанием ветвлений. Мой бенчмарк заключался в записи 64 миллионов случайных целочисленных значений в массив. Когда я попробовал записывать только нечётные случайные числа, производительность из-за ошибочных предсказаний сильно снизилась.

Почему я использовал 64 миллиона целых чисел, а не, допустим, 2000? Если выполнить всего один тест, то это не будет иметь значения. Однако что будет, если мы выполним множество попыток? Количество ошибочно предсказанных ветвлений быстро снизится до нуля. Показатели процессора Intel Skylake говорят сами за себя:

Количество тестов Неверно предсказанные ветвления (Intel Skylake)
1 48%
2 38%
3 28%
4 22%
5 14%

Как видно из показанных ниже графиков, «обучение» продолжается и дальше. Постепенно доля ошибочно предсказанных ветвлений падает примерно до 2%.


То есть если продолжить измерения времени, занимаемого одной и той же задачей, то оно становится всё меньше и меньше, потому что процессор учится лучше предсказывать результат. Качество «обучения» зависит от конкретной модели процессора, но стоит ожидать, что более новые процессоры должны учиться лучше.

Новейшие серверные процессоры AMD учатся почти идеально предсказывать ветвление (в пределах 0,1%) менее, чем за 10 попыток.

Количество тестов Неверно предсказанные ветвления (AMD Rome)
1 52%
2 18%
3 6%
4 2%
5 1%
6 0,3%
7 0,15%
8 0,15%
9 0,1%

Это идеальное предсказание на AMD Rome исчезает, если увеличить в задаче число значений с 2000 до 10 000: наилучшее предсказание меняется с доли ошибок в 0,1% до 33%.

Вероятно, стоит избегать бенчмаркинга кода с ветвлением на малых задачах.

Мой код на Github.

Благодарность: значения по AMD Rome предоставлены Велу Эрваном.

Дополнительное чтение: A case for (partially) TAgged GEometric history length branch prediction (Seznec et al.)

Комментарии (24)


  1. Refridgerator
    23.10.2019 08:58
    -1

    Мне кажется логичным было бы ввести в процессор две новые команды условного перехода — с большей и меньшей вероятностью перехода, которые можно было бы явно выбирать в зависимости от используемого алгоритма.


    1. Gordon01
      23.10.2019 09:29

      1. masai
        23.10.2019 11:33

        В C++20 атрибуты [[likely]] и [[unlikely]] — это часть языка. https://en.cppreference.com/w/cpp/language/attributes/likely


        1. Fenzales
          24.10.2019 10:07
          +1

          Ни эти атрибуты, ни __builtin_expect() не касаются предсказания ветвлений на уровне процессора, это оптимизация только на уровне компилятора, меняющая порядок инструкций.


    1. masterspline
      23.10.2019 09:32

      Предсказатель переходов должен «сказать» из какой ветки нужно брать следующую инструкцию. И сделать это даже ДО того, как команда будет декодирована, не то что выполнена конвейером процессора (fetch->decode->execute->commit, причем каждый этап по несколько тактов). Чем раньше предсказатель даст правильный ответ, тем меньше тактов процессора будет потеряно на предоставление конвейеру ненужных команд. Поэтому кодирование вероятности перехода внутри команды все равно приведет к потере нескольких тактов процессора (fetch->decode). Ну, или нужен отдельный супербыстрый декодер, предсказывающий из какой ветки нужно считывать команды.

      В общем, предсказатель переходов — это отдельное супербыстрое устройство, работающее без декодирования команд процессора.


      1. Mingun
        23.10.2019 18:43

        И как предсказатель узнает, что ему нужно что-то предсказывать, если он не знает, что перед ним команда ветвления? Адреса для перехода тоже ведь частью команды являются, разве нет?


        1. tbl
          24.10.2019 01:07

          При branch prediction есть фаза вычисления фактического адреса для прыжка, поэтому рекомендуют использовать addressing modes для операндов вместо вычисления адреса с помощью арифметических операций (включая LEA), тогда затраты на эту фазу будут околонулевые (относительно трат тактов на микрооперации). А сами операции переходов, включая условные и безусловные переходы, CALL и RET, детектятся по маске при извлечении из L1-кэша инструкций (если не найдено в µops decoder cache).

          Кстати, рекомендую поиграть в игры и туториалы, связанные с моделированием процессоров, такие, как MHRD, nand2teris, nandgame и подобные, чтобы понять, как работает декодер инструкций (по факту — самая менее затратная часть процессора по количеству элементов), и как группируются разнообразные инструкции в их битовом представлении.


  1. tumbler
    23.10.2019 09:07

    С одной стороны да, производительность кода — это важно. С другой стороны, приведенные примеры вообще не показательны, поскольку состоят только из проблемного кода. Вот статья "ошибочно предсказанное ветвление снижает производительность Chrome в разы" была бы бомбой, особенно если бы была описана методика поиска таких "ошибочных" мест.


  1. DareDen
    23.10.2019 10:48

    Я думаю, стоит еще сказать хоть про один инструмент для поиска проблемных мест: например мне недавно

    valgrind --tool=callgrind --branch-sim=yes

    позволили на пустом месте получить 15% производительности, просто поставив в правильном месте __builtin_expect (пользуюсь g++).
    Так что valgrind, хоть и не идеально, хоть и медленно, но может немного помочь в поиске узких мест.


    1. Amomum
      23.10.2019 13:26

      Кстати, perf тоже умеет показывать ошибочные предсказания.


    1. gasizdat
      23.10.2019 15:16

      Andrey2008, как по мне — хорошая идея для статанализа.


      1. kosmos89
        23.10.2019 15:43

        как по мне, плохая идея для статанализа.


      1. mayorovp
        24.10.2019 06:51

        Статанализ проверяет всевозможные ветви исполнения, независимо от их вероятности. Это основное преимущество стататализа.


        1. gasizdat
          24.10.2019 07:44

          Именно это и является его преимуществом над динамическими анализаторами, тем же valgrind-ом. Ему не нужно подсчитывать статистику посещения каждой ветви. Можно включать эвристику, наподобие такой: если в теле if нет исключений или abort или terminate, а в else — есть, то тело if более вероятное, чем else. Или если в switch инструкции разобраны все случаи перечисления, то ветка default, будет маловероятной и т.п. случаи.


    1. 0xd34df00d
      24.10.2019 04:32

      Попробуйте vtune ещё.


  1. pvl_1
    23.10.2019 12:33
    +2

    Следует ожидать, что за каждую ошибку предсказания ветвления мы расплачиваемся более чем 10 циклами.


    Мне кажется, автор имел в виду такты процессора.


    1. kosmos89
      23.10.2019 15:42

      Скорее переводчик. По-английски такт и есть cycle.


      1. pvl_1
        23.10.2019 15:52

        По-английски такт и есть cycle.

        Я знаю, поэтому и написал об этом. То есть автор имел в виду такты, а переводчик использовал термин «цикл».


  1. 4eyes
    23.10.2019 14:46

    Тем временем, свежие версии gcc и clang научились избавляться от ветвления в описанном случае. https://godbolt.org/z/JEVWLX


    1. kosmos89
      23.10.2019 15:58
      +1

      … особенно когда массив arr не используется и компилятор все, связанное с ним полностью выкинул :)

      Вот так правильней: godbolt.org/z/P6c-WP — и ветвление вернулось на место.


      1. 4eyes
        23.10.2019 17:36

        Да, я проглядел это. Считать четные оно умеет и без ветвления, а вот обращения в память, если их нельзя выкинуть, то уже не оптимизирует. Ну и не должно, в общем случае.


    1. pvl_1
      23.10.2019 16:05

      del


  1. tbl
    23.10.2019 18:59
    +1

    Только поаккуратнее с CMOV, он всегда медленнее, чем правильно предсказанное ветвление, т.к. он всегда декодируется в микрооперации (2 микрооперации на intel, и 1 микрооперация + еще 1 такт на amd), и он существенно ограничивает out-of-order исполнение.

    Intel® 64 and IA-32 Architectures Optimization Reference Manual
    Assembly/Compiler Coding Rule 2. (M impact, ML generality): Use the SETCC and CMOV instructions to eliminate unpredictable conditional branches where possible.

    * Do not do this for predictable branches.

    * Do not use these instructions to eliminate all unpredictable conditional branches (because using these instructions will incur execution overhead due to the requirement for executing both paths of a conditional branch).

    * In addition, converting a conditional branch to SETCC or CMOV trades off control flow dependence for data dependence and restricts the capability of the out-of-order engine.

    * When tuning, note that all Intel 64 and IA-32 processors usually have very high branch prediction rates. Consistently mispredicted branches are generally rare. Use these instructions only if the increase in computation time is less than the expected cost of a mispredicted branch.


  1. aamonster
    24.10.2019 09:59

    И почему отказались от delayed branch (был, например, в hitachi sh3) в пользу branch prediction?