Поговорим о побитовых операциях.

С ними привычно иметь дело embedded-разработчикам и тем, кто занимается криптографией. Также побитовые операции можно встретить в системном программировании, компьютерной графике и везде, где присутствует сильная ограниченность ресурсов или длительные вычисления.

В прикладном же программировании многие устанавливают (|) и проверяют параметры (&) через степени двойки. Как правило, дальше этого не заходит. Но всегда есть задачи, которые потребуют горизонтального масштабирования при высокой нагрузке в случае их решения явным или привычным способом. 

Попробуем применить побитовые операции к прикладной задаче для оптимизации кода в плане производительности и используемых ресурсов – и посмотрим, что из этого получится. 

Побитовые операции: вспомним основы

Таблица истинности:

A

B

A & B

A ˅ B

A Ꚛ B

~A

1

1

1

1

0

0

1

0

0

1

1

0

0

1

0

1

1

1

0

0

0

0

0

1

Побитовые операторы производят операции, используя двоичное представление числа. Среди наиболее частых случаев использования побитовых операций – такие:

Включение бита: y = x | (1 << n)

Предположим, у нас есть число 150 и для него необходимо установить третий бит:

    1001 0110 (150 – в двоичной системе счисления)
|   0000 1000 (1 << 3 – устанавливаем третий бит)
    ---------
    1001 1110 (158 – результат)

Очистка бита: y = x & ~(1 << n)

	1001 0111 (151 – в двоичной системе счисления)
|   1111 1011 (~(1 << 2) – выключаем второй бит)
    ---------
    1001 0011 (147 – результат)

Переключение бита: y = x ^ (1 << n)

	1101 1011 (219 – в двоичной системе счисления)
&  	0000 0100 (переключаем второй бит)
    ---------
    1101 1111 (223 – результат)

Обмен значений двух переменных: x = x ^ y ^ x

	0101 (x = 5)
^   0111 (y = 7)
    ----
    0010 (промежуточный результат)
^   0101 (x = 5)
    ----
    0111 (7 – итог) 

Или:

x ^= y

y ^= x

x ^= y

	0101 (x = 5)
^	0111 (y = 7)
	----
	0010 (x = 2)

	0111 (y = 7)
^  	0010 (x = 2)
	----
	0101 (y = 5)

	0010 (x = 2)
^	0101 (y = 5)
	----
    0111 (x = 7)

Также достаточно просто умножать и делить на степени двойки. Для этого достаточно сдвинуть число вправо или влево. Например, умножение числа 10 на 2: 10 << 1 = 20.

Для умножения на 4 сдвигаем уже на 2 бита. Например: 5 << 2 = 20

Аналогично производится деление чисел на 2, но сдвиг при этом производится вправо.

Применяем побитовые операции к задаче классификации 

Где и как можно использовать приведённые выше операции? Например, в резервировании данных, в матрице состояний и переходов, для сжатия данных, в категоризации и ранжировании. В задачах, где возможна аккумуляция данных и разложение на составляющие. Так можно хранить однотипные или похожие данные в одном значении, например, информацию о мобильном и рабочем телефоне.

Рассмотрим пример – задачу классификации данных по рейтингу. Пусть у нас есть данные о категориях и моделях товаров. Изначальные отношения категории и модели товара выглядят следующим образом:

Задача: приоритизировать данные на основе рейтинга (веса), полученного при объединении ключевых характеристик, с учётом важности каждой из них.

Рассмотрим эту задачу на примере моделей товара. Пусть набор множества неограниченного количества характеристик на входе даёт свёртку взвешенных сумм на выходе. Предположим, это будут пять ключевых характеристик: X1, X2, X3, X4, X5. С точки зрения пользователя это информация о  цвете, материале, размере жесткого диска и т.д. Нормализованный вес характеристик определяется значениями от 0 до 10 – например, 7, 10, 5, 8, 9. При составлении рейтинга также имеет значение порядок данных характеристик.

Выделим по 4 бита на каждое значение, так как 10 в двоичном исчислении – 1010; соответственно, все числа меньше 10 также не выйдут за пределы четырёх битов. 

Объединим полученные данные в одно значение:

	var sum uint64 = 0
	ratingShift := 4
	weights := []uint64{9, 8, 5, 10, 7}
	for i := 0; i < len(weights); i++ {
		sum |= weights[i] << (i * ratingShift)
	}

То есть через операторы | и << мы каждое следующее число располагаем в следующих четырёх битах. При этом в более старших разрядах должны находиться значения с более высоким приоритетом. Располагаем числа справа налево – так, как это выглядит в памяти.

X1

X2

X3

X4

X5

7

10

5

8

9

0111

1010

0101

1000

1001

Данная комбинация даст нам десятичное число 501129. Если характеристика X1 будет равна 10, то итоговый рейтинг станет равен 697737, что больше, чем предыдущее число. Нам это и нужно. 

Если меняем значение характеристики с более высоким приоритетом, то результирующее значение рейтинга будет выше. Более наглядно можно представить это в следующей таблице:

Значение

X1

X2

X3

X4

X5

501129

7

10

5

8

9

566665

8

10

5

8

9

502409

7

10

10

8

9

Чтобы выделить значение характеристики, создаётся маска, позволяющая выделить необходимые четыре бита. Эта маска представляет собой число ...00001111 в двоичном исчислении. Сдвигая к правой границе нужную четвёрку чисел, все остальные позиции мы обнуляем, используя побитовое умножение (AND).

	mask := uint64((1 << 4) - 1)
	weight := (sum >> 16) & mask

Теперь модель имеет рейтинг, который хранится в одном месте; это позволяет легко и очень быстро выделять части рейтинга (веса) при необходимости. Если приоритизировать данные через циклы, то сложность алгоритма будет зависеть от количества характеристик. Внутри каждого вложенного цикла в свою очередь осуществляется сортировка для каждой подгруппы. Это сильно усложнит работу программы – как во временном отношении, так и в использовании памяти.  А в случае использования побитовых операций достаточно собрать такие весовые значения и отсортировать, что не будет по сложности превышать O(n2).

Стоило ли оно того? Например, мы могли с помощью ML получить какую-то одну вероятностную характеристику и пользоваться ей. Но всё-таки набор характеристик, хранящихся в одном месте, – лучше, чем одно весовое значение. Так мы получим преимущество пересчёта рейтинга на лету при изменении приоритета характеристик пользователем. Рассмотрим следующий пример.

Побитовые сдвиги для задачи рекомендации товаров из смежных категорий

Теперь в нашем примере у каждой модели есть значение рейтинга или вес. Предположим, пользователь добавил в избранное то, что ему понравилось. Дальше он может переопределить при необходимости порядок характеристик в соответствии со своими предпочтениями. В этом случае результирующее значение рейтинга будет пересчитано. Далее мы можем пересчитать рейтинг смежных категорий в соответствии с выбранным пользователем приоритетом характеристик и предложить ему те товары, которые близки или выше по рейтингу.

Рассмотрим на примере. Допустим, пользователь выбрал смартфон со следующим приоритетом характеристик по умолчанию: 

1. Объем жесткого диска (8). 

2. ОЗУ (7). 

3. Цвет (6) и т.д.

Данные характеристики представлены в виде вычисленного числового значения. Далее пользователь может переопределить их порядок, если посчитает более важным для себя “Цвет”, например. Или полностью опустить какую-то из характеристик. И затем происходит поиск моделей, которые находятся в том же каталоге. У них в свою очередь пересчитаются веса в соответствии с выбранным новым приоритетом. И в конце происходит их сортировка — с целью предложить пользователю что-то близкое.

В этой задаче можно применить побитовые операции и к поиску. Рассмотрим категоризацию. Попробуем найти модели из смежных категорий, используя побитовые сдвиги.

Дерево категорий
Дерево категорий

Предположим для простоты, что вложенность категорий не больше четырёх. Соответственно, можно выделить 216 = 65536 идентификаторов категорий для числа разрядности 64. Используем что-то вроде внутреннего идентификатора, а не идентификаторы из базы данных, во избежание переполнения накопителя. 

Точно так же, как и в предыдущем примере, сохраним путь категории в результирующее значение. Можно заметить, что дерево категорий укладывается в следующее представление:

401

301

201

100

302

201

100

303

201

100

202

100

Например, для категории 401 полный путь вычисляется так:

	var categoryPath uint64 = 0
	shift := 16
	weights := []uint64{100, 201, 301, 401}
	for i := 0; i < len(weights); i++ {
		categoryPath |= weights[i] << (i * shift)
	}

Также вычисление можно представить в виде:

categoryPath := 100<<0 | 201<<16 | 301<<32 | 401<<48

Если пользователь выбрал одноместную палатку, то будем предлагать ему что-то аналогичное – тоже палатки: двухместные, трёхместные и далее по списку. 

По рисунку видно, что у дерева категорий есть общая часть, которая не нужна для сокращения количества лишних переборов и проверок наличия реальных моделей, привязанных к той или иной категории. Чтобы отбросить общую часть, нужно знать значение позиции, относительно которой мы будем оставлять то, что нам нужно, или, наоборот, отбрасывать.

LSB –наименьший значащий бит; MSB – старший значащий бит; 16, 32, 48 – границы между числами
LSB –наименьший значащий бит; MSB – старший значащий бит; 16, 32, 48 – границы между числами

Данное значение можно вычислить, но желательно знать заранее. Можно такие значения хранить отдельно, а можно – в значении вычисленного пути, выделив для него два бита. 

Нам заранее известно, сколько слотов выделено для одной категории (16), поэтому для вычисления той или иной позиции достаточно хранить только количество сдвигов. В нашем случае достаточно хранить числа от 0 до 3, которым вполне хватит двух битов. 

Предположим, мы получили нужное значение. Для категории 401 оно будет равно числу 1. Таким образом, дальнейшие операции будут производиться со следующей позиции:

shift := 1
16 << shift = 32

Далее по общей части родительских категорий можно найти в базе данных смежные категории. Для этого создадим маску совпадения в данном случае первых двух родительских категорий:

mask := uint64((1 <<(16 << shift)) - 1)

Выполняем запрос для выборки категорий со следующим условием:

where category_path & mask = categoryPath & mask

Это даст нам список смежных категорий за одно обращение к хранилищу данных без последующего перебора и анализа связей.

А далее из списка полученных значений извлекаем, наоборот, не родительские категории, а те, которые будут содержать списки других потенциально релевантных моделей.

Интересующие нас значения:

categories := value >> (16 << shift)

То есть обнуляем родительские категории, сдвигая число к правой границе на 32 бита. Оставшееся значение в свою очередь разбивается по 16 битов. И на выходе уже получаем значения идентификаторов 301, 302, 303, 401, то есть категорий, по которым будет произведён поиск моделей.

В итоге необходимые значения быстро определяются и нет необходимости выгружать ненужные записи для определения местоположения в иерархии дерева категорий.

Сортировка и побитовые операции

Теперь у нас есть целочисленные значения рейтинга. Посмотрим на побитовые операции применительно к сортировке, в частности поразрядной (radix sort) O(k * n). Изначально данный алгоритм предназначен для сортировки целых чисел. Ориентируемся на него, так как в отличии от быстрой сортировки алгоритм имеет линейную сложность, стабилен и при большом количестве сортируемых данных - может дать выигрыш во временном отношении.

Попробуем приблизительно оценить встроенную сортировку (O(n2)), сортировку слиянием (merge sort) (O(n log n)) и поразрядную сортировку (radix sort) с побитовыми операциями. Опускаем при этом свою реализацию быстрой сортировки для целочисленных значений по двум причинам. Во-первых, сложность сортировки слиянием в худшем случае лучше. И выполняется быстрее на больших объемах сортируемых данных. Во-вторых, даже при каком-то улучшении для прикладной задачи не имеет большого смысла реализовывать быструю сортировку параллельно со встроенным вариантом.

Будем брать случайные числа от 0 до 216.

const (
	RandLimit = 0x10000
)
func GenerateRandomArray(arrayLen int) []int {
	var a []int
	for i := 0; i < arrayLen; i++ {
		a = append(a, rand.Intn(RandLimit))
	}
	return a
}
func RadixSort(a []int) []int {
	size := len(a)
	var i, bit = 0, 0
	m := a[0]
	b := make([]int, size, size)
	for i = 0; i < size; i++ {
		if a[i] > m {
			m = a[i]
		}
	}
	for (m >> bit) > 0 {
		var bucket [2]int
		for i = 0; i < size; i++ {
			bucket[(a[i]>>bit)&1]++
		}
		bucket[1] += bucket[0]
		for i = size - 1; i >= 0; i-- {
			p := (a[i] >> bit) & 1
			b[bucket[p]-1] = a[i]
			bucket[p]--
		}
		for i = 0; i < size; i++ {
			a[i] = b[i]
		}
		bit++
	}
	return b
}

Генерируем 1000000 чисел и запускаем алгоритмы сортировки:

$ go run .
sort.Ints: 2.0456ms
radix sort: 958.6µs
merge sort: 1.0016ms

Результаты бенчмарк-тестирования:

$ go test -bench=. -benchtime 10s
pkg: sorting
BenchmarkSort-16                   	14100         850684 ns/op
BenchmarkMergeSort-16               5714          2155594 ns/op
BenchmarkRadixSort-16              	9589          1288526 ns/op
PASS
ok      sorting 55.880s

Можно увидеть, что в среднем время работы сортировки с использованием побитовых операций на больших данных сопоставимо с сортировкой слияния, но вторая значительно проигрывает в плане потребления ресурсов.

Вернемся к прикладной задаче. Теперь мы знаем, как при помощи побитовых операций можно ранжировать данные по разным признакам, учитывая приоритет каждого из них. То же самое можно сделать при помощи обычных циклов. 

В таком случае более привычная реализация через циклы оказывается задачей более сложной. На первом этапе сортируем значения с самым высоким приоритетом, а далее при переходе на каждое последующее значение с более низким приоритетом учитываем предыдущую сортировку. То есть каждая последующая операция осуществляется в своей группе.

Посмотрим на производительность каждого из алгоритмов. Для этого загрузим данные из файла в количестве 10000 записей следующего вида:

1 8 7 5 10

9 3 7 5 10

9 4 6 4 3

И запустим алгоритмы:

Циклы и побитовые операции
const (
    featureQty = 5
    shiftSize  = 4
)

type key struct {
    weights []int
}
func readData(path string) [][]int {
    weights := [][]int{}
    inFile, err := os.Open(path)
    if err != nil {
        fmt.Println(err.Error() + :  + path)
        return nil
    }
    defer inFile.Close()
scanner := bufio.NewScanner(inFile)
for scanner.Scan() {
    str := strings.Split(scanner.Text(), " ")
    values := []int{}
    for _, s := range str {
        value, _ := strconv.Atoi(s)
        values = append(values, value)
    }
    weights = append(weights, values)
}
return weights

}
func rankUsingCycles(weights [][]int) [][]int {
    var sortKeys map[*key]int
    state := make([]*key, len(weights))
for k := 0; k &lt; featureQty; k++ {
    if k == 0 {
        // sort for the first time
        sort.SliceStable(weights, func(i, j int) bool {
            return weights[i][k] &gt; weights[j][k]
        })
    } else {
        for i := 0; i &lt; len(weights); i++ {
            group := weights[i][0:k]
            for key, v := range sortKeys {
                if reflect.DeepEqual(group, key.weights) {
                    sort.SliceStable(weights[i:(i+v)], func(i, j int) bool {
                        return weights[i][k] &gt; weights[j][k]
                    })
                    i += (v - 1)
                    break
                }
            }
        }
    }
    sortKeys = make(map[*key]int, len(weights))

    for i := 0; i &lt; len(weights); i++ {
        if state[i] == nil {
            state[i] = &amp;key{}
        }
        state[i].weights = append(state[i].weights, weights[i][k])
    }
    for _, key := range state {
        inserted := false
        for k := range sortKeys {
            if reflect.DeepEqual(k.weights, key.weights) {
                sortKeys[k]++
                inserted = true
                break
            }
        }
        if !inserted {
            sortKeys[key]++
        }
    }
}
return weights

}
func rankUsingBitwiseOperations(weights [][]int) []int {
    ratings := make([]int, 0, len(weights))
    for _, values := range weights {
        rate := 0
        for i := 0; i < len(values); i++ {
            rate |= values[i] << (i * shiftSize)
        }
        ratings = append(ratings, rate)
    }
    ratings = sort.IntSlice(ratings)
    return ratings
}

Результаты выполнения работы алгоритмов следующие:

Algorithm with cycles: 1.4650408s, μs (microseconds): 1465040
Algorithm with bitwise operations: 999.2µs, μs (microseconds): 999

Результаты тестирования показывают, что ранжирование данных при помощи циклов значительно уступает по производительности.

Побитовые операции – не только для низкоуровневого программирования

Побитовые операции можно использовать в прикладном программировании. Конечно, такой код требует особой аккуратности при разработке и поддержке и по большому счёту оправдан, когда это действительно нужно. Если его изолировать и не смешивать с основной бизнес-логикой, то не всё так страшно, как может показаться на первый взгляд. Выигрыш во временном отношении может быть при этом значительным – может более, чем на порядок превосходить обычные циклы. 

В примере выше сохранение значений рейтинга в одну переменную значительно сократит используемые ресурсы, а его вычисление заменит вложенные циклы.

Сохранение пути категории позволяет хранить состояние некоторой части системы. Тем самым снижается количество запросов и нет необходимости выгружать все категории для анализа с целью определения местоположения в иерархии дерева категорий. 

Что касается алгоритмов сортировки, то важно учитывать, какие данные сортируются и для какого объёма входящих данных делается сортировка. Результаты тестирования показывают, что сортировка слиянием и поразрядная сортировка примерно одинаковы в плане производительности. Но при этом потребление ресурсов у первой значительно выше.

В итоге мы видим, что удалось значительно ускорить работу поставленной задачи. Классический алгоритм — хоть и сложно — но всё-таки можно незначительно улучшить. Производительность алгоритма в прикладной задаче можно улучшить более, чем на порядок. На нашем примере видно, что может быть и лучше 102.

Напоследок — список возможностей побитовых операций, которые могут пригодиться на практике:

  • оптимизация распространённых операций: хранение опций в одной переменной, также определение чётности/нечётности, обмен значений переменных, приведение к верхнему/нижнему регистру и т. д.;

  • более оптимальное использование памяти;

  • использование в алгоритмизации – с целью оптимизации узких мест: замена дорогих операций умножения и деления и т. д.;

  • возможность сохранения состояния какой-либо части системы в более компактном виде.

Полезные ссылки:

Комментарии (26)


  1. godzie
    09.09.2021 15:45
    +4

    Сравниваем встроенную сортировку (O(n2)), сортировку слиянием (merge sort) (O(n log n)) с поразрядной сортировкой (radix sort) и побитовыми операциями.

    1) Встроенная сортировка имеет n*log(n) сложность.

    2) Сравниваете generic реализацию сортировки из стандартной библиотеки со своими реализациями в которых зашит int.

    3) Radix сорт в отличие от например q-sort имеет еще и накладные расходы по памяти.

    Вообщем сравнение некорректное как по мне.


    1. alviro Автор
      09.09.2021 15:56

      1. Ориентация была на quick sort

      2. В самом начале было обозначено, что работаем с int значениями. Хотелось посмотреть именно для каких-то равных условий.

      3. Согласна, имеет. Но не настолько большие как в случае с merge sort.

        Задача не стояла сравнить именно сортировки. Оценить - да, для каких-то равных условий. И какое место во всем этом занимает radix sort


      1. godzie
        09.09.2021 18:16

        1 В том числе о нем и речь, откуда n^2?

        2 Так в том и дело что вы написали алгоритм для интов а в стандартной библиотеке generic алгоритм, откуда тут равные условия


        1. alviro Автор
          09.09.2021 18:55
          -1

          1. Быстрая сортировка всегда была в худшем случае n^2, а не той сложности, которую Вы указали

          2. Мы работаем с побитовыми операциями, а это не float, объекты или что-то другое. Это int значения. В рамках данного контекста выжимаем и смотрим на окружение - можно ли улучшить. Сравнивать все со всеми (если говорить только о сортировке) - целесообразно в отдельной статье.


          1. godzie
            09.09.2021 19:30
            -2

            1 А поиск в хеш таблице с бакетами О(n) в худшем случае, только думается на собеседовании в озон ожидают другого ответа на вопрос о сложности поиска в хэш таблице ;)

            Возвращаясь к квиксорту- зависит от выбора опорного элемента, применяя простые техники вероятность получить квадрат очень низкая. Так что обычно говорят об ожидаемом времени работы - nlog n. Загляните в сорцы стандартной сортировки, там должно быть что то про сложность.

            2 Вы видимо не понимаете в чем претензия. Дело в том что в текущем go производительность обобщенного алгоритма будет ниже производительности того же алгоритма написанного с конкретным типом данных. Это происходит из-за того что go не выведет тип на этапе компиляции - соответсвенно будут накладные расходы в рантайме.


            1. alviro Автор
              09.09.2021 20:51

              Мы говорим на разных языках. В данном контексте меня не интересует, что под капотом. Интересует результат. Выбиралась та кастомная реализация, которая ориентирована на целочисленную сортировку. Согласна, что можно реализовать не одну, а несколько. Только не об этом немного речь.


              1. godzie
                09.09.2021 20:59
                -2

                Ну так почему в оппоненты своей реализации вы берёте generic реализацию?

                Напишите квиксорт для слайса интов- тогда будет честное сравнение (и думается radix не выйдет из него победителем).


                1. alviro Автор
                  10.09.2021 00:36

                  Так как реализована еще сортировка слиянием. И в среднем она лучше по времени, чем быстрая. Закономерность прослеживается, что смысла реализовывать ее нет. Тем более в данном контексте. Про radix sort Вам так хочет казаться? Точно также можете вначале изучить вопрос. Быстрая сортировка может быть быстрее только при небольших числах.


                  1. godzie
                    10.09.2021 00:53
                    -1

                    Извините но ваши выводы о сортировках - это без комментариев, информация вроде в открытом доступе есть, уж по квиксорт vs mergesort точно.

                    Спор по производительности тоже банальный, вот бенчмарк (из вашей статьи), можете запустить и убедиться:

                    https://play.golang.org/p/OChn_R2qe_s


                    1. alviro Автор
                      10.09.2021 01:26
                      -1

                      Quick sort - быстрая. Никто не спорит, но не стабильная. Почему этот вопрос для Вас так важен в теме, которая совершенно не об этом. Я вот никак понять не могу.


                      1. godzie
                        10.09.2021 10:27

                        Давайте не переводить разговор в русло: "почему комментатор комментирует". Because i can.

                        По поводу темы - я не считаю что не об этом. Вы обозначили преимущества поразрядной сортировки в общем случае (да в частных случаях она может быть хороша - но в статье я не вижу об этом), я с этим не согласен и привожу свои аргументы.


                  1. alviro Автор
                    10.09.2021 01:28

                    *при небольших объемах - имелось ввиду. Про radix sort выше


  1. gleb_l
    09.09.2021 17:11

    Ну наконец-то!

    Большинству современных "сеньоров" приходится вместе с приходящей из бакенда битовой маской читать курс битовых операций, чтобы они правильно реализовали бакендный замысел. Очень люблю использовать битовые поля и маски при манипулировании компактными наборами признаков, например, таких как аналоги связей многие-ко-многим.


    1. JustDont
      09.09.2021 19:37
      +4

      Так а вам это реально надо — вы устраняете критичный ботлнек по трафику или производительности? Или ключевые слова вашего тезиса — "очень люблю использовать", а всё остальное вытекает из них?


      Я это спрашиваю только потому, что в свое время (в 2011 году, если всё правильно помню) — видел таких любителей битовых масок для классификаторов. Рядом с их красивыми битовыми масками в xml с enterprise-grade тегами (полное имя java-классов из сериализатора) лежали так же пространнейшие описания категорий (тех, для которых классификаторы), местами повторяемые. Итого в xml на пару мегабайт за запрос пара мест была длиной не условно 30 знаков (0000101001001000101 в виде строки), а 3-5.


      Но когда я этих любителей битовых масок спросил про то, почему бы им не переписать сериализатор хотя бы на куда более компактный json, или там, не дублировать очень длинные описания категорий в выдаче — мне в ответ почему-то сделали круглые глаза: ты чё, это ж интеграционные зависимости поедут! Обратную совместимость делать! Архитектуру переутверждать!!! Тупой фронтэндер ничего не понимает, а еще и в битовые маски не очень может!


      1. gleb_l
        09.09.2021 20:46
        +2

        Типичные применения - список ролей юзера в системе, или права доступа к экземпляру объекта по ролям - если вариантов заведомо меньше 32(64), то добавление поля-битового вектора int(long) - превосходная альтернатива node list в XML, array в JSON или второго рекордсета при табличной выдаче из БД. Проверка на наличие признака при этом - простейшая логическая операция со скаляром по сравнению с поиском в объекте-хэштаблице. Если таких операций много и/или делаются они часто - тратить на них лишнюю память и процессор совершенно нет необходимости


        1. JustDont
          09.09.2021 20:51
          +2

          Если таких операций много и/или делаются они часто

          Ну вот вы не в теории, а на практике можете сказать, где не на бэкэнде надо много (очень много) раз проверять наличие роли для объекта?


          1. gleb_l
            09.09.2021 21:08
            +1

            Конечно. Например фильтрация строк данных по маске прав доступа.

            PS помнится, вектор пермиссий в файловой системе RSX-11 занимал одно 16-битное слово с битами RWED в каждом ниббле для системы, владельца, группы и гостей. Сейчас бы нагородили вложенных объектов весом в половину адресного пространства тех времён ;)

            Я только не совсем понимаю, к чему Вы аппелируете. К тому, что скаляры не дают экономии? К тому, что в современном мире экономить не нужно/лень разбираться? К тому, что исчезли задачи, в решении которых можно применить экономию? Или к тому, что я их придумал искусственно?


            1. JustDont
              09.09.2021 21:19

              С очень специфическими рамками:
              1) Эта фильтрация не убрана полностью на бэк
              2) Есть очень (очень) много объектов, настолько много, что скорее всего одна их загрузка занимает существенное время
              3) Мы работаем на каком-то покалеченном устройстве (смарт-тв, не иначе), где заведомо нет памяти и хреновый процессор.


              Если не выполняются №2/№3, то фильтрацию можно либо сделать один раз, просто раскидав объекты по группам заранее (причем в фоновом режиме), либо же просто фильтровать хешмапами и никто не умрёт. Для ощутимой невооруженным взглядом выгоды надо иметь именно довольно слабый процессор и очень большие объемы данных.


            1. JustDont
              09.09.2021 21:59
              -2

              Я только не совсем понимаю, к чему Вы аппелируете.

              К тому, что ваш начальный комментарий попахивает повальным обобщением, в то время как в реальности ситуации, когда на фронте нужно как следует поэкономить на памяти и тактах через битовые маски — они безусловно есть, а на проектах определенного вида (карты, видео, итп) — очень сильно есть, но в среднем по фронту они крайне редки.


              В среднем, на фронте экономят не на битовых масках, а на гораздо более прозаичных вещах.


              1. gleb_l
                10.09.2021 10:29
                +1

                Так а почему речь идёт только о фронте? Бакенду тоже проще выдать int из плоской таблицы, чем выборку ассоциации из many-to-many через лишние два джойна и один резалтсет. Притом что, «вас много, а я тут одна» - то есть экономия ресурсов на баке более важна, так как каждый юзер приносит с собой на фронт кристалл ЦПУ и несколько гигов памяти, но на бак почему-то заносить забывает ;)

                То же относится и к фильтрации строк - неважно по сути, где она делается - проверка битовой маски быстрее проверки ассоциации


                1. JustDont
                  10.09.2021 10:36

                  Бакенду тоже проще выдать int из плоской таблицы, чем выборку ассоциации из many-to-many через лишние два джойна и один резалтсет.

                  Конечно, но тут мы уходим в глубокий оффтопик на совсем отвлеченные темы (синхронизация данных, их версионность, etc). Тут оно тоже далеко не так просто, чтоб считать всех, делающих два джоина и один резалсет — не очень умными.


                  1. gleb_l
                    10.09.2021 19:43
                    +1

                    Какая синхронизация и версионность? Причем здесь вообще ум тех, кто делает через ассоциации в сравнении с теми, кто использует битмаски? Манипуляции с битами - это не rocket science абсюлютно - и по большому счету. не сложнее манипуляции с хэш-таблицами или коллекциями. Просто нужно привыкнуть использовать этот незаслуженно забытый аппарат там, где он может дать преимущество, или там, где инженер сочтет это преимущество значимым для разрабатываемой системы.

                    В первом комментарии я писал лишь о том, что работа с битами сейчас - настолько редкий случай среди [не-эмбед] разработчиков, что когда они встречают битовую карту - не знают, что с ней делать - примерно так, как большинство водителей, годами успешно ездящие в мегаполисе, теряются, увидя на перекрестке регулировщика - так как видели его последний раз посредине перекрестка разве что в экзаменационных билетах.

                    При этом, очевидно. существуют случаи когда битовые поля чрезвычайно эффективны даже в классических не-эмбед применениях на всех уровнях имплементационного стека. Заметьте, я не говорил, что по-другому делать - это sucks, я просто сказал, что сам, лично, люблю использовать битовые поля там, где это возможно делать (может быть от того, что когда-то программировал системы с 64К адресного пространства). Вот и все.


  1. iShrimp
    09.09.2021 19:52
    +2

    Говоря о битовом представлении данных, нельзя не упомянуть перцептивные хэши, расстояние Хэмминга и шикарную статью о подсчёте единичных битов. Так что тема раскрыта не полностью :)


    1. alviro Автор
      09.09.2021 20:19
      +2

      Согласна, статья шикарная


  1. qqrm
    14.09.2021 07:40

    Не совсем понял про обмен значений двух переменных

    a = 7; b = 3;

    a = a ^ b ^ a; // a = 3, b = 3 эквивалентно a = b;

    b = ?


    1. alviro Автор
      14.09.2021 07:42

      Да, не совсем очевидно. Здесь без разложения на операции. Посмотрите, пожалуйста, на дописанный пример чуть ниже.