
Есть крайне занимательный факт. Двоичная логика, которую использует каждый современный процессор - математически не оптимальна и проигрывает тернарной по плотности представления данных. Но как так-то?
Аж в 1956 году Николай Брусенцов из Вычислительного центра МГУ взял этот факт всерьез и убедил академика Соболева дать ему лабораторию. Через три года машина работала.
Ее назвали Сетунь - по реке рядом с университетом. По итогу произвели около 50 штук (но тут, кстати, источники расходятся между цифрами 46 и 50). И к сожалению, больше ни одна серийная ЭВМ в мире на троичной логике не выходила.
Вот и разберемся - в архитектуре, цифрах и в том, куда это все делось.
Немного про необычные термины
Слово "бит" - это сокращение от binary digit, двоичная цифра. В троичной машине двоичных цифр нет, поэтому и единицы измерения другие.
Трит (ternary digit) - минимальная единица троичной информации. Принимает три значения: -1, 0 или +1. По информационной емкости 1 трит = log₂(3) ≈ 1.58 бита.
Трайт (tryte) - аналог байта. В Сетуни-70 - 6 тритов. Покрывает 729 значений против 256 у байта при схожей схемотехнике.
Симметричная троичная система (СТС) - позиционная система с основанием 3 и цифрами {-1, 0, +1}. Знак числа определяется старшим тритом автоматически. Отдельного знакового бита нет.

Оптимальное основание - это не 2
Для позиционной системы счисления с основанием r и n разрядами можно записать r^n чисел. Стоимость машины пропорциональна числу элементов - то есть r × n. Если минимизировать это произведение при фиксированном диапазоне чисел, производная обнуляется при r = e ≈ 2.718.
Двойка проигрывает. Тройка - ближайшее целое к e. С информационной точки зрения тернарная система на ~5% эффективнее двоичной по числу элементов при том же объеме данных. Не гигантский выигрыш, но при сотнях тысяч ячеек это реальная экономия железа.
Кроме того, в СТС знак числа встроен в саму арифметику. 18-тритное слово покрывает диапазон от -193 710 244 до +193 710 244 без отдельного знакового бита, без дополнительного кода, без ручных манипуляций со знаком. Просто работает.
Как реализовать трит на обычных элементах
Нормальных троичных транзисторов в 1950-е не было. Брусенцов взял за основу феррит-диодные ячейки Гутенмахера - бесконтактные магнитные усилители на ферритовом сердечнике с диодом. Никаких ламп в логической части. Только феррит и диод. Отсюда, собственно, и высокая надежность - феррит не перегорает как лампа.
Трит хранился как два двоичных разряда с запрещенной комбинацией:
00 → значение -1
01 → значение 0
10 → значение +1
11 → запрещено, не используется
Из четырех возможных состояний - три рабочих. Не настоящая троичная физика на трех уровнях напряжения, но функционально эквивалентно. И это работало.
Архитектура, которая удивляет даже сейчас
Слово - 18 тритов. Это примерно 29 двоичных бит. Инструкция делится на три части - 5 тритов на код операции, 1 трит на модификатор адреса, 12 тритов на сам адрес.
Модификатор адреса - тоже элегантная деталь. Один трит принимает три значения: -1, 0, +1. Если -1 - вычти индекс-регистр из адреса. Если 0 - без изменений. Если +1 - прибавь. Один разряд заменяет целый набор команд адресной арифметики.
Система команд - всего 24 инструкции. При теоретическом максимуме в 3^5 = 243 кода запас колоссальный. Но главное - условный переход. В двоичной машине нужно две команды: "перейти если ноль" и "перейти если не ноль". В Сетуни - одна команда с тремя исходами: меньше нуля, равно нулю, больше нуля. Сравнение возвращает не бит, а трит. И ветвление работает по нему напрямую.
Тут, кстати, и скрыто одно из реальных архитектурных преимуществ. Меньше команд на типовой управляющий код - меньше памяти, меньше декодирования, меньше ошибок.
Производительность - 4 500 операций в секунду при тактовой частоте 200 кГц. Сложение занимало 180 мкс, умножение - до 360 мкс.
Параметр |
Сетунь (1959) |
IBM 650 (1954) |
БЭСМ-2 (1958) |
Элементная база |
Феррит-диод |
Электронные лампы |
Лампы + диоды (~9000 эл.) |
Быстродействие |
4 500 оп/с |
~40 оп/с* |
8 000 оп/с |
Длина слова |
18 тритов (~29 бит) |
10 десятичных цифр |
39 бит |
ОЗУ |
81 слово |
60 слов (опц.) |
2 048 слов |
Надежность |
Высокая |
Низкая |
Низкая |
IBM 650 работала на магнитном барабане без быстрой памяти - реальная пропускная способность около 40 инструкций в секунду из-за ожидания нужной позиции барабана. Цифра в 1000 оп/с встречается в маркетинговых материалах IBM.
Это важный момент. Программисты на IBM 650 были вынуждены вручную раскладывать инструкции по позициям барабана - существовала целая техника оптимального программирования, чтобы следующая команда оказывалась под головкой чтения в нужный момент. Если не угадал - машина ждет. По сути, половина программистской работы уходила на борьбу с физикой барабана, а не на задачу.
У Сетуни этой проблемы не было - ферритовые сердечники отвечали за 180 мкс на сложение без всякого ожидания.
БЭСМ-2 быстрее - 4000 ламп и 5000 диодов давали 8000 операций в секунду. Но лампы горят. Реально горят, физически. Ламповые машины того времени требовали замены элементов каждые несколько дней, иногда чаще. При 4000 ламп в системе это постоянная работа технического персонала, запас расходников, простои. Сетунь на феррит-диодной базе работала без этого.
Память - двухуровневая. 81 слово на ферритовых сердечниках как быстрый буфер и магнитный барабан на 2 000 слов с постраничным обменом. Конкретно это давало возможность работать с данными, которые не влезают в быструю память - машина сама подкачивала нужные страницы с барабана. В 1959 году. Это прообраз кэша и виртуальной памяти, которые в учебниках датируются сильно позже.

Сетунь-70 - наша стековая машина за год до Forth
В 1970 году Брусенцов выпустил модернизацию. Архитектурно - полный разрыв с оригиналом, но, увы, ей не суждено было стать серийной и существовала она как исследовательский прототип.
Два аппаратных стека. Стек данных для вычислений и стек возвратов для подпрограмм. Никаких адресов операндов в командах. Программа - поток слогов в обратной польской записи. Это то, что сегодня называют стековой виртуальной машиной.
На ней создали ДССП - Диалоговую систему структурного программирования. Стек, словари, интерпретируемый режим, структурированные конструкции прямо в ISA. Практически то же, что Чарльз Мур сделал с языком Forth в 1968-1970 годах - только независимо и под троичную машину.
С учетом тех лет можно сказать, что это - не совпадение. Это одна и та же инженерная логика, до которой разные люди дошли примерно в одно время. В истории такое встречалось достаточно часто.
А почему производство закрыли?
Кремниевый транзистор к середине 1960-х изменил экономику вычислений. Физика транзистора заточена под два состояния - открыт или закрыт. Три уровня на кремнии требуют дополнительной схемотехники, точных порогов напряжения и дают нестабильность при температурных дрейфах. Феррит-диодная база Сетуни это обходила, но к кремниевым интегральным схемам приспособить троичную логику оказалось нетривиально.
Советская программа ЕС ЭВМ, запущенная в 1968 году, взяла курс на совместимость с IBM System/360. Двоичная архитектура, стандартизация под западные разработки. Оригинальные проекты, в том числе Сетунь, к сожалению, финансировались по остаточному принципу.
Последний экземпляр Сетуни сошел с конвейера Казанского завода математических машин в 1965 году.
Брусенцов продолжал работать до 2014 года - до последнего. Писал статьи, доказывал, что мир свернул не туда.
Возможно, был прав. В 2025-2026 году весь разговор про BitNet b1.58 от Microsoft, получается, фактически тот же вопрос - что если считать не в FP16, а в {-1, 0, +1}? Круг замкнулся, просто через 60 лет и на другом железе.
Коммерческих чипов с нативной тернарной арифметикой по-прежнему нет.
Мы разбирали это подробнее в отдельном материале - что такое однобитные и тернарные нейросети, как работает BitNet b1.58 и где это всё сейчас находится.
Комментарии (63)

YakovlevAndrey
08.05.2026 02:36Собственно, экономический эффект и убил троичную логику. Даже у Сетуни под капотом трит делался из двух битов. О чём автор упомянул.

Hlad
08.05.2026 02:36Кремниевый транзистор к середине 1960-х изменил экономику вычислений. Физика транзистора заточена под два состояния - открыт или закрыт. Три уровня на кремнии требуют дополнительной схемотехники, точных порогов напряжения и дают нестабильность при температурных дрейфах. Феррит-диодная база Сетуни это обходила, но к кремниевым интегральным схемам приспособить троичную логику оказалось нетривиально.
С чего бы это? В этой ЭВМ три уровня собирались из двух двоичных ячеек. Что мешало повторить это в кремнии? История троичной ЭВМ - это классическая история того, как проигнорировали экономику. Серебряные провода вместо медных в проводке в квартире тоже офигенно эффективны, если откинуть экономическую составляющую.

achekalin
08.05.2026 02:36Ну, кто‑то и «музыку через вешалку» слушает, если верить байке.
В IT чаще пляшут от наличие рук и готового ПО. Если я сейчас спаяю комп с байтом из 9 битов, то, наверное, будет клёво, но вот даже CP/M я на неё запарюсь портровать. Это как очень отдалённый пример.
Если строить троичный компьютер общего назначения (как современную «Сетунь»), практической пользы почти не будет. На FPGA или ASIC его можно сделать куда надежнее, чем в 1959 году: нормальная память, ECC, формальная верификация, CI‑тесты, симуляторы, нормальный toolchain. Но это будет либо троичная ISA поверх обычной двоичной физики, либо экспериментальная многоуровневая схемотехника. Интересно, конечно, второе — но сделать и использовать такое... ух сил уйдёт!

radiolok
08.05.2026 02:36А в чем заключается эта математическая неэффективность? Почему вдруг близость тройки к числу е становится более эффетивной?
Сравнивать быстродействие сетуни с ibm650 - спекуляция, так как оно определялось скоростью доступа к памяти, а не особенностями феррита, который проиграет по скорости ламповой ячейке.
Сами же сказали в статье, что в ibm650 использовался магнитный барабан. Будь там ферритовая память а в сетуни барабан - ситуация была бы обратной. У урал-1 был барабан - 100 оп/с. У бэсм-1 - вообще трубки.
В итоге имеем что на данный момент не существует современного ключа, способного нативно работать с тремя состояниями.

YakovlevAndrey
08.05.2026 02:36Автор написал.
Для позиционной системы счисления с основанием r и n разрядами можно записать r^n чисел. Стоимость машины пропорциональна числу элементов - то есть r × n. Если минимизировать это произведение при фиксированном диапазоне чисел, производная обнуляется при r = e ≈ 2.718.
Правда, это верно только теоретически, когда элементы с разными разрядами равны по стоимости. А если трит делается из двух битов вся теория идёт прахом.
Кстати, два - второе целое число после тройки максимально приближенное к e.

CatAssa
08.05.2026 02:36Трайт (tryte) - аналог байта. В Сетуни-70 - 6 тритов. Покрывает 729 значений против 256 у байта при схожей схемотехнике.
...
Трит хранился как два двоичных разряда...
Т.обр., схемотехнически трайт занимал 2х6 = 12 двоичных разрядов. "Покрывает" 4096 значений. Из которых будем использовать 729 значений, ибо идея превыше всего. Что-то я потерял момент, где начинается выгода.
Поднимите мне веки - (с).

unclegluk
08.05.2026 02:36А какая может быть выгода в имитации? Да никакой. Не было радиодеталек для нативных троичных ячеек. Да и сейчас нет.

konst90
08.05.2026 02:36Что-то я потерял момент, где начинается выгода.
Выгода теоретически начинается дальше, когда мы делаем настоящие триты, а не имитируем их. Практически, как мы видим, не началась.
А на этапе модели, понятное дело, никакой выгоды быть не может.

CatAssa
08.05.2026 02:36начинается дальше, когда мы делаем настоящие триты
Так не делаем же. Я понимаю, что экспериментальные исследования, но ведь эти клоуны собрали аж 50 "Сетуней"!

unclegluk
08.05.2026 02:36Ну зачем же клоунами то называть? Ребята сделали хорошую вещь по тем временам. Машинка исправно работала. Даже в серию запустили. Но наблюдался некоторый дефицит тритов, вот рынок и порешал за двоичку.

linux-over
08.05.2026 02:36что круто у троичной системы, так это то, что деление или умножение на три выполняется сдвигом вправо-влево
это невероятно полезно для программирования ПЕРИОДИЧЕСКИХ процессов при моделировании трёхфазных систем: электродвигателей, электросетей и так далее.
в эпоху когда у среднего CPU не было команды деления (она и сегодня у среднего CPU не дешёвая), мы держали значения измерителей периодов (таймеры) в троичной системе. Именно потому, что разделить период на три было просто

Akon32
08.05.2026 02:36Менять схемотехнику под каждую цифру - не выглядит разумным... А если бы вы 5- или 6-фазные системы начали моделировать?

linux-over
08.05.2026 02:36трёхфазные системы электропитания распространены с самого начала. а всё дело в том, что три фазы - это минимальная конфигурация электрической машины НЕ имеющая мёртвых зон (без момента). И в этом месте интересный факт: более трёх фаз - слишком уж расходно будет, менее трёх фаз - слишком уж будет неудобно.
Потому, думаю, и через 10 и через 100 и через 1000 лет человечество будет использовать именно трёхфазные сети и трёхфазные же электродвигатели/электрогенераторы.
Так что троичная система очень бы подходила и к энергетике, если бы использовалась с самого начала. Сегодня, когда компьютеры стали мощными, это уже не важно. Но интересно, что здесь видна новая грань полезности

CatAssa
08.05.2026 02:36троичная система очень бы подходила и к энергетике,
Извините, нет. Не к энергетике, а к выполнению операций деления со степенями тройки.

boulder
08.05.2026 02:36Зато деление/умножение на два становится не простой операцией сдвига, а полноценным алгоритмом!

Kirthgreat4
08.05.2026 02:36Специфический юзкейс. Для контроллеров под электросети может и зашло бы, но делать из этого универсальную архитектуру не было смысла

nerudo
08.05.2026 02:36Когда пишут про двоичную логику, обычно рассказывают: вот такой у нас логический базис. Вот такой формат чисел, вот так мы долго думали и пришли к доп.коду для представления отрицательных чисел и т.д.
Когда пишут про троичную логику - рассказывают что три бита это хорошо, экспонента, все дела и потом начинается ностальгическая песнь ах как жаль, современники не поняли.
Ну если вас правда эта тема интересует - ну напишите, как в той сетуни была реализована логика, как хранили числа, по каким правилам складывали и умножали.

Akon32
08.05.2026 02:36напишите, как в той сетуни была реализована логика, как хранили числа, по каким правилам складывали и умножали.
По-моему, лет 10-15 назад даже на хабре была статья на эту тему... (но если погуглить, статьи есть, но описание троичной логики неглубокое)
Всё сводится к другим таблицам операций, особенно логических. Сложно, но имхо ничего особенно интересного или полезного. Просто таблицы истинности в несколько раз больше.

Kreuzfeuer
08.05.2026 02:36Классические моп-транзисторы работают на инверсии типа проводимости канала, поэтому три стабильных состояния они выдать не способны физически. А если проектировать тристабильные ключи на другом принципе, это будет долго и сверхдорого даже при наличии теоретических наработок.

longtolik
08.05.2026 02:36Не уверен, что по теме, но встречалось доказательство, что оптимально для представления информации словарь должен состоять из четырех "букв". И именно поэтому для хранения информации ДНК использует 4 элемента.

Akon32
08.05.2026 02:36Оптимально в каких условиях?

longtolik
08.05.2026 02:36Наверное, во всех условиях. В исследовании озадачились, какой оптимальный размер элемента, которым эффективно кодировать информацию. То есть, в нашем словаре 33 буквы, в латинском - 26, текст (частный случай) можно записывать в виде байтов по восемь бит, можно в Radix50 помещать 3 символа в 2 байта и т.д.
Словарь может состоять из букв, из слов, из целых предложений или абзацев (или вообще целых документов).
Если у нас словарь из предложений, то мы можем записать так: 1 - предложение №1, 2 - предложение №2, ... У нас текст (или информация) будет выглядеть так: 3, 2, 9, 15, например. Но при этом размер словаря будет очень большой, так как каждый символ соответствует целому предложению. Это как векторные базы, один вектор может соответствовать целому абзацу или документу.Информация передается так: мы даем текст и плюс словарь для этого текста.
С другой стороны, если в словаре буквы, как у нас, тогда словарь маленький (26...33 букваы) но текст получается большой. Тоже не лучший вариант.
Построили график функции, по одной оси - размер словаря, по другой - количество информации (размер самого текста + размер словаря). В итоге получилось, что при числе символов в словаре, равном 4, у нас будет самый эффективный способ передачи информации.
Вот это и связали с ДНК, дескать, природа тоже выбрала самый оптимальный вариант кодирования - всего из 4 символов.
Связывая это с материалом статьи, можно предположить, что лучше всего в ячейке или одном элементе (атомарном) памяти хранить 4 уровня сигнала, а не 2 (как в бите) и не 3 (как в трите).
Также можно добавить, что есть элементы памяти, в которых данные хранятся не в виде 0 или 1, а в виде нескольких уровней напряжения. Например, MLC во Flash памяти.

vShadow
08.05.2026 02:36И именно поэтому для хранения информации ДНК использует 4 элемента.
Именно ли поэтому? Они комплиментарные, возможны всего две пары: А-Т, Г-Ц - получается хитрая двоичная система с резервированием (защита от ошибок?).

longtolik
08.05.2026 02:36
Это mRNA. Каждый кодон состоит из трех нуклеотидов.В ДНК вместо U (урацил) присутствует T (тимин).

Yonker
08.05.2026 02:36Очередная статья сгенерированная с помощью ИИ. И как мне понять где тут правда, а где галлюцинация?

Toresso
08.05.2026 02:36Никак, но не стоит делать ложной дихотомии, если статья написана человеком - галлюцинаций там может быть не меньше, а даже больше. Поэтому фильтровать статьи по источнику написания (или просто вычитки и формата, а не источника) нерационально.

Oncenweek
08.05.2026 02:36Человек, когда пишет в статье ошибочную информацию, редко выдумывает ее прям на месте из головы, а чаще транслирует какое-то пусть неверное, но реально существующее мнение/информацию. ЛЛм-ки же на голубом глазу генерируют мегатонны полного бреда, каждый из которого верифицировать жизни не хватит, так что правильный подход - нейрослоп в dev/null даже не читая

Toresso
08.05.2026 02:36Так речь о том что прогоняют через нейронки сырой текст даже те кто ленится оформить текст самому, а не лишь те кто просят написать технический пост полностью с нуля. Разница между "напиши статью об этом" и "сделай из этой информации статью" как небо и земля как раз в отсутствии мегатонн бреда, а верифицировать приходится любую информацию если собираешься ее применять. Никто не мешает нейрослоп прогнать через другой нейрослоп с требованием написать с ошибками и более косноязычным языком, встречал и такое и чем больше отсеивают нейрослоп явный тем чаще будет появляться нейрослоп "под прикрытием".

Oncenweek
08.05.2026 02:36А где гарантия, что нейронка не засунула пару тройку галлюцинация в черновик статьи? Если автор ленится сам ее причесать, откуда я знаю, что он ее вычитал обратно после ЛЛМки, и что черновик действительно был, а не как вы сказали “напиши статью об этом”? В наш век низкосортного нейрослопа проще его вообще игнорировать, а не разбираться в сортах коричневого

Toresso
08.05.2026 02:36Нельзя быть уверенным что человек свой черновик (и даже чистовик) написал проведя фактчекинг и вычистив оттуда какую-то глупую мысль с бодуна, что приводит нас к извечному мусору в интернете сквозь который найти что-то стоящее сложно. И нейрослоп позволил производить мусор в куда большем количестве и в куда более пристойном виде. Спорить тут не о чем и базовый фильтр на явный и незатейливый промт для оформления статей экономит много времени, нет цели переубедить в этом

Oncenweek
08.05.2026 02:36Нельзя, но повторюсь: глупые мысли людей берутся не с потолка - это или ошибочный, но существующий в инфополе факт, либо ошибочная интерпретация фактов самим автором, то есть в случае с человеком, даже за ошибкой что-то стоит, а это сужает пространство. Ну то есть человек может написать что-то вроде “как известно, викинги носили шлемы с рогами” и тут чутка эрудированный читатель сразу заметит ошибку, а менее эрудированный тоже быстро при желании найдет опровержение этого факта. ЛЛМка же запросто выдаст что-то вроде “как известно викинги носили шлемы с мордами кабанов” и этот бред уже так просто глазом не выцепится. Поскольку нейронки генерят в основном бред проще и надежнее их сразу игнорировать, таким образом вероятность бреда в читаемом сразу снижается с 99.99% до преемлимых 70

saipr
08.05.2026 02:36Не знаю рассказывают ли сейчас в вуз-ах, готовящих IT-специалистов о троичной логике, о тритах, о Брусенцове и его "Сетуне", но когда я учился в первой половине 70-х годов на инженера-программиста мы с восхищением слушали лекции об этих чудесах. Тогда казалось - ещё немного, ешё чуть-чуть и ....

victor_1212
08.05.2026 02:36... еще немного, еще чуть-чуть и ...
согласен, именно так, мне тоже жаль того времени, деревья были как-то зеленее :)

Toresso
08.05.2026 02:36Не знаю про сейчас, но лет десять назад в топ 3 технических вузов точно нет, по личному опыту и опыту знакомых из тех вузов где не учился лично.

Bardakan
08.05.2026 02:3611 → запрещено, не используется
Из четырех возможных состояний - три рабочих. Не настоящая троичная физика на трех уровнях напряжения, но функционально эквивалентно. И это работало.
Объясните. Т.е. это всегда была двоичная логика, а кому-то захотелось выпендриться и сделать 3 значения вместо двух или четырех?

CatAssa
08.05.2026 02:36Да, полный дебилизм. Был адский дефицит современной (полупроводники) элементной базы, и эти товарищи наладили производство самодельные феррит-диодных ячеек. У ферритового колечка два устойчивых состояния, и эти клоуны для имитации одного трита использовали пару клечек. Похоже на тупое проедание гранта, да, но в данном случае грант вылился в госзаказ.

Anarchist
08.05.2026 02:36На самом деле тема и правда интересная. Представление отрицательных чисел в двоичной системе несколько костыльно. А в симметричной троичной системе оно естественно.

Anarchist
08.05.2026 02:36А вообще чисто теоретически, если забыть о существующих решениях, стоимостях миграции и разработки, можно ли построить компьютер на базе симметричной троичной системы, который был бы экономически не менее эффективным, чем на двоичной? Есть там фундаментальные проблемы?

Aelliari
08.05.2026 02:36Отсутствие элементной базы. Это и есть фундаментальная проблема. На КМОП хорошо строить двоичную. Строить из двоичной - троичную уже не хорошо
С точки зрения логики - вполне вероятно построить было бы можно

Anarchist
08.05.2026 02:36Допустим, у нас неограниченные ресурсы на разработку. Я немного об ином - возможна ли эффективная реализация в принципе. Нет ли физических или технических ограничений.

Oncenweek
08.05.2026 02:36Есть проблема со скоростью: если для условной двоичной 5-вольтовой логической схемы 1 будет пусть от 0т 3в до 5в, а 0 от 0.2в до 1.5в, то схема может переключаться в состояние 1 уже по достижении 3в на нарастающем фронте и 1.5 на убывающем, в троичной же логике схема должны будет ждать некоторое время чтоб понять, что напряжение устаканилось, и это реально 1, а не растущий фронт до 2

CatAssa
08.05.2026 02:36Совершенно не понимаю восторгов, связанных с этим технологическим и логическим выкидышем. Были же и нормальные, "классические" (и современные для того времени) разработки - буквально в то же время (1959): например, ЭВМ "Днепр", которая была "на транзисторах", была выпущена тиражом в 500 экз и применялась в системах управления производствами, в оборонке, в космосе, САПР, в медицине, синтезе звука, управлении экпериментами...

lostero
08.05.2026 02:36Тройка оптимальна для многих реальных задач (те же задачки с гирями), т.к. теоретически получается макс. плотность информации на единицу трёхстабильного элемента.
Минус только в сложности переключения в трёхстабильных элементах (либо энергопотребление большое, либо переключение долгое, либо другие минусы). Хотя патенты только в путь клепают по ним, но из них не очень ясно приемлемы ли они для реального применения или просто кто-то вышел покурить-подумать и придумал фигню.
Для передачи большого кол-ва информации лучше использовать троичную систему (напр. на оптоволокне и спец. лазерах), т.к. 661578 разряд в троичной хранит больше информации чем 1048576 разрядов в двоичной и нужно передавать сигнал в ~1.584962 (для 64 байтов [мин. ethernet пакет] - 512 бит, что меньше информации в 324 тритах, кол-во необходимых сигналов для передачи сокращается в ~1.580247 раз) раза меньшее кол-во раз - время передачи сокращается, расход энергии сокращается. Больше информации за раз - больше экономия. Напр., для видео/аудио и пр. больших объёмов, для небольших - лучше двоичными, т.к. там разница в ~1.5 раза и выгода от использования пары трёхстабильных элементов для передачи троичных данных стремится к 0.
Т.е. и троичный процессор должен работать с блоками, а не с отдельными тритами (SIMD), чтобы выгода была отлична от 0 по объёму схемотехники и энергопотреблению. Т.е. не для обычных пользователей, т.к. кач-во кода в таких системах не впечатляет (от ОС и до пользовательских программ).

ameliya_pavlova
08.05.2026 02:36Если трит всё равно приходится собирать из двух битов, то магия эффективности как-то быстро заканчивается

ss-pol
08.05.2026 02:36С логической (не физической) точки зрения наши компы не двоичные, а 256-ричные, потому что минимальный объём адресуемой ячейки памяти - 8 бит или байт. Мы не можем расположить переменную произвольно в памяти с точностью до бита, не может оперировать типами с размером не кратным 8 бит, без дополнительного слоя симуляции двоичной системы. Двоичность современных компов проявляется только на уровне железа и вовсе не видна в софте. На логическом уровне мы может рассматривать наши компы как 256ричные, это будет правильней.
Поэтому физический 256ричный бит отлично впишется в имеющуюся инфраструктуры, не придётся даже софт переделывать. Всё просто заработает!
А уж если извращаться, то тогда лучше сразу десятичный бит, там есть свои преимущества.

ss-pol
08.05.2026 02:36Как минимум такое утверждение точно справедливо - 256-ричные процессоры, будь они созданы, могли бы быть очень легко интегрированы в имеющуюся железную инфраструктуру, с минимумом переделок, а софт вообще не потребует переделок.
Возможно оптические вычисления позволят создать такие процессоры?

AlexAV1000
08.05.2026 02:36К чему уж эти полумеры. Сейчас уже делают квантовые компьютеры на кубитах с бесконечным числом состояний. ;)

Kirthgreat4
08.05.2026 02:36Красивый инженерный концепт для своего времени, но выживает не самое элегантное решение, а то которое дешевле масштабировать на миллиарды транзисторов
Kreuzfeuer
А их и не будет, потому что:
1. Запуск техпроцесса невероятно дорог, на порядки больше производства чипов.
Плюс САПР для этого придется писать с нуля, а также, подозреваю переписывать часть уже накопленной кодовой базы.
2. Для современных процов со средним числом транзисторов в 6-8 млрд. троичный аналог (не важно в симметричной или несимметричной сс) в лучшем случае будет иметь число транзисторов х1,585, а по факту х3, с соответствующим увеличением площади кристалла и снижением КВГ.
Чиплетный финт ушами конечно может помочь с КВГ, но площадь не уменьшит.
Любая попытка уменьшить число транзисторов на вентиль утыкается либо в огромные сквозные токи при переключении, либо в пункт 1 из-за использования нестандартных МОП транзисторов с дополнительными активными областями.
3. Никто не считал насколько реально это снизит затраты ресурсов и выйдет ли вообще в плюс с учетом вложений, т. е. экономический эффект туманный.