Давно уже пришла пора выбросить на помойку идею арифметико-логических устройств (в просторечии АЛУ), на которых работают ваши и наши компьютеры (ибо именно из-за них все эти технологии перестали быть достаточно круты, чтобы делать действительно клевые штуки не только в фильмах Ридли Скотта), но воз и ныне там.

кладбище 0 и 1 подразумевает красноречивую метафору ограниченности и гибели старого мира
кладбище 0 и 1 подразумевает красноречивую метафору ограниченности и гибели старого мира

С момента изобретения триггеров сто лет назад задачи, которые мы пытаемся решать с помощью тех же триггеров, несколько изменились: мы пытаемся делать автопилоты, системы компьютерного зрения, сложные модели мира — и продолжаем решать всё той же логикой, придуманной под совсем другой масштаб и другой уровень сложности. Технически можно, но стоимость этого "можно" возросла дальше некуда, а потолок возможностей всё ближе. Нужен другой подход.

Сейчас расскажем, какой:)

Как работает АЛУ

(Если вы вдруг не знаете, как работает АЛУ, то что вы делаете на хабре?) Прочитайте википедию или любую статью на эту тему (например, на study.com)

Зачем мы это прочитали?

Все длинные и многословные (как эта) статьи про АЛУ в итоге сводятся к тому, что АЛУ выполняет примитивные операции. Это не значит, что АЛУ – это плохое, примитивное устройство. Это значит, что оно выполняет примитивные операции.

Ну и что?

Ну и то, что набор команд, который используется в АЛУ, никому на самом деле не нужен. То есть конкретно вам не нужно выполнять операцию десятичной арифметики, а тем более высшей математики через двоичную систему счисления. Это же крайне неудобный для человека способ решения “семь умножить на восемь”, согласитесь. 

Все это нужно компьютеру, потому что по-другому современные компьютеры не умеют. Вы не будете умножать в уме 7 на 8 так, как это потом будет сделано на компьютере. А если это будет не “7 на 8”, а сложение или не дай бог перемножение скольких-то там миллиардов со сколькими-то там миллиардами, то способом, каким это решает компьютер, лично вы никогда не сможете решить этот пример, даже если захотите – вам не хватит жизни. Для таких задачек люди придумали потрясающий способ сложения, умножения и деления “в столбик”, которому учат в начальной школе. Есть гении, которые моментально складывают, перемножают, делят любые числа в уме - но есть подозрение, что они делают это не таким способом, как это делает компьютер.

И что?!

Итак, АЛУ - это про то, как выполнить на компьютере требуемую человеку операцию хоть каким-то способом – удобным, собственно, для самого компьютера. 

И этот способ почему-то уже слишком долгое время считается чуть ли не единственно возможным. А всё из-за того, что кто-то умный сто лет назад придумал триггер, работа которого основана на алгебре логики, которую придумал Буль почти двести лет назад, которая основана на двоичной системе счисления, которую придумал Лейбниц больше трехсот лет назад, который подсмотрел ее в китайской Книге Перемен, которой как минимум две тысячи семьсот лет. 

иллюстрация как бы говорит нам, что ничто не ново под луной
иллюстрация как бы говорит нам, что ничто не ново под луной

И спустя пару десятков лет после изобретения триггера появились первые ЭВМ. Поскольку ничего больше толком предложено не было (а зачем предлагать, если все и так прекрасно работает - миллиарды складываются и перемножаются, а больше, по сути, от ЭВМ (электронно-(внимание!) вычислительной машины) ничего и не требовалось до недавнего времени), то теперь все бесконечное число девайсов вокруг нас всю информацию хранят и оперируют ею в виде 0 и 1. 

В середине прошлого века для решения тогдашних прикладных задач это было удобно. Но ведь задачи с тех пор изменились, согласитесь. Количество информации и данных, которые пытаются обрабатывать с помощью компьютеров для решения новых задач, стало прямо-таки титанически огромным. Взять "хотя бы" Full Self Driving систему, над которой бьется вся передовая мировая автопромышленность. Но не кажется ли вам, что нулей и единиц уже недостаточно для решения таких новых задач? Похоже, просто все привыкли пользоваться этими элементарными единицами информации, и, несмотря на их очевидное неудобство, продолжают их использовать.

В итоге задачи и их решение, да и само развитие ИТ, ограничено уже на уровне этих самых элементарных единиц, 0 и 1. На самом деле это очень сильная (простите за нескромность) мысль. Нули и единицы задают тон, тренд, являются альфой и омегой ИТ-мира, потому что определяют, какими должны быть архитектура компьютера, какими должны быть решения задач и в конце концов какие это должны быть задачи. Степень влияния нулей и единиц на результат такова, что мы бы назвали ее неотвратимой степенью влияния. Нули и единицы определили и определяют до сих пор направление развития информационных технологий – а заодно и их ограниченность. Это никого не смущало (и, прямо скажем, не многих смущает до сих пор), потому что количество практических задач, которые можно решать таким способом, впечатляет.

Арифметико-логический паровой двигатель

буквально: ракета на паровом двигателе
буквально: ракета на паровом двигателе

Но спросите себя, насколько плох паровой двигатель? Согласимся, вопрос сам по себе глупый. Для 19 века это было потрясающим изобретением. Оно таковым и остается, поскольку повлияло буквально на всю человеческую цивилизацию, примерно как огонь Прометея, окультуривание пшеницы, изобретение металлических орудий и оружия, футбол и пенициллин. 

И все-таки странно было бы сегодня заявлять, что паровая тяга - единственно возможная, самая эффективная, самая эргономичная и самая подходящая для решения большинства практических задач, стоящих перед человечеством. Да, когда-то паровой двигатель двигал автомобили (локомобили), паровозы, станки, совершил промышленную революцию во всем мире. 

Сейчас мы с вами уверены, что парового двигателя было бы недостаточно для решения всех современных задач, хотя теоретически, наверно, можно представить, как все вокруг работает на паровой тяге. Может быть и в космос можно было полететь на паровой тяге, только зачем? Даже двигателя внутреннего сгорания уже недостаточно для задач, которые стоят перед одной из самых консервативных отраслей в мире – автомобилестроением. 

Тем не менее прямо сейчас на технологиях почти столетней давности – триггерах с их нулями и единицами – гигантские корпорации пытаются разработать нечто принципиально новое. Компании, R&D команды, ученые по всему миру пытаются решать качественно новые задачи, задачи качественно другого уровня сложности – но все они ограничены всё теми же вводными 0 и 1, то есть решают эти принципиально новые, невероятные задачи принципиально старым способом, неудобным для этих задач. И даже так называемый искусственный так называемый интеллект ничего в этом смысле не меняет. А даже и наоборот. Это примерно как запускать на Луну ракету на паровой тяге. Вероятно, и эту задачу можно решить таким вот способом. Но какой ценой? 

Задачи становятся всё сложнее и сложнее, можно даже сказать всё смелее и смелее, и на их решение тратится всё больше и больше ресурсов – финансовых и интеллектуальных – просто потому, что чем сложнее задача, тем неудобней для их решения современные технологии, основанные на 0 и 1, и тем больше нужно ресурсов, чтобы старым когда-то добрым способом решить новые задачи. Никто об этом не думает, но и никто уже не считается с затратами, не рассчитывает эффективность проектов, надувая огромный пузырь экстенсивного развития, в котором какие-то задачи решаются просто ради решения, а не их практического применения (которое часто невозможно, потому что это оказывается слишком дорого даже для всех денег мира). 

Давайте прямо скажем: некогда скоростное шоссе перешло в тропинку, ведущую в топкое болото.  Современные технологии во многом себя исчерпали. Да, триггер и АЛУ – тоже (как паровой двигатель в 19 веке) потрясающее изобретение для 20 века. Да, можно изобрести еще огромное количество устройств, разработать приложений, решить задач с помощью ИИ и МО. Но то, к чему все сегодня свелось, можно по сути описать так: “Нам нужно решить какую-то особенно сложную задачу, которую раньше никто не решал. Давайте просто увеличим мощность парового двигателя, или поставим рядом 100 самых мощных паровых двигателей и получим супер мощную машину, которая сможет…да вот, например, полететь в космос”. Скажете, раньше транзисторы были огромные, ламповые, а теперь стали наноразмерные и полупроводниковые? Безусловно, но ведь внутренняя логика осталась неизменной. Гонка процессоров за увеличение производительности ведется за счет увеличения количества транзисторов на единицу площади, но по своей сути ничего не меняется. Человечество подошло к черте, которую не преодолеть традиционными, привычными методами.  

Сейчас у нас есть нули и единицы, придуманные Лейбницем (который подсмотрел их у древних китайцев), затем с их помощью Булем была разработана алгебра логики, но на этом как-то все и остановилось (не считая, конечно, того, что на внутреннем уровне в АЛУ увеличилось количество выполняемых операций по сравнению с первоначальным замыслом создателя триггера - но, опять-таки,  это ничего не меняет в принципе). В результате сегодняшние АЛУ является частью процессора и эти АЛУ считают свои гениально примитивные  задачки, но они, увы, на самом деле ничего не решают. В компьютере гениально простая алгебра логики переводится в сложную математику – ее на это обрекают программисты, поскольку только в таком виде они умеют ставить задачи и контролировать процесс получения решения. Это и называется “программировать”.

Получается, нужен какой-то другой АЛУ, да?

Да, но не только другой АЛУ. Нужен другой АЛУ, который будет работать не как АЛУ, не с 0 и 1. Например, как вы знаете или догадываетесь, наш мозг для принятия решений (вычислений) не использует ни высшую математику, ни 0 и 1. Нам ничего из этого не нужно, чтобы поймать мяч. Мы производим нужные нам вычисления как-то иначе. Но почему бы тогда не представить такое Устройство, которое тоже умеет делать вычисления, а точнее работать с информацией (собирать, обрабатывать, принимать решения) без использования алгебры логики и без сложной математики дифференциалов и квадратных корней. 

Нам нужно нечто другое, не АЛУ, а какое-то другое “У”. Устройство, которое будет воспринимать информацию. Назовем это устройство пока персиватором или персивером, от глагола to perceive, воспринимать, по аналогии со словом “процессор”.

Чем нас не устраивает слово “обработчик” (процессор)? Говоря про обработку информации, мы отсекаем львиную долю важных стадий работы с информацией. Ведь сначала информацию нужно каким-то образом собрать “как есть” и только затем уже что-то с ней делать, как-то ее обрабатывать, что-то вычислять, то есть принимать решение – всё то, с чем так прекрасно справляется наш мозг.  

Поэтому наше гипотетическое устройство должно работать с информацией на более низком уровне, которое умеет принимать и обрабатывать информацию как она есть, а не представленную в виде 0 и 1 – то есть прям как мозг. Соответственно, у такого устройства, которое мы только что очень удачно назвали персиватором/персивером, на входе должны быть другие элементарные единицы, которые должны взаимодействовать между собой по иным законам, чем 0 и 1 в АЛУ.

Если не 0 и 1 - то что?

Как вы уже (не)догадываетесь, у нас есть ответ. И этот ответ – уже легендарная TAPe (Theory of the Active Perception), которая описывает, как человеческий мозг воспринимает информацию. TAPe - это новый способ обработки информации, который, как вы уже тоже догадались, мы и предлагаем использовать в этих персиваторах/персиверах.

Когда мы говорим, что такие устройства должны работать с информацией как наш мозг, нужно уточнить одну вещь. На самом деле теорий, объясняющих, как это делает наш мозг, довольно много, при этом нет какой-то одной главной, принимаемой всеми учеными за истину. Поэтому как именно наш мозг обрабатывает информацию никто не знает. Но мы небезосновательно надеемся (небезосновательно – просто потому, что, в отличие от всех остальных коллег-ученых, у нас есть работающие технологии на основе нашей теории), что TAPe сильно ближе других технологий и алгоритмов к восприятию и обработке информации так, как это делает мозг. Другими словами, TAPe (пока) – не теория устройства и функционирования мозга, TAPe – это логика, метод, который более точно описывает работу мозга, чем технологии, использующие высшую математику, которая никакого отношения к работе мозга не имеет.

Короче говоря, персиватор/персивер, о котором мы говорим как о замене АЛУ, мог бы работать на основе TAPe, используя в качестве элементарных единиц не 0 и 1, а элементарные единицы TAPe.

Proof of concept

На основе TAPe уже созданы технологии и продукты, которые на порядки эффективней позволяют работать с видео. Да, компания еще не стала “единорогом”, и было бы здорово жить в мире, в котором все было бы немного проще. Но пока все работает по старому доброму правилу “Идея гениальной инновации стоит 1$, разработка продуктов на ее основе - 10$, а продажа этих продуктов - уже 100$”. В реальности эта геометрическая прогрессия выглядит еще неприятней. 

Тем не менее, первые две стадии мы уже прошли и спокойно зашли на территорию третьей: мы создали кучу всего, в том числе первый (и единственный) в мире сервис поиска видео по видео (именно по видео, а не по описанию, кадру и тд). В режиме реального времени, практически моментально в огромных массивах видео можно искать и находить (или не находить) нужные вам совпадения. Фактически, мы обрабатываем и сравниваем мгновенно года видео. Кстати, Google потратил на разработку в чем-то похожей технологии $100 млн (и продолжает тратить деньги на ее поддержку) на Content ID - систему, которая следит за соблюдением авторских прав на YouTube. Для разработки Content ID были привлечены действительно лучшие умы в том числе в области искусственного интеллекта, включая легендарного Джеффри Хинтона. 

$100 млн, больше десяти лет, лучшие умы для решения на самом деле не самой сложной задачи – вот что мы имеем в виду, когда говорим о недостаточности 0/1, о том, что эта концепция уже себя исчерпала и что для решения современных задач старыми способами требуется все больше ресурсов. 

В то же время нашей технологии благодаря TAPe для решения тех же самых задач не требуются такие основополагающие понятия в области ИИ/МО, computer vision и пр., как градиентный спуск или операция свертки. TAPe одномоментно снимает с любого изображения ключевые признаки, по которым это изображение распознается. При этом таких признаков в TAPe всегда минимально достаточное количество (то есть оптимальное), TAPe “узнает” их автоматически.

А при чем здесь АЛУ?

Современные компьютеры на паровой тяге с их АЛУ не дают развернуться TAPe во всей ее мощи. TAPe основана и работает с принципиально другими единицами информации, которые сами по себе являются значимыми – в отличие от 0 и 1. Это в том числе значит, что на единицу информации в TAPe  приходится на порядки (на порядки порядков) больше значимой информации, чем в одном старом-добром бите. Но поскольку TAPe приходится иметь дело с данными, представленными в виде 0 и 1, то эти данные приходится конвертировать в нужный для TAPe формат, затем конвертировать обратно…И все равно эффективность технологий  в области видео на базе TAPe гигантски превосходит “традиционные” технологии. Остается только догадываться (а мы догадываемся), каких результатов можно будет добиться, если построить компьютер, обрабатывающий информацию не через 0 и 1, а через элементарные единицы TAPe. 

Но что это должен быть за компьютер? Может быть – барабанная дробь – квантовый? Или, хе-хе, нейроморфный? Или еще какое-нибудь маркетинговое чудо-юдо? Но откройте любую статью о квантовых или нейроморфных процессорах, и вы увидите, что в основе этих инноваций лежат всё те же старые добрые АЛУ с их традиционной алгеброй логики, а значит и всё с теми же 0 и 1. Однако такой алгебры логики  явно уже сейчас, для современных CPU, недостаточно для решения текущих задач. Здесь (здесь – то есть уже вообще везде) нужен изначально другой подход, другие принципы, чтобы перестать запускать ракеты в космос на ста паровых двигателях. Нужны не просто принципиально другие устройства (не-АЛУ), а нужны такие не-АЛУ, которые будут работать на других вычислительных методах.

Да, АЛУ и двоичная логика сделали возможным весь нынешний цифровой мир, и в этом смысле они по значимости действительно соседствуют с колесом, паровым двигателем и электричеством. Но мы пытаемся запускать в «космос» задачи нового уровня сложности, продолжая наращивать мощность всё того же парового двигателя: больше транзисторов, больше флопсов, больше дата‑центров — вместо того чтобы сменить сам принцип работы с информацией.

Если мы хотим выйти из этого неминуемого тупика, нам нужны устройства, которые изначально работают не с 0 и 1, а с другими элементарными единицами — более насыщенными и ближе к тому, как информация обрабатывается мозгом. Мы считаем, что TAPe может стать фундаментом для таких устройств: не‑АЛУ, персиваторов, которые не «вычисляют» в привычном смысле, а воспринимают и преобразуют реальность иначе (не как компьютеры). Тогда вопрос будет уже не в том, «как ещё ускорить старый двигатель», а в том, кто первым построит этот новый класс машин.

Короче говоря, мы считаем, что именно TAPe может стать тем, что освободит современный мир от гнета нулей и единиц. Ну или хотя бы позволит создать принципиально другое устройство, персиватор/персивер, который станет основой дивного нового мира.

Аминь.  

Комментарии (16)


  1. lori1970
    30.04.2026 22:44

    Все что выпишите это из области квантовых вычислений и квантовых компьютеров. Ни того ни другого для широкого потребителя до сих пор нет и видимо не скоро появится.


    1. vkrasikov
      30.04.2026 22:44

      Правильнее будет "все, что вы генерируете..."


  1. fire64
    30.04.2026 22:44

    В чем-то с вами согласен.

    Например миры стимпанка, где в альтернативной реальности наука пошла не по пути совершенствования технологий и перехода от устаревших к новым, а к наращиванию мощности уже имеющихся, где строились гигантские паровые двигатели и т.д.

    В какой-то степени это касается и современных технологий, когда увеличение результативности взаимосвязано с увеличением мощности. Те же видеокарты RTX5090 потребляющие до 900Вт. если сравнивать их скажем с древними моделями. Возможно действительно мы сейчас упираемся в ограничения подхода и нужно двигаться куда-то дальше, а не наращивать мощности...

    Другое дело, что это требует изменения всей концепции современного рынка, а это проблема, ибо ранок и потребители консервативны и пока их устраивает нынешняя ситуация, менять свой подход они не будут.

    Переход от паровых двигателей к двигателям внутреннего сгорания был сильно проще. Автомобиль тогда все ещё был диковинкой, а не товаром массового потребления.


  1. Spyman
    30.04.2026 22:44

    Вы серьезно считаете что первым придумали концепцию аналоговых вычислений?

    Для того, чтобы понять что не так со всей статьей - вам стоит найти ответы на то - почему собственно выбрали двоичную системум счисления для ПК, какие минусы есть у аналогового сигнала.

    А потом вам следует внимательно перечитать статьи про квантовые и нейроморфные процессоры, потому что вы видимо дальше маркетинговой части не ушли.

    Квантовые компьютеры используют не бит данных а неожиданно кубит, который является не 0 и 1 а суперпозицией всех состояний (можно сказать что диапазоном значений 1..0 включая все промежуточные) а операции (квантовые вентили) как раз являются поворотом этого значения или группы в рамках диапазона. Это значит что в момент вычислений - вычисления как раз ведутся с данными во всем диапазоне, а уже результат становится конкретным значением. (Условно вы можете сделать от начального нуля 2 поворота на +30% потом 1 на -15% и получить 0 с бОльшей вероятностью), с битами вы не можете выполнять операции частичного изменения.

    Нейроморфные процессоры (не все но многие например dynap-se или imchip или ещё десяток разработок) вполне себе работают с аналоговым сигналом, который представляет из себя не 0 или 1 - а опять-же - произвольное значение. Но ограничены конкретной логикой (не являются машиной Тьюринга, и не могут решать задачи универсально).

    Ну и предвосхищая ваш комментарий, про то, что вы предлагаете не аналоговый сигнал, а детерминированный но большим количеством уровней чем 2, то сразу отвечу - во первых чипы на троичной например логике уже были во времена СССР и ранних этапов разработки процессоров, во вторых - от идеи в итоге ушли, потому что любая детерминированная система схлопывается в двоичную с большей эффективностью. Можно считать что объем и сложность элемента управления растет ~квадратично к количеству управляемых состояний, и "транзистор" для управления 4 состояниями бита будет в 16 раз больше и сложнее (одинарного) и в 8 раз больше и сложнее двоичной схемы решающей ту-же задачу.


    1. oopatow Автор
      30.04.2026 22:44

      обратите внимание, что я ни слова не сказал про аналоговость


      1. Spyman
        30.04.2026 22:44

        Обратите внимание, я что предвосхитил ваш комментарий в конце своего.


        1. morginalium8
          30.04.2026 22:44


    1. oopatow Автор
      30.04.2026 22:44

      Вы как будто исходите из предпосылки, что мы не знаем, почему собственно выбрали двоичную систему. Но мы как раз знаем)

      Вы рассуждаете в предметных областях, вам знакомых, и это понятно. Отсылки к советскому наследию, аналоговым схемам и т.д. Всё это довольно хорошо описано, изучено и, на наш взгляд, в контексте TAPe описывает происходящее неверно). Неверно именно с точки зрения той картины, в рамках которой мы работаем.

      Не хочется вести дискуссию в логике «квантовость»,«аналоговость» — просто потому, что для нас эта ветка бесперспективна. Объяснять, почему именно мы так считаем, особого смысла тоже не видим: мы занимаемся своим делом и движемся по своей траектории. Пусть эта бесперспективность (для нас) спокойно реализуется сама. Если когда‑нибудь существующие TAPe‑механизмы и алгоритмы действительно понадобится положить на что‑то, что будет называться «квантовым» железом, мы вернёмся к этому в тот момент, когда это действительно станет нужно. Аналоговость — где‑то в той же корзине.  

      Сегодня слово «квантовость» настолько аморфно, что местами уже похоже на амёбу: формально как будто что‑то есть, но в практическом смысле всё это пока довольно сыро. Все эти шрёдингеровские коты, гейзенберги, алгоритмы Шора, канадские стартапы формата «deep‑что‑то» — вокруг них до сих пор идут споры, где там реальная квантовость, а где нет. Разговоры про кубиты, ионы и прочее сейчас больше похожи на зачаточную стадию чего‑то будущего, в сторону чего мы просто осознанно не смотрим.

      У нас есть конкретные результаты, к которым мы шли шаг за шагом и продолжаем идти. Про эти результаты мы в том числе здесь рассказываем. В этой точке вы можете либо принять их как есть, либо считать, что мы всё это придумали, или, как сказал один из наших потенциальных клиентов, «всё это сейчас за вас пишет ChatGPT». Мы не собираемся бить себя пяткой в грудь и доказывать, что мы не мошенники и не дилетанты — это ваше право так думать. Тот же чел продолжил «если представить, что вы действительно сделали это на своей истории, минуя ChatGPT или, скажем, YOLO, получается, вам надо было выдать Нобелевскую премию еще вчера». Эта гипотеза нам, честно говоря, нравится больше:) хотя за Нобелевкой мы не гоняемся по вполне приземлённым причинам.  Троичность, кубиты, аналоговость и прочие ярлыки – это все мимо.

      Гораздо интереснее другой вопрос: в какой момент при переходе к двоичности (0/1, −1/1 и т.п.) произошло «отдискретивание», и не было ли там заведено некое явление, которое в итоге использовали минимально. Наша тейповая идея не вступает в противоречие ни с кубитами, ни с дискретностью, ни с тезисом о том, что кодирование в 0/1 эффективно. Вопрос только: эффективнее по сравнению с чем и за счёт чего именно? Для нас очевидно, что в момент перехода к 0/1 по дороге потеряли несколько важных нюансов. Здесь мы можем разве что слегка подтолкнуть вас к тому, в какую сторону мы сами рассуждаем.  

      С нашей точки зрения, в двоичности проявилась очень маленькая часть гораздо более крупного явления, извините, вселенского масштаба — дихотомии. В 0/1 эта дихотомия присутствует, но реализована в минимальном возможном виде. 

      Именно она, дихотомия, создаёт всю вычислительную конструкцию, на данный момент построенную  на двоичности.

      Но дихотомия существенно мощнее, чем то, как она используется в классической двоичной архитектуре. Потеря «поздних» дихотомических операций приводит к тому, что любой элемент, описанный как последовательность нулей и единиц, не содержит внутри себя явных дополнительных структурных связей. Каждый раз их приходится извлекать заново. Да, эти структуры там есть, и практика показывает, что их можно найти — но за очень немалые усилия.  

      А есть другие способы, мы их открыли, мы их знаем и мы их применяем. Мы как-то проводили тестирование видеокарт NVIDIA, индексировали видео с помощью методов TAPe. Загрузка декодера у нас стремится к 100 %, а ядра, наоборот, практически не используются. Потому что TAPe. Чтобы загрузить все эти тысячи ядер на 100 %, нам потребовались бы тысячи кодировщиков/декодировщиков, чтобы обеспечить ядра достаточным объемом информации. Но таких видеокарт не существует, все они обрабатывают информацию через 0/1, и поэтому всем им нужны сложносочиненные ядра в огромном количестве, чтобы обрабатывать инфу дедовским методом) А нам - не нужны. Кстати, напишем об этом отдельную статью, спасибо за идею.


  1. saag
    30.04.2026 22:44

    "Коричневый спектр складываем с серым - получаем неопределенно черный, это и есть результат перемножения матриц...":-)


  1. K0styan
    30.04.2026 22:44

    Нолики и единички стали основой не по щучьему велению - они выжили в эволюции. По трём взаимосвязанным причинам:

    • Они максимально близки к "железу" - вот транзистор открыт, вот закрыт, это самые стабильные из его состояний. Даже если лезть глубже в атомные структуры - от дискретного набора энергетических уровней мы никуда не денемся.

    • Они офигенно масштабируются по разрядам - 4-битный контроллер для электромотора и супермолотилку чисел можно собирать из одинаковых элементов и при желании даже печь на одной пластине.

    • Они так же круто масштабируются по частоте (тут спасибо первому пункту) - там тоже с каждым порядком вылезают свои нюансы, но эволюция с сотен герц до гигагерц за 30 лет не просто так произошла.

    Возможно ли что-то другое? -да, конечно. Видны ли хоть какие-то горизонты этого другого на практике? - нет.


    1. VBDUnit
      30.04.2026 22:44

      Тут фокус в том что то что есть сейчас (почти) достигло потолка. У нас сейчас уже те самые «микросхемы с ручками для переноски» — посмотрите как ставят Threadripper в сокет. Видеокарта весит 4 кг. Для датацентров планируют карты в 15квт делать. Чипы уже такие есть (и они размером с тарелку). Дальнейшее увеличение производительности требует физического увеличения размера устройства и его потребления. Даже Microsoft вспомнил что пихать браузерный движок в блокнот это возможно не самый лучший подход.

      Поэтому если горизонты не видны — их придётся найти, если мы хотим избежать стагнации/упадка прогресса. Текущий подход себя исчерпывает.


      1. Spyman
        30.04.2026 22:44

        Так их ищут, разработки ведуться по куче направлений - нейроморфные, квантовые, фотонные процессоры (последние наиболее вероятный кандидат на замену класических). Так и замена кремния на другой материал тоже исследуют, просто это не самая простая задача))

        Но в кремнии еще лет минимум на 10 есть куда развиваться - от уменьшения техпроцесса, до оптимизации архитектуры)


      1. gscdlr
        30.04.2026 22:44

        как ставят Threadripper в сокет

        Потому что это воплощение старой гиперболизированной концепции многочисленной компоновки обычного центрального процессора. Куча ядер на пачке чиплето и cIOD-чиплет с северным мостом.

        АМД с энергоэффективностью не заморочивается. Работает — и ладно. Не хуже Интел — всё, супер, в продакшн.

        Видеокарта весит 4 кг.

        Потому что tdp многие сотни ватт. Упираемся в энергоэффективность. Опять.

        Дальнейшее увеличение производительности требует физического увеличения размера устройства и его потребления

        Не обзятельно. Лучшие изобретения у человека получаются, кошка он воспроизводит творчество природы. В нашем контексте надо смотреть на мозг млекопитающих (пока мы не знаем ничего более совершенного для обработки и хранения информации). Что самое банальное можно повторить? Объёмную структуру, разные разделы, отвечающие за разные задачи. Процессоры у нас пока планарные и только начинают двигаться к усложнению и 3D-сборкам. На функциональные юниты разделение также уже началось.

        Текущий подход себя исчерпывает.

        Так может казаться, когда смотришь на уже совершенные микроархитектуры, а потом выходит что-то новое ещё быстрее. Остаётся удивляться, как они это сделали.

        На деле простор для оптимизаций огромный. Можно посмотреть на Intel и Apple. Яблочники сделали систему на подложке, у которой ГП и память находятся рядом с процом и прочими асиками. Это то, о чем я говорил. Осталось расти в высоту.

        Интел (неожиданно для многих, наверное) вовсе начинает делать интереснейшие и эффективные вещи. Например, новые трехоперандные инструкции (минус лишние mov), удвоение общих регистров, чтобы даже в кэш ходить реже, общий для всех юнитов SoP кэш SLC, благодаря которому CPU, iGPU, NPU могут меняться данными, не обращаясь в память совсем, а Display Engine выводит статичную картинку, или даже с мигающим курсором, не включая iGPU. Также теперь в Panther Lake igpu умеет брать данные из L3 в Compute Tile напрямую, не копируя лишние данные и это стоит недорого по задержкам.

        Вообще, в контексте статьи, можно проследить мутации процессоров Интел от 10 поколения Nehalem до Core Ultra 3 (Panther Lake) и по вектору развития и известным утечкам достроить путь до Royal Core и далее, представив слияние с технологиями Loihi и фотоникой из инженерных серверных процов. Вполне себе интересная история вырисовывается. Кстати, Royal Core, Rentable Units — это не только производительность, но и энергоэффективность, возможно, такая, которой позавидует arm/apple.


  1. zaff999
    30.04.2026 22:44

    Статья какая то цикличная одно и тоже утверждение минимум 3 раза прочитал. До конца не выдержал честно. Нету конкретики что вы предлагаете? Ну понятно что персиваторы сказали но как устроено не понятно. Уже давно разрабатывают квантовые компьютеры (вычисления) незнаю как правильно. Чем оно вас не устраивает?

    Всё равно чтобы решать сложные по вашему задачи всё сведётся к самым простым действиям будет ли это опять 0 и 1 или что-то ещё суть будет одна.


  1. Free_Artist
    30.04.2026 22:44

    А в некоторых странах видимо, снова переход к ламповым вычислениям предвидится, назад в будущее)


  1. Irina_Zakharova
    30.04.2026 22:44

    Это как в анекдоте, чукча не читатель, чукча писатель