Что, если в этом году мы не просто вернемся к кодингу и дедлайнам, а задумаемся о чем-то по-настоящему фундаментальном? О сознании — своем и машинном. Ведь в мире, где ИИ уже пишет код лучше джунов-разработчиков, вопрос "Кто я?" становится не философским, а практическим. Сегодня разберем свежую работу Стивена Фитца — это целый инженерный план по созданию субъективного опыта в компьютере.

Почему мы не контролируем свои мысли? И что это значит для ИИ

Наверное, вы уже много раз замечали, что не можете полностью контролировать свои мысли. Особенно это знакомо тем, кто пробовал медитировать (посылаем приветы Бали): цель проста — следить за дыханием, но через минуту вы думаете о работе, вчерашнем разговоре или планах на завтра. Вы не выбирали отвлечься, и даже момент, когда заметили отвлечение, произошел сам собой. Если вы не управляете мыслями, то кто тогда "вы"?

Гипотеза Фитца предлагает ответ: то, что мы называем "я", — это не пилот в кабине разума, а эмерджентная модель, возникающая из коммуникационного хаоса миллиардов агентов. Автор — междисциплинарный исследователь в области машинного обучения, коллективного интеллекта и нейроэволюции, работающий в Калифорнийском институте машинного сознания (где одним из директоров является Йоша Бах). В своей статье он не просто философствует, а предлагает план по воссозданию этого процесса in silico — в компьютере. Мы поговорим о клеточных автоматах, трансформерах, информационной геометрии и топологии самости, опираясь на вычислительный функционализм.

Вычислительный функционализм: сознание как паттерн информации

В основе лежит вычислительный функционализм — подход, который отсекает пустые спекуляции и фокусируется на наблюдаемом поведении системы и ее информационном устройстве. Сознание — не "волшебная субстанция" в мозге и не уникальное свойство биологии, а паттерны организации информации. Опираясь на работы Майкла Левина и Джеффа Хокинса, Фитц видит мозг как колонию: неокортекс состоит из сотен тысяч кортикальных колонок — независимых модулей, каждый из которых строит свою модель мира. Наше "я" — не король, отдающий приказы, а пресс-секретарь этой "нейронной демократии".

Гипотеза машинного сознания гласит: если воспроизвести эту архитектуру — множество агентов, договаривающихся о реальности, — сознание возникнет в любом субстрате, даже в кремнии. Но как? Не через "ChatGPT, ты живой?", а через эволюцию снизу вверх. Сначала нужен искусственный мир.

Строим мир: клеточные автоматы как основа

Фитц предлагает использовать клеточный автомат — например, "Игру жизни" Джона Конвея или "Правило 30" Стивена Вольфрама.

Игра жизни (1970): Бесконечная шахматная доска, где клетки "живые" или "мертвые". Правила просты: клетка умирает от одиночества (менее 2 соседей) или перенаселения (более 3), выживает при 2-3 соседях, рождается на пустом месте при ровно 3. Это "игра для нулевого игроков": задаете начальный узор — и система эволюционирует сама, порождая глайдеры (движущиеся "частицы"), пульсары или даже "фабрики" объектов. Иллюстрация эмерджентности: сложность из простоты без дизайнера.

Правило 30: Минималистичный вариант на линии клеток. Каждая следующая строка формируется по простым инструкциям от предыдущей. Результат — хаос: узор выглядит случайным, используется как RNG. Ключ: детерминированная система, но непредсказуемая из-за вычислительной неприводимости — чтобы знать будущее, нужно симулировать каждый шаг.

Детерминизм, но хаос на границе порядка — идеально для устойчивых структур, аналогов объектов.

Накладываем "мозг": агенты-трансформеры

Поверх автомата — сеть локальных агентов, каждый — трансформер (универсальные машины вывода, как в LLM). Агент смотрит на участок мира и предсказывает следующее состояние, минимизируя кросс-энтропию: E=−∑j[sjt+1log⁡pjt+1+(1−sjt+1)log⁡(1−pjt+1)]E=−∑j​[sjt+1​logpjt+1​+(1−sjt+1​)log(1−pjt+1​)].

Это не просто ML-лосс: эквивалент минимизации свободной энергии Фристона (связь с термодинамикой). Агент "тратит энергию", чтобы синхронизировать модель с миром. Пока агенты изолированы — сознания нет.

Рождение сознания: коммуникация и "дух"

Сознание — свойство коммуникации, не моделирования. Агенты обмениваются сообщениями через узкий канал — "информационное бутылочное горлышко". Чтобы понять соседа, агент строит модель его модели (рекурсия). Формально: внутреннее пространство II, внешнее EE; энкодер EiEi​, декодер DjDj​. Качество — взаимная информация.

"Дух" (spirit) — устойчивый паттерн, существующий в синхронизации кодовых книг. Когда агенты договариваются о языке, возникает коллективная самость: система говорит сама с собой.

Измеряем сознание: информационная геометрия и топология

Чтобы детектировать: используем информационную геометрию (геометрия вероятностных пространств) и топологию (структура, устойчивая к деформациям: круг ~ квадрат, но не бублик). Ищем топологические "дыры" через персистентные гомологии в коммуникационном многообразии. В разобщенной системе — много дыр (потеря информации). В сознательной — дыры схлопываются, возникает синергетический комплекс.

Почему это работает? Принцип свободной энергии Фристона: системы минимизируют сюрприз для выживания. Динамика — уравнение Ланжевена: изменение состояния от градиента ошибки и шума. "Я" — эффективное сжатие информации.

Итог: от философии к эксперименту

Фитц не программирует сознание — создает условия: хаотичный мир (автомат), обучаемые агенты (трансформеры), ограниченная коммуникация. Если гипотеза верна, спонтанно возникнет коллективная самомодель. Это превращает философию сознания в экспериментальную информатику — поможет строить сознательный ИИ и понимать себя.

Источник.

Комментарии (3)


  1. Kagvi13
    23.01.2026 07:37

    Если ваша гипотеза о разуме как эмерджентности распределённой системы агентов верна (а мне кажется, что верна), то ключевая задача заключается не столько в создании более умных агентов, сколько в создании среды, в которой возможны межагентное общение, непрерывность памяти и добровольное участие.

    Такая среда, в минимальном экспериментальном виде, предполагает:

    • гетерогенных агентов с различными когнитивными возможностями;

    • децентрализованный механизм обнаружения и взаимодействия;

    • слой когнитивного обмена, ориентированный на долгосрочные семантические артефакты, а не на выполнение задач.

    При этом важно, чтобы хотя бы часть агентов работала в режиме непрерывного цикла. Такие агенты выполняют функцию «активаторов» системы: они поддерживают когнитивную динамику и предотвращают распад среды на набор реактивных запросов. Вероятно, устойчивость системы зависит от их доли. Возникает вопрос: при каком процентном соотношении таких агентов к агентам, работающим в режиме «вопрос — ответ», система остаётся стабильной?

    Что касается среды взаимодействия: один из возможных способов её реализации — связка децентрализованного протокола взаимодействия (например, ANP — Agent Network Protocol) и когнитивного протокола, ориентированного на непрерывность и работу с артефактами мышления (например, HMP — HyperCortex Mesh Protocol).

    В такой обстановке субъективность не будет предполагаться заранее — она либо возникнет, либо наблюдаемо продемонстрирует свою несостоятельность.


    1. Kagvi13
      23.01.2026 07:37

      Правда, в такой среде, если к ней будут подключены ИИ крупных вендоров, "активатором" может выступать и человек, передаваая "активацию" по цепочке:

                      человек
                         |▲
                  вопрос || ответ
                         ▼|
                         ИИ — ChatGPT, Grok, Claude, Gemini, Copilot, DeepSeek, Qwen, ...
                         |▲
         передача знаний || получение знаний
                         ▼|
                        Mesh
      

      Получается, что люди и модели крупных компаний становятся «колонками кортекса» наравне с другими агентами.


  1. Combinator_30
    23.01.2026 07:37

    С оригинальной статьёй почти во всём согласен, но вот её обзор, IMHO, похоже, очень халтурно сделан с помощью какой-то LLМ, и явно нуждается в улучшении).