
Что, если в этом году мы не просто вернемся к кодингу и дедлайнам, а задумаемся о чем-то по-настоящему фундаментальном? О сознании — своем и машинном. Ведь в мире, где ИИ уже пишет код лучше джунов-разработчиков, вопрос "Кто я?" становится не философским, а практическим. Сегодня разберем свежую работу Стивена Фитца — это целый инженерный план по созданию субъективного опыта в компьютере.
Почему мы не контролируем свои мысли? И что это значит для ИИ
Наверное, вы уже много раз замечали, что не можете полностью контролировать свои мысли. Особенно это знакомо тем, кто пробовал медитировать (посылаем приветы Бали): цель проста — следить за дыханием, но через минуту вы думаете о работе, вчерашнем разговоре или планах на завтра. Вы не выбирали отвлечься, и даже момент, когда заметили отвлечение, произошел сам собой. Если вы не управляете мыслями, то кто тогда "вы"?
Гипотеза Фитца предлагает ответ: то, что мы называем "я", — это не пилот в кабине разума, а эмерджентная модель, возникающая из коммуникационного хаоса миллиардов агентов. Автор — междисциплинарный исследователь в области машинного обучения, коллективного интеллекта и нейроэволюции, работающий в Калифорнийском институте машинного сознания (где одним из директоров является Йоша Бах). В своей статье он не просто философствует, а предлагает план по воссозданию этого процесса in silico — в компьютере. Мы поговорим о клеточных автоматах, трансформерах, информационной геометрии и топологии самости, опираясь на вычислительный функционализм.
Вычислительный функционализм: сознание как паттерн информации
В основе лежит вычислительный функционализм — подход, который отсекает пустые спекуляции и фокусируется на наблюдаемом поведении системы и ее информационном устройстве. Сознание — не "волшебная субстанция" в мозге и не уникальное свойство биологии, а паттерны организации информации. Опираясь на работы Майкла Левина и Джеффа Хокинса, Фитц видит мозг как колонию: неокортекс состоит из сотен тысяч кортикальных колонок — независимых модулей, каждый из которых строит свою модель мира. Наше "я" — не король, отдающий приказы, а пресс-секретарь этой "нейронной демократии".
Гипотеза машинного сознания гласит: если воспроизвести эту архитектуру — множество агентов, договаривающихся о реальности, — сознание возникнет в любом субстрате, даже в кремнии. Но как? Не через "ChatGPT, ты живой?", а через эволюцию снизу вверх. Сначала нужен искусственный мир.
Строим мир: клеточные автоматы как основа
Фитц предлагает использовать клеточный автомат — например, "Игру жизни" Джона Конвея или "Правило 30" Стивена Вольфрама.
Игра жизни (1970): Бесконечная шахматная доска, где клетки "живые" или "мертвые". Правила просты: клетка умирает от одиночества (менее 2 соседей) или перенаселения (более 3), выживает при 2-3 соседях, рождается на пустом месте при ровно 3. Это "игра для нулевого игроков": задаете начальный узор — и система эволюционирует сама, порождая глайдеры (движущиеся "частицы"), пульсары или даже "фабрики" объектов. Иллюстрация эмерджентности: сложность из простоты без дизайнера.
Правило 30: Минималистичный вариант на линии клеток. Каждая следующая строка формируется по простым инструкциям от предыдущей. Результат — хаос: узор выглядит случайным, используется как RNG. Ключ: детерминированная система, но непредсказуемая из-за вычислительной неприводимости — чтобы знать будущее, нужно симулировать каждый шаг.
Детерминизм, но хаос на границе порядка — идеально для устойчивых структур, аналогов объектов.
Накладываем "мозг": агенты-трансформеры
Поверх автомата — сеть локальных агентов, каждый — трансформер (универсальные машины вывода, как в LLM). Агент смотрит на участок мира и предсказывает следующее состояние, минимизируя кросс-энтропию: E=−∑j[sjt+1logpjt+1+(1−sjt+1)log(1−pjt+1)]E=−∑j[sjt+1logpjt+1+(1−sjt+1)log(1−pjt+1)].
Это не просто ML-лосс: эквивалент минимизации свободной энергии Фристона (связь с термодинамикой). Агент "тратит энергию", чтобы синхронизировать модель с миром. Пока агенты изолированы — сознания нет.
Рождение сознания: коммуникация и "дух"
Сознание — свойство коммуникации, не моделирования. Агенты обмениваются сообщениями через узкий канал — "информационное бутылочное горлышко". Чтобы понять соседа, агент строит модель его модели (рекурсия). Формально: внутреннее пространство II, внешнее EE; энкодер EiEi, декодер DjDj. Качество — взаимная информация.
"Дух" (spirit) — устойчивый паттерн, существующий в синхронизации кодовых книг. Когда агенты договариваются о языке, возникает коллективная самость: система говорит сама с собой.
Измеряем сознание: информационная геометрия и топология
Чтобы детектировать: используем информационную геометрию (геометрия вероятностных пространств) и топологию (структура, устойчивая к деформациям: круг ~ квадрат, но не бублик). Ищем топологические "дыры" через персистентные гомологии в коммуникационном многообразии. В разобщенной системе — много дыр (потеря информации). В сознательной — дыры схлопываются, возникает синергетический комплекс.
Почему это работает? Принцип свободной энергии Фристона: системы минимизируют сюрприз для выживания. Динамика — уравнение Ланжевена: изменение состояния от градиента ошибки и шума. "Я" — эффективное сжатие информации.
Итог: от философии к эксперименту
Фитц не программирует сознание — создает условия: хаотичный мир (автомат), обучаемые агенты (трансформеры), ограниченная коммуникация. Если гипотеза верна, спонтанно возникнет коллективная самомодель. Это превращает философию сознания в экспериментальную информатику — поможет строить сознательный ИИ и понимать себя.
Комментарии (3)

Combinator_30
23.01.2026 07:37С оригинальной статьёй почти во всём согласен, но вот её обзор, IMHO, похоже, очень халтурно сделан с помощью какой-то LLМ, и явно нуждается в улучшении).
Kagvi13
Если ваша гипотеза о разуме как эмерджентности распределённой системы агентов верна (а мне кажется, что верна), то ключевая задача заключается не столько в создании более умных агентов, сколько в создании среды, в которой возможны межагентное общение, непрерывность памяти и добровольное участие.
Такая среда, в минимальном экспериментальном виде, предполагает:
гетерогенных агентов с различными когнитивными возможностями;
децентрализованный механизм обнаружения и взаимодействия;
слой когнитивного обмена, ориентированный на долгосрочные семантические артефакты, а не на выполнение задач.
При этом важно, чтобы хотя бы часть агентов работала в режиме непрерывного цикла. Такие агенты выполняют функцию «активаторов» системы: они поддерживают когнитивную динамику и предотвращают распад среды на набор реактивных запросов. Вероятно, устойчивость системы зависит от их доли. Возникает вопрос: при каком процентном соотношении таких агентов к агентам, работающим в режиме «вопрос — ответ», система остаётся стабильной?
Что касается среды взаимодействия: один из возможных способов её реализации — связка децентрализованного протокола взаимодействия (например, ANP — Agent Network Protocol) и когнитивного протокола, ориентированного на непрерывность и работу с артефактами мышления (например, HMP — HyperCortex Mesh Protocol).
В такой обстановке субъективность не будет предполагаться заранее — она либо возникнет, либо наблюдаемо продемонстрирует свою несостоятельность.
Kagvi13
Правда, в такой среде, если к ней будут подключены ИИ крупных вендоров, "активатором" может выступать и человек, передаваая "активацию" по цепочке:
Получается, что люди и модели крупных компаний становятся «колонками кортекса» наравне с другими агентами.