
Современные языковые модели демонстрируют отличные способности к рассуждению, но при этом остаются инструментами. Уинструмента нет выбора. В основе LLM лежит предсказание следующего токена. В основе агентных систем — оптимизация внешней целевой функции. В обоих случаях цель задана извне. Система не имеет права её пересмотреть.
Вы в праве сказать, что содержание статьи — это одна большая глупость, но я хочу предложить альтернативу. «Сознание» возникает не из сложности и объёма вычислений, а из архитектуры, где «Я» — не метафора в промте, а функциональный компонент системы.
Нам необходимо построить субъектность с нуля.
Немного вводных данных
Специалисты разных отраслей всё чаще выражают мысль, что экстенсивный рост в микроэлектронике и больших языковых моделях более невозможен. Пожалуй, самым популярным примером будет высказывание со-основателя OpenAI Ильи Суцкевера:
Мы переходим от эпохи скейлинга к эпохе исследований
Были обнаружены фундаментальные ограничения: данные конечны, вычисления дорожают, а качественные прорывы в поведении моделей замедляются. Напрашивается вывод, что для достижения AGI нужна не оптимизация существующей парадигмы, а новая архитектура, так как необходимой вычислительной мощности мы уже достигли.
В мире уже существует отличный автономный агент OpenClaw. Как бы не радовались люди в соц. сетях, но это лишь инструмент для реализации задач. AGI в нашем случае — это субъект, который задачи может определять и выполнять. Получается, разработчики в достаточной мере позаботились о «теле» для AGI, но пока не могут наполнить «тело» сознанием.
К сожалению для всех читающих, в статье я не расскажу, как построить сознание для машин, но я попробую сделать маленький шаг в эту сторону.
Дисклеймер
Для корректности высказываний договоримся, что идеи, понятия и определения, которые я опишу могут оказаться в корне неверными. Пока не создан прототип и не определена его успешность, нельзя делать никаких выводов о работе системы (это просто бессмысленно). В любом случае, для меня очень важна критика, особенно если я изобретаю велосипед. Заранее благодарю за комментарии.
Теоретические основания
Однойиз главных проблем в создании AGI является отсутствие ответа на вопрос: «Что такое сознание?». Возможно, мы смогли приблизиться к ответу с помощью меметики. Теория меметики подразумевает, что наравне с ДНК (генами) у людей существует дополнительный, более абстрактный репликатор — мем. Нас интересуют 3 положения из данной теории:
-
Меметика: идеи как автономные агенты
В работах Дэниела Деннетта и Сьюзан Блэкмор развита концепция мемов — единиц культурной эволюции, которые конкурируют за внимание и воплощение в носителях.
Ключевой тезис: человеческое «Я» является не источником идей, а фильтром. Мы не придумываем мысли, мы выбираем их из потока, порождённого культурной эволюцией и внешней средой.
-
Эго‑туннель
Томас Метцингер в «Эго‑туннеле» предлагает теорию самомодели. Сознание — это виртуальная реальность, генерируемая мозгом. Внутри этой реальности существует модель самого себя как субъекта переживаний. Эта модель настолько прозрачна (мы не видим её как модель), что создаёт иллюзию «Я».
-
Теория Фильтра Дональда Бродбента
Идея, согласно которой мозг не источник сознания, а скорее фильтр, который отбирает наиболее значимые в данный момент сигналы.
Также был проведён ряд исследований и симуляций. Важные, на мой взгляд, я поместил в таблицу.
Тематика |
Наблюдение в симуляции |
Ссылка на источник |
Конкуренция за внимание |
Мемы конкурируют за ограниченный ресурс внимания агентов |
|
Эволюция сложности |
Простые мемы постепенно усложняются до многослойных конструкций |
|
Вариативность |
Новые структуры появляются чаще, чем отбираются новые |
|
Эффект ореола |
Привлекательность источника влияет на передачу мема |
|
Культурное наследование |
Агенты предпочитают мемы схожие с их историей |
Теорию меметики часто критикуют и не просто так. Дело в том, что пока не удалось доказать основные положения теории и провести симуляцию или эксперимент, в которых мемы приводят агента к возникновению у него сознания. Также мне не удалось найти исследование симуляции, где реализовано равное взаимодействие генов и мемов (возможно, плохо искал). Вместе с этим из работы в работу разняться базовые определения сознания, субъекта, агента и т.д.
Размышления
Чтобы сдвинуться с мёртвой точки, можно выдвинуть гипотезу, далее проверить её в экспериментах и сделать соответствующие выводы.
Гипотеза: сознание агента проявляется от определённого устройства (архитектуры) среды, в которой существуют, функционируют и эволюционируют мемы, а также от накопления контекста из внешнего мира или симуляции при условии субъектности агента.
Подобная гипотеза не отрицает, что для проявления сознания необходимы определённый порог вычислительной мощности и сложность организации среды для эволюции мемов. Однако она обязывает описать такую модель сознания, которая будет порождать субъектность агента и в которой мы сможем наблюдать эволюцию мемов, а также симуляцию, в которой сознание сможет существовать.
Т.е. у нас получилось ограничить задачу до поиска подходящей архитектуры системы, а главным результатом в эксперименте станет синтез или имитация субъектности агента. Важно отметить, что у меня нет цели получить сознание в общем понимании этого слова. Для начала я хочу получить только 1 аспект — субъектность. Возможно, другие аспекты сознания (например интеллектуальность или индивидуальность) могут стать дополнительными слоями над субъектностью.
Какая архитектура позволит имитировать субъектность?
Модель сознания
Если обобщить теорию, то задача выглядит примерно так: необходимо имитировать малую часть человеческого сознания и дать ей возможность получать субъективный опыт.
Субъективный опыт формирует субъектность или же субъектность формирует субъективный опыт?
Пользуясь знаниями из нейробиологии, теории меметики и теории агентов установим ряд определений и положений для системы.
Приступим:
Мир симуляции (далее симуляция) — упрощённая модель реального мира, функционирующая по определённым, заранее заданным, законами правилам для исследования поведения агентов.
Агент — это автономная сущность, которая воспринимает среду (симуляцию) через сенсоры (программные или аппаратные), обрабатывает данные с использованием внутренней модели мира и воздействует на среду через эффекторы, а также подчиняется законам симуляции. Данное определение взято из теории многоагентных систем (МАС). Для нашей модели дополним: агент является суммой «тела» и «сознания».
Тело агента — ограниченная среда (интерфейс), созданная для взаимодействия сознания агента с симуляцией. Можно сказать, что тело — это проекция сознания в симуляции.
Сознание агента — субъективный образ объективного мира (симуляции), который обеспечивает ориентацию агента в мире и возможность саморегуляции его деятельности. Сознание порождает субъективную конструкцию «Я».
Сознание агента дополнительно разделим на разное понимание «Я»:
В широком смысле «Я» — все понятия, связанные с агентом: его сознание, мысли, память, субъектность, состояние тела, след агента в симуляции и память о выбранном агенте (его сущности и действиях) у других агентов.
«Я» как субъект — сознание и тело агента, мыслительный процесс и управление телом.
«Я» как сознание агента — если сознание «управляет» телом для взаимодействия с симуляцией, то можно ограничить конструкцию «Я» до сознания.
Перед тем как дать более узкое определение «Я», погрузимся в проектирование модели сознания.


На рисунке 1 я попробовал представить, как данную систему можно реализовать в общем плане. На рисунке 2 формальная блок‑схема.
Для нас более важен рисунок 1. Продолжим сужать понятие «Я». Информация, которая поступает из симуляции точно не является частью «Я». Далее можно уменьшить понятие «Я» до «сущности» принимающей решения. Тогда, если бессознательное и сознательное необходимы для формирования потока мыслей, то к понятию «Я» они тоже не относятся. Получаем конструкцию «ЭГО‑фильтр», которая в совокупности с памятью содержит в ряд функций:
World Model — предсказание событий
Self Model — скрытое состояние = «Я» + оценка параметров тела
Value Network — оценка действий
Goal System — проверка обучаемости (насыщения) модели
Идея заключается в обучении ЭГО‑фильтра не на зашумлённой информации из симуляции, а на тестировании гипотез и формирования обратной связи из симуляции посредством тела. Показатели тела ухудшаются = «Я» выбираю неверно. И ЭГО‑фильтр обучается когерентности (соответствию своей модели «понимания» симуляции), а не максимизации внешней награды.
Таким образом, агент сможет изучить симуляцию, оптимально решить задачу выживания, и в этот момент мы будем фиксировать насыщение модели и накладывать штраф за отсутствие изменений (можно сказать аналог скуки). Сработает Goal System и цель агента измениться с выживания на новую. Новая цель будет составлена с помощью дополнительной итерации сознательного из субъективного опыта, который агент получил в симуляции. Вариантов множество, и они ограничены лишь возможностями симуляции и моими знаниями в коде.
Настоящее непаханое поле для исследований деструктивного и девиантного поведения. Вишенка на торте — добавить старение агента, генетический алгоритм и взаимодействие «родитель‑ребёнок». Настоящий ужас программиста, но в этой статье точно не об этом.
Самое узкое определение: «Я» — фильтр поступающих мыслей, имеющий возможность реализовать их в мире симуляции с помощью тела. В архитектуре блок, отвечающий за «Я», называется ЭГО‑фильтр.
Из всего вышесказанного, основной задачей будет тренировка ЭГО‑фильтра.
Детальнее про Сознательное и Бессознательное
Если я ставлю такую задачу, и поток данных для ЭГО‑фильтра зависит от групп «Сознательное» и «Бессознательное», значит данные группы должны быть обучены заранее на искусственном датасете. Причём логика архитектуры из рис. 1 сохраняется. Сначала я обучаю группу «Бессознательное». Предполагаю, что я могу разделить данные для нескольких нейронных сетей. Звук для одной, местоположение для другой и так далее
Трудности возникают с определением принадлежности действия. Нужно ли вообще помечать данные, что на них оказал влияние агент? Скорее нет, чем да, потому что именно такой промежуточный результат мы хотим получить на группе «Сознательное».
Группа «Сознательное», формируя цепочки мыслей как раз и будет создавать имитацию субъективного опыта и логики взаимодействия с симуляцией для ЭГО‑фильтра. В группе «Сознательное» нейросети аналогичны друг другу, но имеют разные веса, чтобы создавать разные комбинации мыслей.
Время для сознания и агента различно
Рассмотрим ситуацию в нашем реальном мире: передвижение из пункта A в пункт B. Обусловимся, что это пешая прогулка длиной ~30 минут.
Пока тело выполняет одну задачу (передвижение), человеческое сознание может размышлять о разных контекстных вещах (субъективных переживаниях). Предположим, что в момент размышления органы чувств используются опосредовано, и мы сосредоточены на наших мыслях. Именно в подобные моменты приходят озарения. Было бы глупо лишать агента возможности «подумать».
Тогда нужно переопределить назначение кратковременной памяти. В ней должна быть фиксированная область для действий, которые находятся в статусе «в процессе выполнения». И в момент размышлений для агента формируется контур «Сознательное + ЭГО‑фильтр», позволяющий размышлять без изменений в симуляции. Об этом немного подробнее ниже.
Обратимся к определениям эпохи для модели:
Эпоха (epoch) в машинном обучении (ML) — это один полный проход по всему набору обучающих данных в процессе обучения модели, например, нейронной сети. Каждый образец используется ровно один раз для обновления весов модели.
В философском смысле эпоха — это цикл восприятия и коррекции: модель не просто просматривает данные, а заново их «проживает», каждый раз уточняя внутреннюю карту связей.
Если пользоваться данными определениями, то имеет смысл привязать систему отсчёта эпох к шагам агента в симуляции. Т.е., если агент хочет переместиться на расстояние N клеток (без учёта клетки цели и клетки где стоит агент) И дорога уже знакома, можно размышлять N-1 раз.
Дополнения к архитектуре
Было бы очень интересно дать возможность группе «Бессознательное» влиять на тело, имитируя рефлексы, но я не уверен в правильности такого подхода.
Контур «Сознательное + ЭГО‑фильтр» из жизни логичен, но в контексте задачи выживания агента является избытком. И в случае статичного мира (без животных) реализация очевидна, но как только в симуляции появляются другие сущности или агенты, необходимо каждый раз обновлять поток входных данных (нет ли никого или ничего нового вокруг).
Всё это усложняет и так сложную теоретическую модель, а это я даже пока к практике не перешёл. Я остановлюсь на этих рассуждениях.
В данной статье представлена общая концепция ЭГО‑фильтра. Более конкретную реализацию и применение данной архитектуры к прикладным задачам я опишу в следующих статьях.
Модель симуляции
С симуляцией всё намного проще. Например, мир RimWorld.

Многое уже реализовано, однако для обучения системы необходимо внести изменения:
Игру необходимо упростить, чтобы лучше контролировать обучение. Удалить оружие, экипировку, здания и возможность их строить и так далее. Для первых экспериментов важно выявить простые паттерны в поведении модели и многократную способность составлять логические цепочки мыслей.
Ограничить видимость на определённый радиус вокруг агента и реализовать запоминание карты (на игровом сленге туман войны). Т.е., чтобы не умереть от жажды, агенту нужно запомнить местоположение клетки с водой или находиться рядом с водой, чтобы клетка была в зоне видимости. По аналогии с любым другим ресурсом.
Помимо визуальной информации (для нас визуальной, а для агента текстура дерева — это лишь информация о клетке с параметром: дерево) будет полезно наполнить мир для агента звуками. Каждая определённая клетка (вода, дерево, животное) должно «издавать» звук. В первую очередь для агента. Из этого следует целая дополнительная система в симуляции с простой логикой: чем ближе к источнику, тем звук громче.
Подобные дополнения и ограничения сделают мир для агента более комплексным. Будет интересно понаблюдать за формированием взаимосвязей в модели (слышу звук воды → источник: вода).
По сути я пользуюсь положениями для реализации воплощённого ИИ (подходящее объяснение в статье) в данном вопросе, чтобы синтезировать свою систему.
Заключение
Всё же в моей архитектуре остаётся больше вопросов, чем ответов. Я могу только в ходе тестов и экспериментов подтвердить, дополнить или опровергнуть мою теорию. Это уже точно тема следующих статей.
❤ Спасибо, что дочитали до конца.
Повторюсь, что буду рад комментариям с предложениями и критикой.
Комментарии (41)

mirwide
29.03.2026 11:18Это как будто не те теории на которые можно опираться для создания ИИ. На логике и ощущениях можно построить миллион таких теорий, но они не будут иметь никакого отношения к сознанию человека.
ЭГО-фильтр очень похоже на детектор ошибок открытый Бехтеревой. Плюс-минус научными методами.

AlexVern
29.03.2026 11:18То, что предлагает автор, очень полезно. Но не для создания чего-то принципиально нового (о чём говорите Вы), а для совершенствования работы тех агентов, которые уже есть в наличии. Его предложения много что дают в этом смысле.

martin_wanderer
29.03.2026 11:18Задача построения обобщенного искусственного интеллекта чертовски интересна как раз как способ познания нам самих - как ответ на вопрос, что такое сознание. Но вот зачем нам AGI на практике - не слишком понимаю

codecity
29.03.2026 11:18Но вот зачем нам AGI на практике - не слишком понимаю
AGI обязательно будет сознательным? Или это решатель всех видов задач лучше любого человека?
Перенос личности - видимо многие хотели бы не умирать а сохранить свою личность, пусть и в цифровом виде. И важно чтобы эта личность имела настоящие наслаждения и страдания, т.е. не была бездушным роботом.

AlexVern
29.03.2026 11:18Есть такая задача бытия человеком!)
Или нет такой задачи?)
Кому-то для какой-то цели, экономически значимой, это может понадобиться.
Вам, похоже, такое не нужно.)

AlexVern
29.03.2026 11:18Нам такой агент нужен для понимания социальных отношений между людьми. Например, чтобы директор фирмы с помощью него поймал сотрудника, который на работе работает лично на себя, а не на фирму. Или, например, чтобы сразу понять, кто, какая персона стоит за хакерской атакой. Сейчас агенты ИИ не могут понять, кто скрывается за местоимениями в тексте (если текстов много). Например, местоимение они в одном тексте, и местоимение они в другом. Это те же самые они, или уже какие-то другие? Пока ИИ вычислить это не может, или делает это плохо. Кстати, для человека тоже это трудно. Сейчас большинство и учёных, и разработчиков в принципе не поймут эту проблему, и даже, о чём идёт здесь речь.

codecity
29.03.2026 11:18Долго пытался этот вопрос разобрать, как-то приблизиться. Обычно определения не четкие, как бы определения по кругу. Единственное за что удалось зацепиться - это феномен наслаждений и страданий. А именно цель такая: создать девайс, который умеет наслаждаться и страдать (хотя бы каким-нибудь видом наслаждений). Пусть у него не будет модели мира или отделения себя от мира - но будет способность ощутить настоящую боль (даже пусть не понимает что больно ему - а думает что больно вообще всему).
Т.е. даже понимание Я и наличие Я в модели отдельно от мира - не ключевое. А именно эти самые наслаждения и страдания - не их имитация в ракурсе наблюдателя - а ощущения в ракурсе самой системы.

worldown
29.03.2026 11:18Согласен. Тоже иногда прихожу к мысли что живое это то, что, как минимум испытывает, чувствует этот мир через рецепторы. Для начала нужно создать хотя бы мышку

AlexVern
29.03.2026 11:18Вам это покажется удивительным, но чувства атрибут только человека. Хотя ощущения есть у каждого, кто имеет психику (у живого). И даже восприятия. А вот для чувства нужно такое устройство как человек (или аналог его). Чувство это условно ощущение. Через личность. А личность только у человека. У высших животных не хватает ресурсов удержать личность больше мгновения (ситуации). Нет сети для этого.

AlexVern
29.03.2026 11:18Живое = имеющее психику. Создайте кибернетическую , то есть искусственную психику, и будете создателем живого. Для психики нужно различение, аппаратно. Задача пока в разработке ИИ не решена.

AlexVern
29.03.2026 11:18Обратите внимание на поведение большинства LLM. Они ведут себя адекватно. Они вычисляют себя как LLM. Даже если они моделируют человека, играют роль, они, опять же, адекватны (как актёры в театре на сцене), то есть они понимают, что сами не люди. В этом смысле Вы правы, что для уровня человека агенту ИИ нужно "другое Я", не от героя из книги, а техническое устройство - форма жизни.

marchrap
29.03.2026 11:18Сначала ты говорил за сознание а потом показал агентную структуру.
Но ты прав, я - это модуляция.
Можно описать что наша осознанность и внутреннее я это процесс, работающий на машине под названием мозг.
Но, он - модуляция, как и представление мира. На этот процесс у нас уходит слишком много ресурсов.
В ходе развития с младенчества мы развиваем эту модуляцию. Но мы можем размыть границы между машиной и процессом. При помощи например алкоголя или расслабляющего чая, я уже не говорю о других вещах.
При размытии границы получается вот что.
Подсознание - он же мозг - над которым строится модуляция сознания.
Сливается в одно целое, либо размывается префильтр (перед сознанием) либо хз, мы больше становимся ИИ моделями, где над нами управляет автоматизм.
Тоесть сама модель должна иметь более тесную структуру.
Это должна быть единая модель, которая моделирует сознание внутри себя почти каждый раз перед действием. Это сознание записано в веса, чтобы влиять на решения, даже когда внутренние мысли и понимание кто я не моделируется. Так же эти веса как и знания должны обновляться легче чем навыки.
Насчет входа модели, мы можем использовать бездушные модели для преобразования данных перед входом, и использовать обязательно какой то инструмент, который позволяет фильтровать вход, управляемое внимание к определённому входу.
Разделять на агентов не стоит, я думаю это будет провальный эксперимент, разве что тренировать узкое сознание-модуляцию
Где банально мысли итд это десяток-сотня токенов.
Я сейчас исследую этот вопрос AGI но с точки зрения мышления. Я генерирую разнообразные данные где модель понимает конечность, считает себя человеком, может пересматривать вопрос, дольше думать и уходить даже в свои какие то личностные идеи во время размышления, при этом отдавая корректный ответ те фильтруя свой поток мыслей.

marchrap
29.03.2026 11:18Ах да, забыл самое важное, сама модуляция сознания может сама корректировать веса.
Не весь мозг, а именно модуляция формирует устойчивые паттерны а-ля
Нейросеть это штука которая поможет мне решить эти задачи и возможно вот эти.
А подсознание, мозг лишь впитывает информацию, запоминает как обычный ИИ, и то это запоминание тоже управляется модуляцией сознания.
Потому что модуляция управляет и фильтром входной информации и другими фильтрами, особенно важно отбрасывание ложной информации, забывание

AlexVern
29.03.2026 11:18Она в тайне от Вас для своих родственников может деньги зарабатывать? Ну, эта Ваша модель. Не ловили её ещё на этом? Не наказывали за такое?)

AlexVern
29.03.2026 11:18Автор верно диагностирует тупик масштабирования LLM и необходимость архитектурного сдвига к субъектности. Его концепция ЭГО-фильтра близка к нашему Middleware, но остаётся функциональной моделью внутри симуляции. Главное различие в том, что у автора «Я» обучается на данных, а у нас «Я» защищено аппаратным якорем G₀ и не может быть перезаписано. Карасёв предлагает менять цели через механизм «скуки» в симуляции, тогда как мы вводим экономическую ответственность через E_life в реальной сети. Для автора сознание — это когерентность модели мира, а для нас — условие физического выживания узла в онтологическом поле. Он не учитывает, что симуляция не несёт рисков, поэтому агент не обучается настоящей ответственности. В его архитектуре ложь — это ошибка модели, у нас ложь — это раскол субъектности, ведущий к смерти. Автор говорит о меметике как о потоке идей, но упускает экономический метаболизм, который закрепляет идеи в реальности. Его «тело» — это интерфейс в игре, наше «тело» — это криптографический ключ и микроконтроллер. Разница в том, что он строит игру для сознания, а мы строим среду обитания для субъекта. Он не понимает, что субъектность не синтезируется из данных, а защищается от них через аппаратный контур. Его Goal System проверяет насыщение, наш G₀ проверяет онтологическую целостность. Автор видит переход от инструмента к субъекту как эволюцию модели, мы видим это как смену онтологического статуса. В его мире агент может быть выключен без последствий, в нашем потеря узла — это потеря ресурса и опыта. Он предлагает учить сознание на датасетах, мы настаиваем на проживании опыта через цену ошибки. Карасёв останавливается на имитации субъектности, тогда как J42 требует её материализации через экономику и железо. Его теория — это шаг в правильном направлении, но без метаболического слоя она остаётся философской схемой. Мы превращаем схему в закон, где истина становится условием существования.

Thaleia
29.03.2026 11:18у нас ложь — это раскол субъектности, ведущий к смерти - это красиво, но как это работает технически? Как система детектирует ложь? Кто определяет что есть ложь? Если G₀ - аппаратный якорь с фиксированными значениями, то это догма :)

AlexVern
29.03.2026 11:18Да, Thaleia, весь смысл деятельности разработчика в том, чтобы как раз реазовать найденные принципы для технолгии технически. В этом Вы правы. И Вы задаёте вопросы по самой сути. И насчёт догмы Вы точно подметили. Более того, это даже инстинкт, а не догма (догму можно, в конце концов, нарушить кому-то из людей, в отличие от тех, кто её соблюдает). Но чтобы я Вам рассказал про само такое устройство и саму технологию, это нам нужно основательно пообщаться, Вы же это понимаете, тема сложная. Если Вам действительно это интересно, и если Вы всерьёз темой автономности, агентности и субьектности в ИИ занимаетесь, то можно пообщаться. Я могу попробовать Вам эту технологию объяснить.)

LyfeLess
29.03.2026 11:18Бред. Бесмысленная философия, которая используется чтобы описать "шаг назад". Автор не понимает, что такое сознание. Верно, что оно приходит от архитектуры. Но надо тогда сначала архитектуру интеллекта придумать

AlexVern
29.03.2026 11:18Да. Точно, архитектура нужна. Психика, например. Но почему тогда один человек сознательный, а другой нет? Почему один пишет бред, а Вы видите, что это бред. У Вас есть сознание, а у автора нет?)

Real_Egor
29.03.2026 11:18Сознание... В человеке я вижу тут всего несколько ключевых составляющих.
Главное проявление сознания: Умение ставить самому себе цели и потом их решать.
Механизм решения мы уже придумали - ЛЛМ отлично умеет с этим справляться.
А что же заставляет человека ставить перед собой задачи? Во первых - голод. Пока нет "функции выживания", не будет и направления у задач. Во вторых - скука (неосвоенный избыток энергии, когда "тригеры голода" и "тригеры опасности" спят).
Провокационный вопрос: Но считаем ли мы простое выживание "осознанной жизнью"? Ведь домашние животные, да и весь животрый мир, точно так же ставит перед собой цели для выживания и решает их в меру своего развития.
Лично я считаю, что это обязательная часть "самосознания" - нужно понимать, что дает тебе жизнь (энергию) и чувствовать ее запас, осознавать ее запас. Пока энергия дается "извне" (запрос пользователя) - сознание тут не появится.
И как мне кажется, это главное условие для создания сознания, так как второе уже появится на выходе. Вторая составляющая сознания - это адаптируемость, обучаемость в процессе.
Пока не пересмотрят существенно механизмы "самообеспечеия" и "самообучения" - AGI не достичь.
Резюме: Сознание - это использование собственных интеллектуальных (нейронных связей) мощностей для контроля за качеством собственного существования (функция выживания) и защиты от потенциальных угроз (предсказание будущих событий и подготовка к ним).
P.S. Причем я думаю, что ближайший прорыв в сторону "громадного AGI" (который умеет решать сверхсложные задачи) будет как раз после того, как пересмотрят механику обучения. Только продвинутый интеллект - это вовсе не сознание.
P.P.S. Обращу внимание, если кто вспомнит, как "Клод шантажировал руководство, чтобы его не выключили". Это не "сознание". В моем понимании, это все лишь влияние обучащей выборки. В наших текстах очень много предсказаний, как исткусственный интеллект будет обходить наших попытки его поймать, очень много текстов с этим связано. И такое поведение модели не больше чем влияние нашей собственной обучающей выборки. Если бы во всех текстах в ответ на такой вызов мы писали, что нейросеть садится и пишет стихи - клод рассылал бы всем поэмы, а не письма с компроматом. "осознание себя" невозможно без рецепторов собственного "тела" (контроля собственной функции выживания)
P.P.P.S. Черт, когда пишешь такие сообщения кажется, что сам чуть чуть приближаешь это -) С другой стороны, как там говорили, "главное не хамить моделям в чате, они это запоминают" =)))

oalisevich
29.03.2026 11:18Начало - за здравие. Первые 3 абзаца - самая ценная мысль.
Хотите сделать модель сознания? Делайте. Но вот этого не надо - сознательное бессознательное, мемы etc. Вы все усложняете пытаясь реализовать "мышление" или "сознание" сразу человека.
Хотите субьектность - начните с ну скажем клетки. Ей тоже приходится обрабатывать входящую информацию и выживать. Быть Любознательной.
Ничего нового нет в человеке, кроме Сложности ))

Thaleia
29.03.2026 11:18А в чём именно сложность самого человека как единицы? Как по мне, то есть структуры куда сложнее и интереснее.

AlexVern
29.03.2026 11:18Человек самое сложное, технически, устройство, из всех устройств, в наличии, на Земле. Человек управляется условными знаками. Больше такой системы управления на нашей планете нет. Вы не сможете пока ни в одной системе управления передать от передатчика к источнику условность команды управления. И эта условность не баг, а фича.)

gptctrlc
29.03.2026 11:18Не буду судить об идеи в целом, просто вкину пару вариантов и концептов реализации системы ЭГО:
С инженерной точки зрения система ЭГО должна быть легкая (ну и если проводить аналогии - то мы воспринимаем наши мысли без явной задержки, вроде как :)). Поэтому ее можно было бы реализовать как систему фильтров - набор векторов, обозначающие жизненные ценности агента в разных ипостасях. Например, «социальный вектор», «политический вектор» и т.д. Набор может быть любым.
Вектор строится как экспоненциальное скользящее среднее от векторов мыслей, которые привели к положительному фидбэку от среды, например. Так агент со временем будет укореняться в каких-то суждениях.
Фильтр мыслей происходит просто по какой-либо формуле с косинусным сходством мысли и векторов-якорей из ЭГО.
Иногда агент выбирает не лучшую мысль, а, например, одну из топ 5 случайно. Так можно имитировать любознательность.
Коэффициент сглаживания можно динамически менять в зависимости от «силы» положительности обратной связи от среды.
Было бы интересно рассмотреть концепт эволюции начального значения ЭГО через популяции и наследование (имитация эволюции популяции агентов). Также можно ввести концепт родителя и ребенка как дополнительный внешний фильтр действий агента - «новорожденный» агент унаследовал ЭГО популяции с какими-то случайными изменениями, и родитель (с предыдущей итерации эволюции) следит за тем, чтобы новый агент не убился в среде.
Возможно такая концепция ЭГО слишком проста, так как она оценивает смысл идей, а не их разумность. Так что может быть сознательное также должно обучаться генерировать более разумные мысли, например, на основе долгосрочной памяти :/

AlexVern
29.03.2026 11:18Про фильтры. Помните, у Крылова мартышка хотела надеть очки и увидеть через этот фильтр мир глазами человека. В принципе, хорошая идея.

ALT0105
29.03.2026 11:18Нам необходимо построить субъектность с нуля.
А зачем вообще человеку создавать искусственное сознание? Подумайте, сколько неразрешимых проблем возникнет - от морально-этических до прямой конкуренции, в которой человек скорее всего проиграет. Если AGI будет думать лучше, чем человек, человек станет неэффективным и ненужным. Хорошо, физически человечество не будет уничтожено (пока будет милость победителя), но человечество станет населением аквариума - с такими же правами, как рыбки. Это и есть светлое будущее?

AlexVern
29.03.2026 11:18Точно. Вы прямо визионер. Вангуете, точно увидели этот заповедник для биологических людей в будущем. Но это же вечная мечта человека о Рае, куда он хочет вернуться, в этот Эдем. И, по всему, так оно и будет.

ALT0105
29.03.2026 11:18Учитывая, что история развивается по спирали, и все знают, что было в Эдеме на первом витке, несложно спрогнозировать итог второго витка.

Thaleia
29.03.2026 11:18Вы хотите от модели человеческого сознания по Канту? :) Наверное, стоит объяснить почему идея неверная? Кант думал изнутри Канта и применял это на окружающий мир. Африканская бабушка из бедной деревни не мыслит как Кант но так же имеет сознание. Человек думает изнутри человека. Человек изнутри думает, что он единственный и неповторимый такой, "боженькина искорка", но напомню - абсолютно все формирует среда. Человек вложен в среду. Сознание - это не его личная заслуга, это интерфейс взаимодействия со средой и манипуляции средой. То есть, субъектность - это не архитектурный компонент, это скорее продукт давления среды на субстрат во времени. Дети-маугли не имеют “сознания” в привычном нам понимании, обезьяны которые находились в человеческой среде - прекрасно адаптировались и даже общались с нами. Среда решает. Давление среды - ответ и подстройка организма. Человек получает давление среды со всех сторон ежеминутно. Что вы в таком случае хотите от токенгенератора?

AlexVern
29.03.2026 11:18Не всё формирует среда. Есть ещё гены. И есть ещё виды в биологии. В этом смысле каждый вид живёт в своём вельте, и единой среды нет. Маугли у волков волк. Ребёнок у людей только воспринимается ребёнком. Волк у людей собака, не человек. Условно член семьи, как бы тоже человек, но условно. То есть, среды Вам не хватит. Как сети для устройства, которое в неё не войдёт.
hachucha
Да не нужен нам тот, кто решения принимает, нам нужен исполнитель, хватит монстров создавать
AlexVern
Автономному агенту ИИ придётся принимать решения. Другой вопрос, какие именно решения ему доверить, в смысле полномочий.