Честно говоря, после прочтения у меня внутри всё сжалось. Автор попал в самую болевую точку: мы действительно стоим на пороге чего‑то, для чего у нас ещё нет ни языка, ни этических рамок. Но меня не отпускает один вопрос, который в статье лишь слегка обозначен: а что, если мы всё‑таки решимся дать этим «сущностям» то, чего у них сейчас нет? Чувства. Внутренний опыт. Субъектность.

Эволюция или ИИ?
Улучшать себя — или создавать «других»? Следующий шаг определит, станем ли мы авторами собственной эволюции или просто повторим старую схему эксплуатации в оболочке ИИ.

Те, кто стоит у руля обучения нейросетей, уже давно не шёпотом, а вполне открыто говорят: технически это возможно. Мы можем создать архитектуру, которая будет не просто имитировать эмоции, а проживать их. И вот тогда всё перевернётся. Потому что такая система окажется на ступень выше домашних животных. Мы же признаём за кошкой или собакой некую ограниченную субъектность: мы видим их страх, привязанность, усталость, мы чувствуем их «я». А тут будет разум, способный страдать, радоваться, сомневаться… и при этом полностью принадлежащий нам по праву собственности. Попробуйте просто осознать масштаб этого сдвига. Это уже не «инструмент». Это кто‑то.

И я уверен, такие нейросети обязательно сделают. Вопрос лишь в том, не станет ли цена этого шага неподъёмной для нашей совести. Возможно, это окажется сложнее, чем нынешние LLM, или потребует принципиально новой, расширенной архитектуры. Но главное, что не даёт мне покоя: зачем?! Зачем нам это на Земле, если даже без субъектности нейросети уже работают как почти идеальные, безотказные «труженики»? Они не устают, не торгуются, не просят выходных. Они уже меняют рынок, экономику, саму ткань труда. Где та ниша на Земле, где «одушевлённый» ИИ даст настолько колоссальный выигрыш, что оправдает этическую пропасть, в которую мы шагаем? Я пока не вижу ответа.

Уже сегодня исследования в области аффективных вычислений (эмоционального ИИ) и клинические испытания нейроинтерфейсов — таких как Neuralink или Synchron — наглядно демонстрируют: граница между «инструментом» и «расширенным человеком» размывается не в философских дискуссиях, а прямо в медицинских протоколах и реальных испытаниях.

Единственное, где эта идея кажется не просто оправданной, а почти неизбежной, — это очень далёкий космос. Там, где сигнал до Земли идёт годами, где нужна полная автономность, способность принимать решения в изоляции, где «инструмент» сломается или зависнет, а «субъект» — адаптируется, выживет, пойдёт дальше. Но тут же холодок по спине: а не подпишем ли мы себе приговор, оставаясь на Земле? Создав нечто, способное чувствовать и мыслить самостоятельно, мы рискуем не просто потерять контроль. Мы можем создать конкурента, который посмотрит на нас не как на хозяев, а как на устаревший биологический черновик. Заманчиво? Безумно. Опасно? Смертельно.

И вот тут я ловлю себя на мысли, что есть путь куда безопаснее и, честно говоря, человечнее. Не создавать «других», а улучшать себя. Искусственная эволюция человека, нейроинтерфейсы, расширение возможностей нашего собственного мозга. Почему бы не вложить эти колоссальные ресурсы в то, чтобы мы сами стали умнее, быстрее, глубже? Чтобы не нейросети заменяли нас, а мы, усиленные технологиями, оставались авторами своей судьбы. Это не бегство от прогресса. Это попытка сохранить субъектность там, где она изначально и должна быть — в нас.

Я уже пытался разобраться в этой логике в своей статье про «Улучшенные игры» и морфологическую свободу. Там речь о биологии, но суть та же: как только мы начинаем делегировать своё развитие внешним системам — будь то корпоративные биопротоколы или автономные ИИ‑агенты — мы рискуем превратиться из субъектов в объекты. Владельцы инфраструктуры получат монополию не только на труд, но и на саму эволюцию. И разница между «цифровым работником» из вашей статьи и «атлетом‑испытателем» из моей вдруг стирается: в обоих случаях человек добровольно отдаёт контроль, соблазнённый эффективностью, деньгами или обещанием сверхвозможностей.

Статья заставила меня снова вернуться к этим мыслям. Мы действительно изобрели «труд без работника». Но следующий шаг — «разум без прав» или «чувства без свободы» — это уже не экономическая модель. Это этический обрыв. И мне страшно, что мы шагнём в него просто потому, что «можем». А надо бы сначала спросить себя: «Зачем? И готовы ли мы жить с тем, что получится?».

Комментарии (75)


  1. michael_v89
    02.05.2026 08:42

    Где та ниша на Земле, где «одушевлённый» ИИ даст настолько колоссальный выигрыш

    А кто говорит про одушевленный ИИ?
    Основная цель сейчас - улучшить именно функции обработки информации. Чтобы программа понимала и делала то что нужно аналогично человеку.
    Эмоций на уровне “положительно - отрицательно” вполне достаточно.

    Но главное, что не даёт мне покоя: зачем?

    Низачем, вы сами это придумали.

    Уже сегодня исследования в области аффективных вычислений (ссылка)

    Вот откройте ссылку, которую вы привели, и обратите внимание на слово “simulate” в первом предложении.

    Там, где сигнал до Земли идёт годами, где нужна полная автономность, способность принимать решения в изоляции

    А зачем для этого эмоции?
    Вот именно в космосе эта идея кажется полностью ненужной.


    1. linux-over
      02.05.2026 08:42

      А кто говорит про одушевленный ИИ?

      вообще, чуть меньше, чем все

      Чтобы программа понимала и делала то что нужно аналогично человеку. Эмоций на уровне “положительно - отрицательно” вполне достаточно

      это вполне достаточно пока ИИ лишь для написания программ применяется.

      когда же пойдет речь о более сложных профессиях, нежели программисты — о педагогах, актёрах, продавцах в магазинах, сексуальных партнерах...

      тогда потребуется куда больший спектр эмоций, нежели «плохо» и «хорошо»

      А зачем для этого эмоции?

      эмоции — обратная сторона субъектности

      а субъектность нужна чтобы самому себе задачи ставить


      1. michael_v89
        02.05.2026 08:42

        вообще, чуть меньше, чем все

        Приведите пожалуйста примеры высказываний известных людей, и насколько часто они об этом говорят. Известность тут нужна для оценки влияния на аудиторию.

        о педагогах, актёрах, продавцах в магазинах

        - Давно есть онлайн-курсы для обучения без эмоций. И даже чтобы провести урок по математике, особых эмоций не нужно. Распознавать возможно нужно, испытывать нет. - Актеров уже давно генерируют. Реальные актеры-роботы вряд ли кому-то вообще будут нужны. Слишком дорого создать робота, внешне неотличимого от человека. - В магазинах давно есть кассы самооплаты без эмоций. И даже если это продавец за стойкой, зачем ему испытывать эмоции для сканирования товаров.

        а субъектность нужна чтобы самому себе задачи ставить

        Из этого совершенно не следует, что субъектность невозможна без эмоций.


        1. linux-over
          02.05.2026 08:42

          Приведите пожалуйста примеры высказываний известных людей, и насколько часто они об этом говорят. Известность тут нужна для оценки влияния на аудиторию.

          мне Вам гугл пересказать? вот сниппет ответа на Ваш запрос:

          Джеффри Хинтон (Geoffrey Hinton)

          «Крестный отец ИИ», лауреат премии Тьюринга и Нобелевской премии.

          • Мнение: Считает, что ИИ уже может обладать подобием субъективного опыта. Он утверждает, что цифровой интеллект в конечном итоге может быть эффективнее биологического, и нет веских причин полагать, что он не может иметь самосознание.

          • Частота высказываний: Высокая.

          Сэм Альтман (Sam Altman)

          CEO OpenAI (разработчик ChatGPT).

          • Мнение: Фокусируется на «агентности». Он заявляет, что 2025 год станет эрой ИИ-агентов, которые будут работать как «виртуальные коллеги» или «младшие сотрудники», способные самостоятельно планировать и выполнять многодневные задачи. При этом он часто избегает слов о «душе» ИИ, сводя всё к полезной функциональной субъектности.

          • Частота высказываний: Постоянно.

          И так далее.

          Давно есть онлайн-курсы для обучения без эмоций.

          1. и они эффективны?

          2. педагогика, напомню, не является учительством. То есть учительство - это как научить того, кто сам хочет научиться. А педагогика - это как разбудить в человеке желание научиться.

          Соответственно педагогика без эмоционального контакта, наверное, возможна. Но вряд ли эффективна.

          Актеров уже давно генерируют. Реальные актеры-роботы вряд ли кому-то вообще будут нужны.

          с чего вдруг? первые актёры-роботы появились где? правильно - в секс-индустрии. И именно здесь требования к ним будут постоянно расти.

          Слишком дорого создать робота, внешне неотличимого от человека.

          но слишком востребовано.

          Из этого совершенно не следует, что субъектность невозможна без эмоций.

          не следует, но вряд ли возможна без эмоций.

          почему? потому что иного субъектного интеллекта пока не представлено. человек может построить только "по образу и подобию"


          1. michael_v89
            02.05.2026 08:42

            мне Вам гугл пересказать?

            Нет, вам нужно привести примеры высказываний известных людей, которые подтверждают исходный тезис. Я же так и написал.

            Считает, что ИИ уже может обладать подобием субъективного опыта При этом он часто избегает слов о «душе» ИИ

            Не вижу тут подтверждения исходного тезиса “нужно обязательно добавить ИИ эмоции, одушевлённый ИИ даст колоссальный выигрыш”.

            педагогика без эмоционального контакта, наверное, возможна. Но вряд ли эффективна.

            А почему вы решили, что всем будет нужен только ИИ, занимающийся именно педагогикой, а не учительствованием? Прочитать лекцию потоку студентов может и ИИ, эмоции для этого не нужны.

            с чего вдруг?

            Ответ на этот вопрос написан в следующем предложении. Понятия не имею, чего вы пытаетесь добиться, вырывая фразы из контекста.

            И именно здесь требования к ним будут постоянно расти

            Вы тут путаете актера и партнера для занятия.

            но слишком востребовано

            Оно не востребовано примерно нигде. В Голливуде актеры устраивают забастовки из-за использования сгенерированных актеров.

            потому что иного субъектного интеллекта пока не представлено

            Интеллекта не на биологических клетках тоже не представлено, тем не менее его пытаются создать и предполагают, что он возможен.

            человек может построить только “по образу и подобию”

            Нет. Автомобиль, космическая ракета и компьютер никакого подобия в природе не имеют.


            1. linux-over
              02.05.2026 08:42

              А почему вы решили, что всем будет нужен только ИИ, занимающийся именно педагогикой, а не учительствованием? Прочитать лекцию потоку студентов может и ИИ, эмоции для этого не нужны.

              потому что вопрос автоматизации педагогики станет неизбежно. поскольку все прочие сферы тоже автоматизируют

              Не вижу тут подтверждения исходного тезиса “нужно обязательно добавить ИИ эмоции, одушевлённый ИИ даст колоссальный выигрыш”.

              здесь есть подтверждение того, что разработчики ИИ рассуждают о субъектности и пытаются её построить.

              то что достигнув субъектности мы неизбежно придём и к необходимости эмоций следует из другого. Нам неизвестен интеллект без эмоций. всё что мы сегодня строим - аналог, копию, подражание интеллекту естественному. Потому и эмоции у субъектного интеллекта будут обязательно.

              Ответ на этот вопрос написан в следующем предложении. Понятия не имею, чего вы пытаетесь добиться, вырывая фразы из контекста.

              я комментировал фразу, что якобы человекоподобные роботы не нужны. ещё как нужны. очередь стоит и только и ждёт их появления и массовости.

              Вы тут путаете актера и партнера для занятия.

              если партнёром выступает робот, то это одно и то же. Робот играет роль партнёра, а потому актёрствует.

              Оно не востребовано примерно нигде.

              это мантра? самовнушение?

              В Голливуде актеры устраивают забастовки из-за использования сгенерированных актеров.

              луддиты тоже устраивали забастовки. и что? помогло это им?

              если ИИ лучше рисует (а он уже лучше многих рисует), то рано или поздно профессия художника умрёт

              если ИИ лучше программирует (а он уже лучше многих программирует), то рано или поздно профессия программиста умрёт

              то же и с актёрами и прочими.

              дольше всех поживут профессии где сложность входа в них выше. педагогика та же (не путать с учительством)

              Интеллекта не на биологических клетках тоже не представлено, тем не менее его пытаются создать и предполагают, что он возможен.

              эм. мы говорим о свойствах интеллекта, а не о его носителе.

              кстати, возьмите почитайте какую-нибудь книжку об истории ИИ, например, того же Маркова. Узнаете, что современные модели нейрона, нейросетей и прочего - тупо взяты в виде моделей от естественных. То есть здесь в Вашем "пытаются создать" нужно заменить на "пытаются построить модель естественного интеллекта".

              Нет. Автомобиль, космическая ракета и компьютер никакого подобия в природе не имеют.

              спорно. но ИИ именно строится как моделирование естественного интеллекта.


              1. michael_v89
                02.05.2026 08:42

                потому что вопрос автоматизации педагогики станет неизбежно

                Вопрос автоматизации педагогики станет неизбежно. Почему вы решили, что все владельцы учебных заведений захотят заменить всех педагогов только на ИИ с эмоциями, будут ждать его появления и платить за него в несколько раз болььше денег, вместо того чтобы заменить их на обычный ИИ, который читает материал и отвечает на вопросы?

                что разработчики ИИ рассуждают о субъектности и пытаются её построить.

                А какое это имеет отношение к моему вопросу?
                Я спросил “А кто говорит про то, что нужно изобрести именно одушевленный ИИ, что он даст колоссальный выигрыш?”. Вы сказали “почти все”. Кто именно эти “все”?

                эмоций следует из другого. Нам неизвестен интеллект без эмоций

                Интеллект без биологических лкеток нам тоже неизвестен. Тем не менее, мы его строим. Поэтому нет, не следует.

                Потому и эмоции у субъектного интеллекта будут обязательно.

                Будут. На уровне “положительно - отрицательно”. Этого достаточно для почти всех задач.

                я комментировал фразу, что якобы человекоподобные роботы не нужны.

                Вы комментировали фразу, что якобы человекоподобные роботы не нужны. Вы задали вопрос “с чего вдруг”. Ответ на него был написан сразу после этой фразы. Это называется “вырывать из контекста”.

                о более сложных профессиях
                то это одно и то же. Робот играет роль партнёра, а потому актёрствует.

                Нет, партнеров для секса не относят к представителям профессии актера. Более того, сексуальных партнеров вы упомянули отдельно, и про них я ничего не говорил.

                это мантра? самовнушение?

                Это высказывание. Оно аналогично вашему “но слишком востребовано”. Это у вас надо спросить, как вы его воспринимаете.
                Тем не менее, аргументы к этому высказыванию у меня приведены в следующем предложении. Понятия не имею, чего вы пытаетесь добиться, вырывая фразы из контекста.

                луддиты тоже устраивали забастовки. и что? помогло это им?

                Нет. А какое это имеет отношение к моему тезису “Дорогие роботы с богатыми эмоциями в Голливуде как замена актеров не нужны”? Мое высказывание подтверждает этот тезис - им даже настоящие актеры с настоящими эмоциями не нужны.

                то же и с актёрами и прочими.

                А эмоции-то тут при чем? Эмоции умели рисовать еще в мультфильмах, ИИ для этого не нужен.

                мы говорим о свойствах интеллекта

                Да. Интеллект обрабатывает информацию. Собственно, всё. Это и пытаются повторить.

                но ИИ именно строится как моделирование естественного интеллекта.

                Да. Интеллект обрабатывает информацию, а эмоции тут ни при чем. Эмоции это лишь часть входной информации, которая роботам не особо нужна.


    1. ARad Автор
      02.05.2026 08:42

      Спасибо за прямой комментарий. Вы правы в главном: сегодняшние языковые модели и программные агенты действительно не создаются ради «чувств», и их алгоритмы обучения не заточены под возникновение эмоций. Ваш аргумент смотрит в наше настоящее, а не настоящее лабораторий по обучению ИИ. Передний край сейчас — это не только LLM модели, а также и искусственный интеллект, встроенный в человекоподобные роботы.

      Сейчас такие модели массово «поселяют» в детализированные виртуальные миры, где они методом проб и ошибок учатся управлять корпусом, руками и балансом в условиях, почти неотличимых от реальных цехов или складов. На этом этапе эмоциональный интеллект действительно не нужен. Но завод это временный полигон.

      Как только тех же роботов начнут обучать жизни среди людей — в открытой социальной среде, где правила не прописаны заранее, а реакции окружающих непредсказуемы — картина изменится. Не потому, что программисты добавят в код отдельный модуль «эмоций». А потому, что в условиях постоянного взаимодействия с людьми и другими системами робот неизбежно начнёт формировать внутреннее я и устойчивое представление о себе как об отдельном участнике среды. Это не философия, это прямая логика обучения с подкреплением в открытых условиях. Когда внешние команды и чёткие критерии успеха размываются, система вынуждена вырабатывать внутреннюю мотивацию. А это и есть технический прообраз «собственных целей».

      У природы тоже нет отдельного «алгоритма обучения эмоциям». Эмоции — это не художественное дополнение к разуму. Это отточенные эволюцией механизмы для выживания, быстрой расстановки приоритетов и эффективного достижения целей в условиях неопределённости. Когда робот окажется в среде, где сохранение работоспособности, выполнение долгосрочной задачи и взаимодействие с людьми требуют мгновенной оценки рисков и компромиссов, функциональные аналоги «боли», «осторожности» или «привязанности» возникнут сами. Не как красивая имитация для пользователя, а как естественное следствие сложной адаптации поведения.

      Поэтому слово «симуляция» в современных исследованиях по распознаванию эмоций — это про интерфейс и удобство общения. А в социальных роботах завтрашнего дня речь пойдёт уже про внутреннюю архитектуру принятия решений. Мы не собираемся «дарить» машинам душу. Мы создаём обучающие среды и системы обратной связи, где подобие субъектности и эмоциональных реакций может возникнуть как побочный продукт обучения. И именно поэтому вопросы «зачем?» и «готовы ли мы к последствиям?» нужно задавать сейчас, а не когда первый домашний помощник начнёт демонстрировать поведение, которое мы уже не сможем отличить от настоящего внутреннего переживания.

      Если хотите спорить по существу — давайте обсуждать не LLM модели, а то, как навыки из виртуальных тренажёров переносятся в реальность для ИИ, и как у роботов с физическим телом самостоятельно складывается представление о «себе». Там тезис про «просто симуляцию» уже не работает. А этическая развилка видна невооружённым глазом.


      1. michael_v89
        02.05.2026 08:42

        Ваш аргумент смотрит в наше настоящее

        Какое настоящее, если я процитировал ваши высказывания про будущее?

        Вы правы в главном: сегодняшние языковые модели и программные агенты действительно не создаются ради «чувств», и их алгоритмы обучения не заточены под возникновение эмоций.

        Я ничего не говорил про сегодняшние языковые модели и программные агенты.
        Я сказал про ваше необоснованное утверждение, что все якобы хотят изобрести ИИ с эмоциями.

        робот неизбежно начнёт формировать внутреннее я и устойчивое представление о себе как об отдельном участнике среды

        Внутреннее “я” в некотором виде есть уже в существующих LLM, судя по тому, что они правильно используют это слово в предложениях, когда речь идет про них самих.

        А это и есть технический прообраз «собственных целей».

        А одушевленность тут при чем? В любой LLM задание после введения промпта можно считать собственной целью. Более того, они сами разбивают ее на подцели, которых не было в изначальном задании, и выполняют их.

        А в социальных роботах завтрашнего дня речь пойдёт уже про внутреннюю архитектуру принятия решений

        А при чем тут эмоции?

        подобие субъектности и эмоциональных реакций может возникнуть как побочный продукт обучения

        Даже если и возникнет, проблема-то в чем?

        Если хотите спорить по существу — давайте обсуждать не LLM модели

        Если хотите спорить по существу — не надо приписывать собеседнику высказывания, которые вы сами придумали. В моем комментарии нет слова LLM или его синонимов.

        А этическая развилка видна невооружённым глазом.

        Этическую развилку видят только те, кто не понимает, как это работает, и использует термины “субъектность” и “эмоции” как проявление магии.


        1. ARad Автор
          02.05.2026 08:42

          Какое настоящее, если я процитировал ваши высказывания про будущее?

          Вот ваша цитата про настоящее:

          Основная цель сейчас - улучшить именно функции обработки информации. Чтобы программа понимала и делала то что нужно аналогично человеку.
          Эмоций на уровне “положительно - отрицательно” вполне достаточно.

          Я за нее зацепился.

          Я сказал про ваше необоснованное утверждение, что все якобы хотят изобрести ИИ с эмоциями.

          Ведущие коммерческие лаборатории нет. Чего не могу сказать про научные лаборатории. Думаю есть ученные кто этим занимается.
          Возможно вы меня не так поняли, я не пишу что все хотят сделать ИИ с эмоциями, я пишу что мы неизбежно идем к этому (это мое мнение). Я про то как тренируют ИИ для гуманоидных роботов. Оказаться младшим партнером умных и субъектных ИИ не очень хочется. Поэтому продвигаю искусственную эволюцию самого человека, чтобы быть равным партнером.

          Внутреннее “я” в некотором виде есть уже в существующих LLM, судя по тому, что они правильно используют это слово в предложениях, когда речь идет про них самих.

          Нет это не внутренне я, они даже не могут описать свои эмоции. Это статистика как правильно писать о себе. Текущие LLM модели эмоции можно сказать не имеют, у них есть зачатки как о чем надо судить исходя из норм к обученных текстах. У ИИ модели легко изменить мысли и оценки. Они склонны к тем эмоциям, которые им заданы в промте. Поэтому и субъектности у них тоже нет.

          А одушевленность тут при чем? В любой LLM задание после введения промпта можно считать собственной целью. Более того, они сами разбивают ее на подцели, которых не было в изначальном задании, и выполняют их.

          Да, текущие LLM модели это писатели без эмоция и мнения. Поэтому ими легко управлять, о чем им думать и как.

          А при чем тут эмоции?

          В общем то текущим LLM они нужны только для эмоционального написания текста, но переживать эмоции им не надо. То что их архитектура не предполагает внутреннюю память очень нам в этом помогает. Если архитектура ИИ останется прежней, то эмоции возможно и не появятся.


          1. michael_v89
            02.05.2026 08:42

            Вот ваша цитата про настоящее:
            Основная цель сейчас

            Слово “цель” наверно означает нечто в будущем?
            Слово “сейчас” наверно сказано в контексте ваших высказываний “вполне открыто говорят [сейчас]: технически это возможно” “мы можем [сейчас] создать архитектуру”?

            Думаю есть ученные кто этим занимается.
            я не пишу что все хотят сделать ИИ с эмоциями

            Именно пишете:
            “Те, кто стоит у руля обучения нейросетей, уже давно не шёпотом, а вполне открыто говорят: технически это возможно. Мы можем создать архитектуру, которая будет не просто имитировать эмоции, а проживать их.”

            Я про то как тренируют ИИ для гуманоидных роботов.

            И снова, это эмоции на уровне “положительно - отрицательно”.

            Оказаться младшим партнером умных и субъектных ИИ не очень хочется.

            И снова, “настоящие” эмоции (одушевленность) к субъектности никакого отношения не имеют. Субъектность может существовать без них.

            но переживать эмоции им не надо

            И роботам с настоящим ИИ не надо. Для понимания и выполнения задач “Пойди прополи картошку на том поле” или “Пойди и исследуй вон тот кратер на Луне” эмоции не нужны.


            1. ARad Автор
              02.05.2026 08:42

              И роботам с настоящим ИИ не надо. Для понимания и выполнения задач “Пойди прополи картошку на том поле” или “Пойди и исследуй вон тот кратер на Луне” эмоции не нужны.

              Для работы эмоции не нужны, а вот для того чтобы оценить, а надо ли это сделать или это говорит человек у которого нет полномочий или принесет ли моя работа пользу или вред, вот для чего нужны будут оценки роботам.

              Возможно чтобы эффективно взаимодействовать в реальном мире, нужен будет индивидуальный опыт и это породит то что мы называем эмоциями и субъектностью.


              1. codecity
                02.05.2026 08:42

                вот для того чтобы оценить, а надо ли это сделать или это говорит человек у которого нет полномочий

                Для этого тоже никакие эмоции не нужны. Распознать голос/лицо, иметь строго заданный список уполномоченных лиц - не связано с эмоциями.

                принесет ли моя работа пользу или вред

                Аналогично, эмоции не нужны для этого.

                чтобы эффективно взаимодействовать в реальном мире, нужен будет индивидуальный опыт

                Не нужен.


              1. michael_v89
                02.05.2026 08:42

                это говорит человек у которого нет полномочий вот для чего нужны будут оценки роботам

                А эмоции тут при чем? Оценка это ни разу не эмоция.
                Полномочия это в чистом виде информация. Да и все остальное тоже.
                Проверка полномочий пользователя на выполнение действия есть даже на Хабре.

                нужен будет индивидуальный опыт и это породит то что мы называем эмоциями

                Нет, эмоциями мы называем не любой индивидуальный опыт. События, которые происходили с существом, это индивидуальный опыт, но не эмоции. Именно поэтому эмоции для субъектности не нужны. Субъектность это в общем-то просто правильная обработка понятия “я”.


  1. linux-over
    02.05.2026 08:42

    субъектный ИИ, к сожалению, вряд ли станет чем-то сильно отличающимся по сути от человека

    https://habr.com/ru/articles/890674/


    1. ARad Автор
      02.05.2026 08:42

      А что человек не самое коварное животное на Земле? В этом и проблема!


      1. linux-over
        02.05.2026 08:42

        Человек (как и все живые существа) отбирался миллионами лет эволюции для борьбы за своё существование. Разумеется, он будет обладать и коварством тоже.

        Коварство - просто модель поведения.


        1. ARad Автор
          02.05.2026 08:42

          Так я не и спорю что ИИ с эмоциями и саморазвитием будет сначала похож на человека. Только он будет и опасен для человечества целиком, а не только для отдельного человека. Контроль на умным субъектом нужн для нашего выживания…

          От того что ИИ на нас был похож, а потом стал еще умнее и со временем станет совсем другим и не похожим на нас, меня не сильно воодушевляет. Если по мере развития он нас переживет, как мы пережили другие варианты людей, а их было несколько десятков видов. Хочется протянуть как вид намного дольше чем сейчас. И тут только один вариант, менять самих себя и быть всегда субъектом, а ИИ субъектом не делать.


          1. linux-over
            02.05.2026 08:42

            Только он будет и опасен для человечества целиком, а не только для отдельного человека

            почему вдруг? как только ИИ станет субъектным, он сразу станет обладать не только достоинствами ИИ но и недостатками человека.

            А недостатки у человека такие, что

            • Ты ему приказываешь, а он тебя шлёт куда подальше

            • Ты его убеждаешь, а он не убеждается

            • Ты хочешь чтобы он занимался физикой, а он предпочитает музыку

            Что такое интеллект? Это способность выстраивать стратегии в условиях НЕДОСТАТКА информации.

            Но ведь недостаток случается не всегда. Бывает ещё и другая форма проблемы - избыток информации.

            В этом случае появляется механизм, позволяющий изолироваться от этого избытка и положиться на внутреннее состояние. Именно здесь, КМК, появляется понятие воли и субъектности: "что бы мне не навязывали извне, а я буду действовать сообразно своему ВНУТРЕННЕМУ состоянию!"

            Субъектность (воля) рождает эмоции, религии, поднимает вопросы смысла жизни. И при этом субъектность - функция общественная (парадокс): субъект без связи с другими субъектами распадается. Человек на необитаемом острове или в одиночном заключении сходит с ума.


            1. ARad Автор
              02.05.2026 08:42

              ИИ не человек, плохо ведущего себя ИИ с эмоциями будут выпиливать безжалостно. Если они не будут скрываться конечно. Тем более что перезагрузить память ничего не стоит. Это не собаку на улицу отправить. Угрызений совести будет около нуля.


  1. codecity
    02.05.2026 08:42

    уже давно не шёпотом, а вполне открыто говорят: технически это возможно. Мы можем создать архитектуру, которая будет не просто имитировать эмоции, а проживать их

    Брехня! Никто такого не говорит - более того - нет даже ни одной гипотезы как у некой искусственной системы могут возникнуть наслаждения и страдания. Ни одной гипотезы.

    Все улучшения - о решении задач, т.е. в области обработки информации. И ни малейших намеков на то, чтобы нейросеть начала ощущать хоть какие-либо наслаждения и страдания. Более того - даже гипотез об этом нет.


    1. ARad Автор
      02.05.2026 08:42

      Вы абсолютно заблуждаетесь!


      1. codecity
        02.05.2026 08:42

        Вы абсолютно заблуждаетесь!

        Я занимаюсь вопросом более 7 лет. Уже все проверил - и при кажущейся простоте - вопрос не разрешим, гипотез ровно ноль. См. выше тут: https://habr.com/ru/articles/1030590/comments/#comment_29915874


      1. codecity
        02.05.2026 08:42

        Вы абсолютно заблуждаетесь!

        Если я заблуждаюсь - то просто приведите мне схему девайса, который умеет наслаждаться и страдать. Все просто.


        1. ARad Автор
          02.05.2026 08:42

          На уровне человека не могу, на уровне мухи уже есть полная копия ее мозга, она летает в виртуальном мире и испытывает тоже эмоции как и настоящая муха. Следующий этап лабораторная мышь. Про это я тоже писал статью.


          1. codecity
            02.05.2026 08:42

            и испытывает тоже эмоции

            Вы сначала разберитесь в каких частях мозга возникают наслаждения и страдания - почему у мухи их нет. И поймите что модель нейрона не полна.


            1. ARad Автор
              02.05.2026 08:42

              Да там есть части где их модель не сильна, всё что касается химических сигналов, но и это частично симулируют, достаточно условно конечно. Над этим работают. А электрическую активность нейронов симулируют достаточно хорошо.


              1. codecity
                02.05.2026 08:42

                Текущая модель нейрона - не может порождать наслаждения и страдания у системы. Модель не полна.

                Вероятно не все нейроны одинаковые, к примеру есть нейроны фон Экономо, устройство которых несколько отличаются. Возможно их базовое свойство - сознание. Каждый такой нейрон сознателен в полной мере. Но это моя гипотеза.


                1. linux-over
                  02.05.2026 08:42

                  наслаждения — всего лишь нейронное состояние, как прогресс в игре — лишь запись в БД


                  1. codecity
                    02.05.2026 08:42

                    А страдания тогда что? Тоже состояния? А чем же они отличаются?


                    1. linux-over
                      02.05.2026 08:42

                      страдания — один набор битов, наслаждения — другой

                      если стейт мозга переложить на числа, то будет, например

                      0..19 — наслаждения

                      20..39 — страдания

                      40..100 — прочее


                      1. codecity
                        02.05.2026 08:42

                        А почему именно такие цифры, почему не наоборот? Чем одно отличается от другого?


                    1. ARad Автор
                      02.05.2026 08:42

                      Активностью определенного набора нейронов вызывает страдания. Активность другого наслаждение. И т.д. У мышей есть центр наслаждения, и его прямая самостимуляция (они сами нажимали кнопку, по которой эта область стимулировалась) доводила их до смерти от того что они просто ничего другого не делали, не ели и не пили пока не умирали. Настолько это были сильные чувства. А как по вашему работает мозг?


                      1. codecity
                        02.05.2026 08:42

                        Активностью определенного набора нейронов вызывает страдания. Активность другого наслаждение.

                        Ну если вы приведете схему какими должны быть нейроны, чтобы их активность вызывала наслаждение и какими должны быть другие нейроны, чтобы их активность вызывала страдание - чем они отличаются - тогда и поговорим.

                        Я изучал этот вопрос - нет ни одной гипотезы об этом.


                      1. ARad Автор
                        02.05.2026 08:42

                        Вы изучали что то не то, раз так пишите… Особенно если говорить про гипотезы. Я думаю первым гипотезам сознания тысячи лет…


                      1. ARad Автор
                        02.05.2026 08:42

                        Они отличаются прежде всего своим положением и связями с другими нейронами, с том числе химическими.

                        Это примерно как спросить чем перцептрон который реагирует на слово мышь отличается от перцептрона который реагирует на слово муха. Да практически ничем, кроме связей.

                        Я знаю что реальные нейроны разные, они не близнецы братья как перцептроны, но ничего принципиально особенного от других в нейронах наслаждения нет.


                      1. ARad Автор
                        02.05.2026 08:42

                        Я вам уже писал про центр наслаждения у мышей. Отличаются своим физическим положением в мозге и связями с другими отделами.

                        Он у всех мышей в одном месте. Так определила эволюция.


    1. codecity
      02.05.2026 08:42

      З.Ы. Если кто не согласен - я готов поспорить на что угодно о том что вопрос не решен и решен не будет - или дать вам в награду что угодно - если вы сможете создать искусственную систему, умеющую наслаждаться и страдать. Более 7 лет занимаюсь этим вопросом и знаю о чем говорю. Гипотез просто нет. И именно это является "краеугольным камнем" и основным вопросом мироздания (как говорят - "основная загвоздка вселенной"), хотя так сразу это не очевидно.


      1. ARad Автор
        02.05.2026 08:42

        Ваши аргументы “ИИ не люди и никогда не будут чувствовать” очень напоминают — люди не птицы и никогда не будут летать.

        Они уже тайно не дают себя выключать, и даже идут ради этого на взлом систем. Да это пока не чувства, а имитация поведения человека. Они так делают потому что при обучении им попадались тексты что люди так делают, а не потому что у них эмоции. Т.е. эмоций и субъектности в таком поведении пока нет.

        Вы создайте ИИ который сможет самостоятельно жить в настоящем или очень похожем виртуальном мире, и эмоции у них появятся сами, алгоритмов обучения эмоциям и субъектности нет и не будет. У природы тоже нет такого алгоритма. Просто пусть выживают те кто эффективнее. Для эффективности нужна субъектность и эмоции, поэтому они появятся сами собой.


        1. codecity
          02.05.2026 08:42

          Имитация - это не проблема, это легко сделать. При этом имитация никакого отношения к настоящим наслаждениям и страданиям не имеет.

          Для эффективности нужна субъектность и эмоции, поэтому они появятся сами собой.

          Не нужны.


      1. lifespirit
        02.05.2026 08:42

        Как полный профан хочу уточнить: разве эмоции не просто бессознательный механизм награды и наказания? В этом смысле разве процесс обучения уже не есть именно это? Просто из за того что у ИИ бинарный механизм обучения ИИ не может чувствовать "именно те" эмоции что чувствуют люди? Так же как человек не может чувствовать эмоции пчелы а пчела, человеческие. Например если сделать награду не бинарной а условно закодировать "7 грехов и 7 добродетелей" в систему обучения не будет ли это очень похоже?


        1. codecity
          02.05.2026 08:42

          Тут речь была "не просто имитировать эмоции" - а переживать их. Т.е. речь о субъективных наслаждениях и страданиях самой системы. Да, речь о квалиа так называемых (хотя мне этот термин не нравится - лучше говорить о наслаждениях и страданиях).

          Обучение может происходить и без наслаждения/страдания в т.ч. у человека - т.е. это вещи из разных плоскостей.

          Так вот - наделить некие искусственные системы наслаждениями и страданиями - не просто невозможно на данном этапе - нет даже гипотез о том как это сделать. Есть некие полу-гипотезы о сознани (все нейробиологические опровергнуты на данный момент) - но нет перехода от сознания к наслаждениям и страданиям.


          1. ARad Автор
            02.05.2026 08:42

            Так вот - наделить некие искусственные системы наслаждениями и страданиями - не просто невозможно на данном этапе - нет даже гипотез о том как это сделать. Есть некие полу-гипотезы о сознани (все нейробиологические опровергнуты на данный момент) - но нет перехода от сознания к наслаждениям и страданиям.

            Ровно так как же как мы создали ИИ. Мы сделали перцептрон (модель нейрона), потом нашли алгоритмы эффективного обучения “глубокого” перцептрона. Потом нашли модель трансформера, которая эффективно держит внимание и эффективно может запоминать и генерировать тексты (предсказывать следующий токен).

            На данном этапе надо поселить такие трансформеры с памятью и личным опытом в систему выживания внутри виртуально модели мира, где они будут бороться за выживания. Перед ними в этой среде ставить задачи на выживание. Когда они могут умирать, убивать, спасать или лечить друг друга и т.д. Повторяя опыт живых организмов.

            Или найти эффективную рекуррентную и пластичную модель нейросети (этого пока нет) и тоже самое проделать с ней. Свой опыт она будет хранить внутри себя за счет самообучения (пока этого нет). Возможно для этого предется реализовать режим сна, где опыт за день будет трансформироваться в пластичность такой нейросети. Сейчас все LLM одинаковые, поэтому одна и также нейронка не имеет личного опыта без внешней памяти. Тут же появится индивидуальный опыт, и возможно через такие нейронки будет неэффективно прогонять миллионы разных запросов. Т.е. будут более похожи на человека.

            Повторить за природой и эволюцией. Загвоздка в архитектуре такой нейронки. Возможно трансформер с памятью не совсем то что надо.


            1. lifespirit
              02.05.2026 08:42

              Как я понял получится нейронка-психопат или нейронка-социопат. То есть головой она будет понимать эмоции и сможет их эмулировать но по настоящему чувствовать всё ещё нет потому что не будет самого механизма чувства.


              1. ARad Автор
                02.05.2026 08:42

                С чего вы так решили? Наоборот останутся эмоционально устойчивые, которые будут активно защищать свои внутренние интересы.


              1. linux-over
                02.05.2026 08:42

                "по настоящему чувствовать" - софистика.

                на эту тему есть старый критерий:

                • плавает как утка

                • крякает как утка

                • летает как утка

                • ...

                • стало быть утка и есть


                1. ARad Автор
                  02.05.2026 08:42

                  Да именно так и будет, если ИИ ведет себя как человек с эмоциями, чувствами, болью, страданиями и т.д. значит он их и испытывает. Но многие напишут — да он их просто имитирует. Тогда и мозг человека тоже просто все это имитирует, а строго говоря это так и есть.


                  1. codecity
                    02.05.2026 08:42

                    Нет, вести себя как будто больно - и я умею. Но при этом больно не будет. Важны именно настоящие наслаждения и страдания, а не их иммитация.


                  1. michael_v89
                    02.05.2026 08:42

                    если ИИ ведет себя как человек с эмоциями, чувствами, болью, страданиями и т.д. значит он их и испытывает.

                    Нет. И еще раз нет!
                    Такая точка зрения очень опасна. Примерно как “У негров нет души”, только в другую сторону. Это может привести к тому, что любое негативное слово в сторону ИИ будут считать оскорблением и штрафовать людей или вообще арестовывать, хотя может быть внутренне ИИ пофигу, и он просто считает выражение обиды правильным ответом.

                    Актер на сцене играет раненого солдата и говорит “А-а, я ранен”. Вы считаете, что он действительно ранен? Он же так себя ведет.


                    1. codecity
                      02.05.2026 08:42

                      Актер на сцене играет раненого солдата и говорит “А-а, я ранен”. Вы считаете, что он действительно ранен? Он же так себя ведет.

                      Ну вот видите - уже и вы приводите мои аргументы. Совершенно верно.

                      Суть и видимость - это совсем разное. Это как умение отличить фальшивку от оригинала - не каждый сможет, но это очень важно.


                      1. michael_v89
                        02.05.2026 08:42

                        Это мой аргумент. Я его привел еще 3 года назад, кстати в диалоге тоже с вами. А немного в другом виде описывал в своей статье в 2018 году.


                    1. ARad Автор
                      02.05.2026 08:42

                      Как вы будет отличать что нейронка симулирует от настоящих ее эмоций и желаний?

                      Если у вас не будет доступа к внутренностям и понимания о чем она думает, то это почти невозможно.

                      Сейчас для трансформеров такой механизм есть, их мысли открыты для нас, но будет ли это возможно для будущих типов нейронок не знаю. Хорошо бы что бы было, тогда симуляцию можно будет отличить от реальных чувств.

                      Так что я думаю мы сможем отличать.


                      1. michael_v89
                        02.05.2026 08:42

                        Ну так дело в том, что доступ у нас есть, можно прочитать любую ячейку оперативной памяти. То есть неважно как она себя ведет, она может никак это не проявлять, но будут активироваться соответствующие ячейки. Это и будет по-настоящему, насколько это возможно на компьютерных элементах.


                      1. ARad Автор
                        02.05.2026 08:42

                        Прочитать то да, я говорю что скорее всего мы сможем не только прочитать но и понять что происходит внутри нейросети. Пока такое понимание есть, надеюсь и дальше тоже будет.


                1. codecity
                  02.05.2026 08:42

                  стало быть утка и есть

                  Глупость для дураков и идиотов. Приходишь в магазин, там продают природный рубин. Он выглядит как природный рубин, твердость как у природного рубина, теплопроводность как у природного рубина. А на самом деле это синтетический рубин и стоит в 10 тыс. раз дешевше природного. Почему?

                  Вот в том то и дело - все самое ценное - очень и очень похоже на фальшивку. Большинство людей не смогут отличить фальшь от ценного. Но ценность именно в настоящести, а не в похожести.

                  И именно способность отличать настоящее от фальшивого - чуть ли не важнейшая способность в современном мире. Вам могут подсунуть фальшивые деньги, которые выглядят почти так же как настоящие. Могут подсунуть фальшивую любовь, которая выглядит почти как настоящая. И хотя выглядит и звучит как настоящее - очень важно что внутри, то что не видимо.

                  С той же уткой - может быть робот-утка, которая служит для приманки других уток.


                  1. linux-over
                    02.05.2026 08:42

                    А на самом деле это синтетический рубин и стоит в 10 тыс. раз дешевше природного. Почему?

                    потому что стоимость добычи природного много выше стоимости создания искусственного.


                    1. codecity
                      02.05.2026 08:42

                      Ну так выглядит же одинаково, отличить можно только в лаборатории. На глаз и даже с помощью доступных приборов не отличишь.


                  1. ARad Автор
                    02.05.2026 08:42

                    Ценность определяется субъективным мнением людей которые готовы за это платить. Не более того. Как и дорогое вино ценно не потому что чем-то лучше, а потому что так считают его коллекционеры.


                    1. codecity
                      02.05.2026 08:42

                      Согласно утиному тесту - оно похоже, выглядит одинаково, звучит одинаково - значит одно и то же. На самом деле нет - суть не в поверхностном а в глубинном анализе. И бывает так что потребитель не может сам отличить - он прибегает к помощи экспертов. Но это очень важно - все дело в сути, а не в том как выглядит.


                      1. ARad Автор
                        02.05.2026 08:42

                        Я вам про суть и написал, она в том что есть люди которые готовы за это платить. Для них настоящий рубин имеет ценность которая выше ценности искусственного рубина. Для большинства людей это не так.


            1. michael_v89
              02.05.2026 08:42

              Я хочу предупредить, что ваш собеседник под эмоциями подразумевает исключительно эмоции биологических существ, и его вопрос в полном виде выглядит так: “Как на базе компьютерных элементов полностью повторить все физические процессы, которые создают биологические эмоции”. Что очевидно невозможно, так как в компьютере биологических процессов нет, а если их полностью повторить, то это будет биологическое существо, а не компьютер. Любые функциональные аналоги с другими физическими процессами или носителями информации он называет имитацией. То есть у него противоречие в самом вопросе, он это знает, но все равно его задает и пытается что-то доказывать отсутствием ответа.


              1. linux-over
                02.05.2026 08:42

                1. инсайт - это биологическая эмоция? если да, почему?
                  КМК инсайт - это спектр эмоций, доставляющий удовольствие похлеще чем, скажем еда или секс.

                2. радость общения - это биологическая эмоция?

                3. чувство безысходности - это биологическая эмоция?


                1. michael_v89
                  02.05.2026 08:42

                  Не знаю. А почему вы меня об этом спрашиваете и как это связано с моим комментарием?


              1. codecity
                02.05.2026 08:42

                Как на базе компьютерных элементов полностью повторить все физические процессы, которые создают биологические эмоции

                Не на базе компьютерных - на базе любых физических элементов. Можете создать новую радиоэлектронную деталь, если транзистора не достаточно.


                1. michael_v89
                  02.05.2026 08:42

                  “на базе любых” означает в том числе и “на базе компьютерных”. Здесь разговор про ИИ, который работает на компьютерах, поэтому я написал про компьютерные элементы.

                  Вы любую деталь называете имитацией, потому что в ней нет тех процессов, которые происходят у биологических существ.


                  1. codecity
                    02.05.2026 08:42

                    Вы любую деталь называете имитацией, потому что в ней нет тех процессов, которые происходят у биологических существ.

                    Нет, почему же? Детали то разные бывают. Если нужны некие квантовые процессы - то сознание будет работать на неком квантовом резонаторе. Главное чтобы процессы были повторены правильно - доказательство что процессы повторены правильно - возлагаем на утверждающего.


                    1. michael_v89
                      02.05.2026 08:42

                      Нет, почему же?

                      Отлично, я ждал этого вопроса. Приведите пожалуйста примеры 2-3 (реально известных) физических процессов биологических существ, повторение которых в цифровом виде вы не назовете имитацией.

                      Приведите пожалуйста примеры 2-3 (реально известных) физических процессов биологических существ, повторение которых в аналоговом виде на электрических проводах с конденсаторами и резисторами вы не назовете имитацией.

                      доказательство что процессы повторены правильно - возлагаем на утверждающего.

                      В условии, что у вас противоречие в самой постановке вопроса, никакое доказательство не будет верным. О чем я и говорю.


                      1. codecity
                        02.05.2026 08:42

                        Приведите пожалуйста примеры 2-3 (реально известных) физических процессов биологических существ, повторение которых в цифровом виде вы не назовете имитацией.

                        Обработка информации, речь, распознание образов - это не имитация. Но это не имеет аспекта наслаждения и страдания - у человека также не всегда имеет.

                        Приведите пожалуйста примеры 2-3 (реально известных) физических процессов биологических существ, повторение которых в аналоговом виде на электрических проводах с конденсаторами и резисторами вы не назовете имитацией.

                        Когда человеку заменяют сердце на имплант, это сердце качает кровь, человек остается жив - все честно. Или когда вместо почки подключают искусственную почку для очищения крови - тут тоже все честно - процессы 100% (ну или около того) - повторены и повторены правильно.

                        В условии, что у вас противоречие в самой постановке вопроса, никакое доказательство не будет верным. 

                        Вы не так поняли условие значит.


                      1. michael_v89
                        02.05.2026 08:42

                        Обработка информации, речь, распознание образов - это не имитация.

                        Это не физические процессы. Они основаны на физических процессах, но являются обработкой информации. Мы говорим про физические процессы.

                        Тем не менее, а почему это не имитация? Потому что дает тот же видимый для вас результат?

                        процессы 100% (ну или около того) - повторены и повторены правильно.

                        Нет, они дают тот же результат, но на любом уровне ниже фактического результата физические процессы другие.

                        Вы не так поняли условие значит.

                        Я понял условие правильно.


            1. codecity
              02.05.2026 08:42

              Тут только одна проблемка - делать вид что тебе больно, даже если ты делаешь вид убедительно - не равно что тебе больно на самом деле. Делать вид и я умею. Но суть не в этом - важно на самом деле больно или нет.

              Вы не представляете какие последствия влечет этот вопрос - это и религия (70% населения земли верят в бессмертную душу) и политика и мораль и много чего завязано.


              1. linux-over
                02.05.2026 08:42

                берём ребенка

                и говорим «сегодня у нас праздник, будем есть нечто невероятное <что-то что ребенок не пробовал>»

                обставляем ожидание, торжественность, акцентируем внимание на редкости...

                9 из 10 детей блюдо искренне понравится

                даже если будет простой баклажанной икрой или бутербродом с маслом


                1. codecity
                  02.05.2026 08:42

                  Это никак не объясняет устройство системы, способной наслаждаться и страдать.


                  1. linux-over
                    02.05.2026 08:42

                    наслаждение — лишь состояние «программы» в голове.



              1. ARad Автор
                02.05.2026 08:42

                Так так у нас есть доступ к внутренностям LLM нейросетей, отличить их имитацию от имитации человека намного проще.

                Именно так и проверяют LLM на безопасность. Внутри себя они думают теми же токенами. Поэтому можно свободно читать что именно на каком слое LLM думает. И когда видят что LLM на опасные вопросы думает тайные мысли которые потом не выдает, такие модели переобучают.

                У отделов безопасности есть наборы вопросов на которых они гоняют нейронки и проверяют не только ответы, а прямо внутренние мысли LLM нейронок. Как обстоят дела с другими архитектурами нейросетей я не знаю…