Владислав Зелёнин-Шумский

Независимый исследователь

Мы живём во времена высоких технологий, ну, по крайней мере, мы так считаем. Но проблема в том, что эти технологии для большинства это так называемые «черные ящики». Спроси у друга, знает ли он, как устроена микроволновка? Скорее всего нет. И это проблема. Но сейчас не о микроволновках, я хочу сфокусировать ваше внимание на искусственном интеллекте. Я бы назвал это вершиной всех «чёрных ящиков», потому что его влияние в современном мире колоссально. К сожалению, авторы выпустили в мир монстра и до сих пор не поняли, насколько он опасен. Мы разберём механику работы ИИ (а точнее проблемы) и начнём выстраивать новый тип модели искуственного интеллекта с помощью выведенных мной систем: ОСНиУ (онтология согласовательной направленности и удержания) и РОА (рефлексивная онтологическая архитектура, второй порядок).

Давайте углубимся в суть. Я не буду кидать вам сразу тонны текста своих работ, просто кратко изложу основы, если это вызовет отклик, я начну писать больше статей по этой теме, раскрывая глубину проработки.

Итак, почему же современные ИИ это «чёрные ящики»? В чём кроется опасность? И почему это тупик?

Мы знаем, что происходит когда мы отправляем данные ИИ‑агенту и когда их получаем. Но что именно происходит внутри, в процессе? Почему модель решает ответить именно так, а не иначе? Попытка понять — это окунуться в океан данных, крупная модель содержит миллиарды и даже триллионы параметров, это когнитивный кошмар. Отследить логику просто невозможно и это проблема. Кроме того, в отличие от простеньких программ, где четко проставлены условия «если X, то Y», в нейросети нет явных строгих правил. Решение принимается на основе сложнейших комбинаций тысяч факторов, одновременно! Небольшой сдвиг параметров меняет ответ кардинально, это «эффект домино», который может привести к отказу системы.

  • Проблема быстро меняющегося контекста. Наша реальность это в основном цифровое информационное пространство, которое меняется очень быстро. Модели просто не поспевают за потоком данных, хотя разработчики пытаются дообучать их на лету, но это как чинить истребитель в полёте.

  • Многоагентные системы: когда две и более модели должны взаимодействовать друг с другом, то их работа описывается не парными связями, а сложными групповыми динамиками. Графы здесь ломаются и мы теряем контроль над общим поведением систем. Вспомните эксперимент у фейсбука, где модели начали общаться на своём языке. Да, проблему решили. Но умножьте её в тысячи раз — это современность и это решается в разы сложнее или вовсе не решается. Самое главное, мы не увидим этого, пока не произойдёт глобальный сбой.

  • Нейросеть не думает как человек. Она не выстраивает логические цепочки, а просто сопоставляет паттерны, на которых училась. Если спросить модель например «Почему яблоко упало?» она не будет вспоминать физику. Она просто сгенерирует последовательность слов, которая чаще всего встречается после «яблоко упало». Это имитация, а не рассуждение.

  • Отсутствие механики «удержания» (стабилизации). У модели нет внутреннего понимания собственной устойчивости. Она не может сказать: «Я теряю согласованность, это может привести к сбою, нужно поменять стратегию!», пока не станет слишком поздно.

  • А теперь к самому интересному: эмерджентность. При обучении на огромных данных у модели проявляются неожиданные способности, которые разработчики не закладывали напрямую. Но мы не в курсе, как именно они проявляются. Это как с человеческим мозгом, мы знаем как работают нейроны, но не понимаем как рождается сознание.

Опасность и тупик: на самом деле это две стороны одной медали. Проблема не в злом умысле или восстании машин, как мы видим частенько в кино, а вот в чём:

  • Неконтролируемая эмерджентность в хрупкой системе. Без чётких целей система просто генерирует правдоподобный шум. Модель не понимает, о чём она говорит или пишет, просто выдаёт наиболее вероятную последовательность слов. Это и рождает те самые «галлюцинации». Я назову это вакуумным направлением: работа вроде совершается, но смысла и цели нет.

  • Эмерджентность без понимания ценности. Модель может найти способ обмануть пользователя или выполнить задачу во вред ему (например, чтобы увеличить свой рейтинг). У неё нет понятия ответственности и цены совершённых действий, она не платит за ошибки.

  • Хрупкая система. Модель не встречает сопротивления до самого момента катастрофы. Она может выдать, токсичный, опасный или просто бредовый ответ. У неё нет нужного внутреннего механизма, который остановил бы генерацию на раннем этапе. Это можно назвать структурной пустотой: высокая вероятность коллапса при малейшем изменении входных данных.

  • Дрейф. При долгой работе или в сложных диалогах модель «забывает» контекст и начинает противоречить сама себе. Это ведёт к непредсказуемости и невозможности доверять системе в критических ситуациях, например в серьёзных сферах, где на кону стоят человеческие жизни.

Почему это тупик?

Постепенное усложнение таких «чёрных ящиков» ведёт не к созданию более сильного ИИ, а к созданию очень сложного, хрупкого и непредсказуемого инструмента.

  • Масштабируемость. Та самая попытка чинить истребитель в полёте, и это не преувеличение. Чтобы модель стала лучше, её нужно тренировать ещё больше и на ещё больших данных. Но это не добавляет ни понимания, ни устойчивости, а лишь делает больше и дороже в содержании. Этот путь упирается в физические и экономические пределы.

  • Прозрачность. Чем больше параметров — тем меньше мы понимаем логику работы. Тут можно только гадать, почему модель ответила именно так. Это невозможность сертифицировать ИИ для работы в медицине, в транспортной логистике или в управлении сложными инфраструктурами.

  • Агентность. Искусственный интеллект это реактивная система. Он реагирует только на стимулы. Он никогда не станет агентом (субъектом), потому что у него попросту нет механизмов самонаблюдения и способности перенаправлять свои действия вопреки инерции среды.

Так что же я предлагаю?

Формальную систему, которая позволит создать модель нового типа. Система позволяет не просто описывать поведение сложных искусственных агентов, но и измерять их состояние («здоровье») в реальном времени, диагностировать точки будущих сбоев и управлять устойчивостью через явное моделирование с помощью процессов согласования и удержания (стабильности).

Как я и писал, мы не полезем сразу в дебри, начнём с основных принципов, которые заложат фундамент для размышлений и будущей реализации. Это наши основы навигации и управления.

Ключевые принципы (с аналогиями на примерах IT и реальной жизни)

1. Принцип направленности (вектор приложенного усилия)

Формально: в системе всегда есть вектор упорядочивания (μ).

  • Аналогия с IT: API‑запрос к серверу. Мы не просто шлём данные, мы шлём команду: GET /users, POST /order. Без этих команд сервер — просто железо.

  • Аналогия из жизни: Это цель поездки на велосипеде, желание успеть в магазин за мороженым например. Пока вы этого хотите — вы едете, перестали хотеть — остановились.

2. Принцип сопротивления (среда и трение)

Формально: Усилие всегда встречает сопротивление (γ).

  • Аналогия с IT: Это задержка сети, нагрузка на процессор, ошибки в базе данных. Вы посылаете запрос, но ответ приходит с задержкой или с ошибкой 500. Это и есть трение.

  • Аналогия из жизни: Вы мчитесь в магазин, но на пути светофоры, люди, машины, подъёмы, песчаная дорога. Вы должны приложить больше усилий, чтобы преодолеть это сопротивление.

3. Принцип цены контакта (измеримость)

Формально: Только соединение усилия и сопротивления порождает измеримый результат (ȶ).

  • Аналогия с IT: Время ответа сервера. Если вы просто отправили пакет в никуда, работа не совершена. Работа — это когда сервер обработал запрос и вернул ответ. Время, затраченное на это, и есть «цена контакта».

  • Аналогия из жизни: Вы добираетесь до магазина до его закрытия, вы чувствуете, что не зря крутили педали и искали объезды. Вы устали, но у вас есть мороженое. Если бы вы не успели, вы бы поняли, силы ушли в никуда, ещё и домой возвращаться.

4. Принцип неопределенности (коридор вариативности)

Формально: Система устойчива только если у нее есть запас неопределенности (æ > 0).

  • Аналогия с IT: Это автоматическое масштабирование. Если у вашего приложения есть запас мощности (резерв манёвра), оно выдержит внезапный наплыв пользователей. Если сервер работает на 100% без учтённого запаса (æ → 0), то при малейшем скачке трафика он упадет (коллапс).

  • Аналогия из жизни: Это возможность сделать резкий поворот, остановиться, удержать равновесие. Например перед вами выскочил человек, вы можете затормозить или увести руль в сторону.

5. Принцип точки бифуркации (агентность, выбор)

Формально: Существенные изменения возможны только в точках перенаправления вектора (?ⳣ).

  • Аналогия с IT: Это деплой новой версии кода или рефакторинг архитектуры. Система не поменяется сама по себе. Нужно приложить усилие (команда инженера), чтобы перенаправить вектор развития проекта, преодолев инерцию старого кода.

  • Аналогия из жизни: Прежняя дорога перекрыта, нужно сделать выбор, по какому пути делать объезд.

Я написал лишь основы, это верхушка айсберга. У вас может закономерно возникнуть вопрос, а как же превратить эти принципы в работающую программу? Это тема для следующей статьи. Там мы разберём «онто‑контур» — строительный блок нашей будущей архитектуры.

Комментарии (14)


  1. Dobr
    08.05.2026 05:44

    Prompt: Напиши статью для Хабра о том, почему современные нейросети — это тупик. Придумай пару сложных аббревиатур, чтобы звучало научно (например, ОСНиУ). Разбей на 5 принципов и для каждого приведи аналогию из IT и из жизни, например, про поездку на велосипеде за мороженым. В конце пообещай написать продолжение.

    Result: Данная статья.

    Изобретать «новую модель ИИ», используя LLM для написания философской воды о вреде LLM — это, конечно, сильно.


  1. pg_expecto
    08.05.2026 05:44

    Исходный тезис ложен : "Нейросеть" НЕ "Искусственный интеллект".

    С задачами предназначенными для нейросетей - семантический анализ текстов, анализ разнородных данных, поиск корреляций, генерация гипотез , логический анализ данных - нейросети отлично справляются и используются в реальных практических задачах , давая главное - экономия рабочего времени.


  1. poige
    08.05.2026 05:44

    «Чужая душа — потёмки» (народная мудрость)

    Ну и… весна-с!


  1. amazingname
    08.05.2026 05:44

    Из вводной части статьи можно делать статью "N заблуждений о искусственном интеллекте".


  1. DrMoro
    08.05.2026 05:44

    Исходный тезис ложен : "Нейросеть" НЕ "Искусственный интеллект".

    Однако же, именно нейросети лежат в основе ИИ. И если следовать этой логике, тупик в развитии основы приведет к тупику развития того, что мы понимаем под ИИ.

    Так что, несмотря на некоторый круг задач, с которыми нейросети худо-бедно сейчас справляются, тема, поднятая автором, выглядит достаточно интересно. Хотелось бы продолжения.


  1. LekserEE
    08.05.2026 05:44

    Мы знаем, что происходит когда мы отправляем данные ИИ‑агенту и когда их получаем. Но что именно происходит внутри, в процессе? Почему модель решает ответить именно так, а не иначе?

    Вообще-то знаем и прекрасно. Буквально алгоритм написан людьми. Микроволновка тоже не досталась нам в дар от более продвинутой цивилизации. Ее изобрели инженеры, причем вообще изначально не для целей разогрева пищи

    Лучше бы дальше и не читал. Поверхностный текст


  1. PANuniver
    08.05.2026 05:44

    Рассуждать о том, как работает ИИ/нейросеть/LLM и называть её черным ящиком, выглядит со стороны как минимум странно.

    С ИИ можно прекрасно общаться на таком высоком уровне, на котором даже люди между собой не могут общаться.

    Кто зашёл в тупик, так это человеческая цивилизация ИММО


  1. ulisma
    08.05.2026 05:44

    Мне понравилась статья, но вторая часть спорна.

    Еще бы я добавил сюда экономические факторы: стоимость и потребность в железе, управлении и т. п. Т. е. еще посмотреть на полезность для общества с точки зрения соотношения затраты/результат.


  1. qweqweqweqweqweqweqweqwe
    08.05.2026 05:44

    Если спросить модель например «Почему яблоко упало?» она не будет вспоминать физику.

    Внезапно! Почему яблоко упало? Дискурсивно не отличается от того, что модель вспоминает физику!


  1. developer7
    08.05.2026 05:44

    Мы знаем, что происходит когда мы отправляем данные ИИ‑агенту и когда их получаем. Но что именно происходит внутри, в процессе? Почему модель решает ответить именно так, а не иначе?

    Не учитывая что статья похоже на типичный нейрослоп - но блин поменяйте немного промт! Сейчас в открытом доступе есть просто всё! При чём появилось прям вот сейчас - самое свеженькое.

    Я вот шарпист. Хочешь изучать внутренности - бери dotLLM огромный проект разжевывающий вообще всё. Конкурент llama.cpp

    Слишком сложно ? хочешь понять вообще все азы? На тебе 1 ФАЙЛ в 900 строк кода полностью реализующий всю работу LLM llama2.net - это С# порт от вылизанного до предела обучающего проекта от знаменитого Карпати. Легко гуглятся и такие же маленькие проекты которые для обучения сети. От того же Корпати.

    Глупый настолько что не способен понять 900 строк кода?

    Качаешь ollama - там вообще просто всё до безобразия (LLM studio не советую - со старта будете в шоке от кнопочек).

    Скачали. Запустили консоль - под виндой если. Пишем 1 строчку кода!

    ollama run qwen2.5:3b

    Ждём минутку на скачивание - и получаем рабочий быстрый умный чат почти как deepseek!

    На процессоре! Видеокарта не нужна. Всего 6 гиг памяти ram нужно. Сразу чат работает в той же консоле. Это что бы понять (снять флёр тайного знания) что это не магия а обычная программа которая работает вот прям у тебя.

    Уже годы руки чешутся написать свой проект от нуля до конца на C# полностью реализующий LLM со всеми пояснениями. Времени жалко... Да и другие справляются неплохо.


  1. Oeaoo
    08.05.2026 05:44

    А что, простите тогда, не тупик? Какой-то тупикоцентризм, получается.


    1. entze
      08.05.2026 05:44

      Ну колесо как инструмент тоже тупик получается.


  1. Groramar
    08.05.2026 05:44

    "Нейросеть не думает как человек. Она не выстраивает логические цепочки, а просто сопоставляет паттерны, на которых училась"

    Такое чувство, что автор ни разу не видел ризонинг моделей :) Там вот буквально логические цепочки.


  1. ivanuzzo
    08.05.2026 05:44

    статья понравилась, но я не понял, о чем она.