Владимир Крылов, профессор математики, научный консультант Artezio и один из самых глубоких русскоязычных экспертов по применению ИИ в разработке, дал интервью по итогам года. Мы поговорили о том, почему reasoning-модели галлюцинируют вдвое чаще обычных (и это математически неизбежно), почему OpenAI объявил «код красный» и отстаёт от Google, и правда ли, что программисты, умеющие писать код только руками, скоро вымрут как вид. Спойлер: Паваротти не умел читать ноты, и это кое-что говорит о будущем vibe-coding.
Владимир Крылов регулярно проводит лекции о практическом применении LLM в разработке на канале Ai4dev. Если хотите разобраться в теме глубже, чем позволяет это интервью в блоге ЛАНИТ, подписывайтесь.

Сооснователь Anthropic Джек Кларк высказал идею, что агентная модель себя не оправдала и теперь надо разворачиваться в сторону универсальных моделей, которые при полной передаче знаний смогут выдавать лучший результат по запросам и генерации кода. Что вы об этом думаете?
Я не до конца понял, что Кларк имеет в виду, потому что агентная модель как таковая никуда не исчезает. Вопрос в том, что удачная передача навыков, сконцентрированных в одной языковой модели, может превращать её в разнонаправленного эксперта. Агент при этом всё равно останется агентом.
Сегодня в большинстве задач, которые формулируют разработчикам, мы встречаемся с узконаправленными требованиями: сортировка писем, отправка чего-то. Навыки такого «работника с электронной почтой» могут быть достаточно хорошо представлены в виде контекста для большой универсальной LLM, и после этого она превратится в этого самого сортировщика почты. По существу, глава Anthropic призывает: возьмите наших «Клодов», возьмите наши большие модели, просто передайте им нужные навыки, и агенты превратятся в хороших экспертов для выполнения вашей задачи.
Здесь играет роль и то, что разработки начали расползаться по локально развёрнутым системам. Вошли в моду малые LLM — те, которые можно развернуть on-premises: у себя дома, на предприятии. Смысла платить за использование больших моделей становится меньше. Чтобы не терять долю индустрии этих сверхгигантских дата-центров, наверное, и сделано это превентивное высказывание: не забывайте, что все ваши задачи решаются с помощью больших моделей, развёрнутых в гигантских дата-центрах BigTech. Вот у меня пока такое впечатление. Посмотрим, что будет дальше, но, на мой взгляд, это просто привлечение внимания к подпискам.
Сейчас мы видим, что инвесторы начинают потихоньку разочаровываться в OpenAI и замечают потенциал в моделях Google. Появляются сообщения, что в OpenAI объявили «код красный» и им надо срочно выпускать новые модели. Что происходит на рынке? Как бы вы могли объяснить эту суету и спешку с выпуском моделей? К чему она может привести?
Я не специалист по рынку и маркетинговым приёмам. Понятно, почему в OpenAI «код красный»: действительно ускоряется разработка новых моделей, а из-за отсутствия каких-то радикально новых идей в архитектуре и методах обучения OpenAI просто отстаёт. Возьмем ту же GPT-5: всем ясно, что это, по сути, дообученная модель GPT-4.5. Причина этого отставания мне непонятна, но похоже, что после ухода Суцкевера в OpenAI стало туго с новыми идеями.
Зато Google открыл дорогу для широкого развёртывания дата-центров на TPU — Tensor Processor Unit. Google является хозяином, изобретателем, разработчиком и тем, кто задаёт моду. Сегодня Google может даже обойти GPU от Nvidia, потому что использует более тонкие настройки и возможности низкоуровневого программирования TPU.
Опыт DeepSeek показал: можно, не имея высокопроизводительного GPU, благодаря новым методам обучения и тщательному конструированию новых ядер CUDA, получить прирост в производительности, фактически компенсирующий недостатки железа. Сэм Альтман сказал, что у OpenAI «красный код», потому что Google может сделать серьёзный рывок вперёд со своей следующей моделью благодаря стечению обстоятельств с TPU. А у OpenAI ещё не развёрнуто достаточное количество мощностей, компания увлеклась бизнесом и отстала. Альтман буквально в этом признался: концентрация усилий на бизнес-решениях, на увеличении проникновения ChatGPT отвлекла OpenAI от разработки новых рискованных решений.
«Галлюцинация в LLM — это не дефект архитектуры»
Последние исследования показывают, что даже новейшие решения вроде последних моделей OpenAI демонстрируют достаточно высокий уровень галлюцинаций — около 33%, что вдвое выше, чем у предшественников. На Хабре и Reddit это одна из самых обсуждаемых проблем. Подскажите, как математик вы могли бы объяснить, почему галлюцинация — это не баг, а математическое следствие архитектуры трансформеров? Существует ли теоретический предел, ниже которого уровень галлюцинаций не опустится никогда?
Хороший вопрос. К счастью, недавно было опубликовано несколько работ, где именно с точки зрения математики разбираются эти проблемы. То, чем я в своё время занимался, очень тесно совпадает с тем, что было опубликовано.
Галлюцинация в LLM — это не инженерный артефакт, не дефект архитектуры и не следствие архитектуры трансформеров. Здесь сходятся особенности обучаемых моделей вообще. Есть не просто вычислительные проблемы — сам механизм attention представляет собой структуру, которая неизбежно содержит появление этих галлюцинаций. Существуют статистические ограничения, которые не преодолеют ни одна текущая архитектура, масштаб или оптимизация.
Это уходит куда-то в абстрактную математику. Возьмём функции как математический объект — например, функции, которые отображают множество целых чисел в множество целых. Множество таких функций континуально, а вот множество вычислимых функций счётно. Как говорится в математике, мера множества всех вычислимых функций равна нулю на множестве всех существующих.
Мы почти никогда не задаём себе неудобный вопрос: а что, если здесь в ИИ существенную роль сыграют невычислимые функции — те, для которых не существует машин Тьюринга, то есть их нельзя реализовать кодом ни на каком компьютере? Похоже, именно к этому мы и подошли.
Авторы одной из последних работ на эту тему доказывают теорему: для любого вычислительно перечислимого множества всегда найдётся такая последовательность, такой вход для LLM, на котором модель неизбежно ошибётся и не выдаст правильного ответа. Важно, что это утверждение не привязано к конкретной архитектуре или «параметрам побольше». Оно относится к самому виду задачи: к отображению (функции) из множества целых чисел в целое число — и к фундаментальным пределам вычислимости.
А вот что касается 33–48% галлюцинаций у новых моделей, здесь имеет место так называемый парадокс рассуждений. Обратите внимание: именно модели рассуждений, reasoning-модели, дали такой большой процент. Проблема здесь уже другая. Когда начинаются рассуждения, LLM упирается в генерацию огромного количества предложений, а мы в обучении пытаемся это ограничить.
Здесь мы приходим к новой проблеме, которая существует в теории обучения. В ней было показано, что такое VC-размерность при обучении и какая граница существует для приближения решения задачи методом обучения. Эта граница проявилась именно при использовании reasoning. Нет reasoning — и всё становится лучше.
Что же из этого следует? Известно одно: если вы вводите аугментацию, например, RAG, дополнительные инструменты, данные, которые привязывают к текущему решению задачи тот промпт, который вы подали во входное контекстное окно LLM, то вероятность галлюцинации резко снижается. Возьмите Gemini 2 Flash — 99,3% правильных решений, галлюцинации 0,7%. GPT-5 — 99,1%, GPT-4o — 98,5%. Когда вы отключаете режим рассуждений, вы уменьшаете частоту галлюцинаций. Плюс, когда вы используете дополнительные конкретные знания, относящиеся к вашей задаче, вы получаете резкий эффект уменьшения галлюцинаций.
Сегодня, на мой взгляд, все чаще понимают, что галлюцинация — это неотъемлемая характеристика, а не ошибка, требующая устранения. Отрасль признала, что нужно переходить к так называемой «калиброванной неопределённости» — когда системам обязательно вкладывают в обучающий контекст и алгоритмы способность сообщать, когда они чего-то не знают. Таким образом мы приходим к выводу: будем знать, сколько процентов галлюцинаций мы допускаем для этого типа задач. Иначе модель будет просто сообщать: «Я не знаю». Сегодня она так практически не говорит. Вы редко можете добиться от LLM признания «этого я не знаю».
Есть специальные датасеты, например PersonQA, позволяющие задать вопросы про конкретного человека. И вдруг LLM начинает изобретать то, чего никогда не было известно об этом человеке. Почему? Потому что она пытается ответить на вопросы как можно лучше, исследовать все возможные варианты и придумывает какой-то вариант. Тест на PersonQA подтверждает, что все модели на своём внутреннем знании всегда будут давать ошибку. Эта ошибка, как я уже сказал, не подлежит устранению. Она является неотъемлемым свойством обучаемых моделей вообще.
Одна из главных претензий — LLM не способны работать с большими кодовыми базами, не учитывают глобальный контекст проекта. При этом контекстные окна растут: у Gemini 2.5 Pro уже был миллион токенов. Почему увеличение контекстного окна не решает проблему архитектурного понимания? Это принципиальное ограничение или вопрос времени?
Конечно, такая претензия существует, но что значит «не может работать с большими кодовыми базами»? Зависит от того, как вы подходите к разработке. Если вы пытаетесь применить vibe-coding к работе с большой кодовой базой, то столкнетесь с ограничениями. Здесь два основных ограничения: архитектурное и вычислительное.
Контекстное окно сегодня может достигать миллиона токенов, и, казалось бы, мы можем погрузить туда большую кодовую базу. Но смотрите, что получается: объём вычислений при квадратичной реализации механизма attention приводит к тому, что если кодовая база содержит миллионы строк и тысячи файлов, то даже в окно с миллионом токенов они полностью не поместятся. Когда же они туда не помещаются, возникает смысловой, семантический разрыв — модель работает фрагментарно, обрабатывает локальные куски. А файлы, которые имеют влияние, но не попали в контекстное окно, оказываются в стороне. Человек-разработчик знал, что у него есть зависимость, а LLM эту зависимость просто не видит из-за attention. Из-за этого возникает множество проблем: кажется, что код содержит ошибки или написан как-то не так, имеет лоскутный характер.
Есть ещё архитектурная проблема — она называется «потерянный в середине». Механизм внимания работает так, что на вычисление коэффициентов attention наложена U-образная кривая: последние и первые токены учитываются, а токены в середине окна теряют внимание. Когда релевантный код находится в начале или конце, он отлично работает. Но если важные связи кода попадают в середину контекстного окна, проявляется проблема.
Понимание кода на уровне целого репозитория требует понимания межфайловых зависимостей, взаимодействия модулей, отношений импорта, соглашений. LLM с такими сложными связями сегодня работают плохо. Как только генерация кода произойдет с учётом некого локального файла, появляется проблема: начинается итеративный процесс тестирования и генерации, захватываются другие фрагменты, ошибка может начать распространяться вместо того, чтобы итеративно сойтись к нулю.
Когда вы пытаетесь весь большой репозиторий подвергнуть vibe-coding, так и получается, к сожалению. Сегодня стратегия снижения рисков обычно такая: нужно хранить не только полный репозиторий, но и его сжатый вариант — такие сжимающие кодеры постоянно совершенствуются. Можно также организовать RAG из кодовой базы. Если аккуратно сделать индексирование, то чередование между RAG и полной кодовой базой, как правило, гораздо быстрее сводится к регулярному качественному кодированию. Также рекомендуется специальным образом фрагментировать проект на составляющие и работать с законченными конструкциями, объединение которых даст лучший результат, чем работа с полной кодовой базой.
На Хабре опубликован детальный разбор auth-библиотеки, созданной Claude, где найдены многочисленные security-уязвимости: захардкоженные пароли, вложенные функции, неправильная реализация аутентификации. Почему модели систематически генерируют небезопасный код, несмотря на огромные обучающие датасеты? Это проблема данных или самой архитектуры обучения?
Честно говоря, я эту статью видел, и смысл там не совсем такой, как вы сформулировали в вопросе. Обратите внимание на заключение автора. Он пишет: «Для первой попытки создания библиотеки auth результат неплохой». Автор отмечает, что пока не рекомендовал бы использовать эту библиотеку. Ссылка только одна: «По моему опыту, очень сложно создать корректную и безопасную реализацию провайдера auth. И эта задача определённо требует больше времени и внимания, чем было потрачено на эту попытку. Пока».
Вывод не в том, что «модели систематически генерируют небезопасный код». Это тоже относится к ошибкам, с которыми вы встречаетесь, но тут целую библиотеку сгенерировали — специальную для авторизации. Мне кажется, это, наоборот, серьёзная демонстрация возможностей — пустить LLM туда, где идёт генерация критически важных фрагментов кода.
«Образование необязательно для эффективного использования LLM»
На Reddit сейчас активно обсуждают, стоит ли вообще начинающим учиться программировать с помощью LLM. Опытные разработчики предупреждают, что новички, полагаясь на искусственный интеллект, пропускают критические этапы: структурирование кода, отладку, исследование проблем. Что вы как профессор математики думаете о vibe-кодерах без реального понимания? Это угроза для профессии или естественная эволюция?
А все ли талантливейшие музыканты, которые известны, имели «реальное понимание», структурирование? Например, Лучано Паваротти, легендарный оперный певец, вообще не умел читать ноты. Есть воспоминания дирижёра Ричарда Бонинга: «Паваротти никогда не учился и не умел читать музыку. Всё разучивал на слух». Да что говорить, Виктор Цой вообще не имел профессионального музыкального образования. Фрэнк Синатра никогда не умел читать ноты, учился на слух.
Мы часто не сверяем выводы с историческим опытом человечества. Если утверждать, что красота и эффективность кода никак не связаны с дисциплиной структуры — той самой, которой нас учили «по-школьному», — то логика приведёт к простому выводу. Одним полезно изучать «музыкальную грамоту» (основы, правила, сольфеджио), а другим, чтобы стать выдающимся программистом, это может и не понадобиться. Большая языковая модель способна резко ускорить такой путь. Она позволит быстро продвинуться вперёд и получать качественный результат в режиме vibe-coding.
Владимир Владимирович, я слышал мнение, что классическое образование в программировании мешает использовать LLM. Вы не встречались с таким?
Нет, я так не думаю. Мне кажется, что оно необязательно для эффективного использования LLM. Когда-то раньше считали, какой ты программист, если шестнадцатеричную систему исчисления не знаешь? А кто сейчас активно использует шестнадцатеричную систему из наших ребят-программистов?
Разработчики жалуются, что 45% времени уходит на исправление кода, который LLM сгенерировала «почти правильно». Модели часто применяют оборонительное программирование вместо решения корневых причин. В чём математическая природа этой «почти правильности»? Почему модели систематически выбирают заплатки вместо архитектурных решений?
Я уже немного говорил об этом. Архитектурное решение требует целостного рассмотрения проекта, а при серьёзных проектах мы даже не можем весь проект загрузить в контекстное окно LLM. Если проект построен на глубоких взаимосвязях, получается, что модель пишет фрагментарными участками код качественный, но не учитывающий вещи, относящиеся к отдалённым частям. Ведь когда вы создаёте репозиторий, вы не думаете о том, как он будет загружаться в окно, не пытаетесь это учесть. Вот и получаются заплатки — каждая из них хороша, а в целом проект выглядит «не по-человечески». Одна из главных причин — именно в работе с очень большими проектами.
Какие модели сейчас наиболее перспективны для разработки ПО? Кто в лидерах? Как будет развиваться гонка дальше?
Дело не в самой модели как таковой. Среди моделей лидеры известны. Сегодня интересны именно находки, превращающие модель в соответствующего агента — например, Claude Code или Cursor. Многие указывают на перспективность новых китайских разработок. Но это все не просто изолированная модель, с которой вы один на один работаете, как с ChatGPT. Вы работаете с системами разработки, с агентами, интеллектуальными IDE. Если говорить о том, что в этом агенте можно менять LLM и смотреть результат, то, судя по всему, Anthropic сегодня создаёт наилучшие для кодирования модели. Когда их включают практически в любого достаточно совершенного агента, качество генерации кода оказывается выше.
«Прогресс всё сильнее смещается в сторону аугментации человеческого промпта»
А почему не все конкурирующие модели могут достичь одинакового результата? Почему у кого-то бывают прорывы, у кого-то — нет?
Законы масштабирования LLM исчерпали свои возможности, и все начинают это осознавать. Однако сделать сколько-нибудь радикальные шаги в архитектуре LLM пока не удаётся, хотя и здесь появляются многообещающие результаты. Зато как только вы начинаете применять tool use, модель приобретает колоссальные возможности. Когда она превращается в агента с инструментами, вы получаете результаты гораздо лучше, в том числе при разработке софта. Если даёте хорошие инструменты, агент позволяет построить гораздо лучший код, чем «голая» модель.
Почему модели не станут одинаково хороши в роли одного и того же агента? Казалось бы, инструменты одни и те же, память та же, а результат у одной заметно хуже. Потому что модели обучены по-разному.
Во-первых, различаются архитектурные и инженерные решения — особенно вокруг attention. Одни команды экспериментируют с Linear Attention и родственными подходами, чтобы уйти от квадратичной стоимости и эффективнее «тратить» токены на рассуждение. Это даёт скачок, но параллельно другой разработчик может выстрелить за счёт нового режима reinforcement learning, и внезапно именно он окажется впереди по качеству.
Во-вторых, всё более популярны нативные механизмы вызова инструментов: модели не нужно указывать формат — она умеет вызывать функции «из коробки». Но и здесь все обучают по-разному: качество работы с инструментами (как выбирать инструмент, как формулировать запрос, как проверять результат) становится отдельной осью, по которой модели расходятся.
Наконец, прогресс всё сильнее смещается в сторону аугментации человеческого промпта: модель дополняют планированием, оптимизацией промпта, расширением контекста промежуточными проверками. А если аугментация опирается на внешние источники знаний, в игру входит влияние разработчика: выигрывает не абстрактно «лучшая модель», а та, чья команда лучше продумала, чем и как именно подпитывать запрос.
Как вы считаете, модели будут долго оставаться энергозависимыми и ресурсозависимыми? Может наступить ситуация, когда модель не будет требовать таких ресурсов?
Это связано с тем субстратом, на котором модели строятся, — кремниевая основа с регистрами, памятью, GPU. С одной стороны, достаточно перенести архитектуру трансформера на другой субстрат — например, биологический или химический — и все энергетические характеристики существенно изменятся. Это одно направление.
Второе направление — по-другому организовать преобразование информации внутри. Обычно это называется созданием новых архитектур. Например, появился символический языковой процессор — LLM, которая внутри себя использует не просто токены с механизмом next token prediction, а работает непосредственно с уравнениями, символическими вещами. Ей совершенно очевидно, что такое x², тогда как объяснить это обычной языковой модели — довольно сложная задача. Раньше мы вызывали инструмент-калькулятор, и ошибки исчезали — те, которые так изводили, когда LLM не знала, сколько будет 5 + 17,5. А сейчас появляется архитектура, где внешний инструмент не нужен, он реализован внутри. Мы теперь знаем, какие инструменты нужны для высокоэффективной работы.
Здесь победы одного направления не будет — скорее всего, будет параллельное существование. Недаром Ян Лекун ушёл заниматься моделями физического мира. Он считает, что вообще всё неправильно — создавать знания на основе текстов и языка, их нужно создавать на абстракциях, описывающих физический мир. Я не могу с ним согласиться — это сильно ограниченный подход. Это один из инструментов, которым должна располагать модель, потому что мы сами не знаем этих абстракций. Пока вы думаете, что главное — куда упадёт молоток, выпавший из руки робота, вам хватает второго закона Ньютона. Но представьте, что он роняет квантовый молоток — вы не можете описать, что произойдёт. Знания человечества в основном развивались благодаря созданию письменного текста, поэтому отрицать языковые модели в пользу физических моделей мира было бы совершенно неверно. Хотя это должно присутствовать рядом, внутри, вместе.
Почему LLM так плохо переносят знания между доменами? Мы учим их всему подряд, а они ведут себя так, будто каждый новый проект — первая встреча с реальностью.
У каждой LLM есть параметрические знания, зашитые внутри весов. Здесь ничего не меняется от задачи к задаче — она одинаково «образована». Сегодня мы дополнили LLM внутренней памятью агента. Эффективно работать с этой памятью ещё не умеют. Когда строите мультиагентную систему, вы, как правило, зашиваете стратегию работы с памятью внутрь. Но в самой LLM управление памятью пока рассматривается просто как инструмент — оно несовершенно.
В RAG существует масса проблем с релевантностью отдельных чанков, которые возвращаются во время retrieval, потому что не хватает способности семантического анализа для правильного определения адекватных документов. Здесь много проблем, которые будут разрешаться по мере развития. Проблема, которую вы обозначили, будет постепенно решаться, потому что память сегодня не является органической частью LLM.
«Видеть новое и не бояться его применять очень важно для программиста»
В 2024 году вы написали на Хабре, что будут созданы другие рабочие места, требующие иных умений и знаний, связанных с LLM. Какие именно умения станут ключевыми для программистов через 3–5 лет? На что делать ставку молодому специалисту?
Я, конечно, не пророк и не могу сказать, какие умения станут ключевыми через 3–5 лет. Знаю одно: молодой человек, вступающий на стезю разработки информационных систем, не должен быть консерватором. Он не должен упираться в существующие методики и воспринимать всё новое с позиции «ничего нового под Луной, всё, что было, то и завтра будет». Видеть новое и не бояться его применять — очень важно для программиста.
Насколько мы близки к тому, что LLM заменят программиста совсем? Это самый спорный и болезненный вопрос.
Мне кажется, LLM в нынешнем виде не станут полноценной заменой человеку. Скорее, появится иной класс систем, который возьмёт на себя эту роль. Вполне возможно, что значительная часть задач разработки ПО будет решаться автономно, практически без участия человека.
Если смотреть шире и допустить, что мы — лишь один из исторических этапов цивилизации и однажды передадим эстафету дальше (если, конечно, не успеем уничтожить себя раньше), то да: продолжат уже «они» — не люди, а кто-то совсем другой. Но это будут не LLM — по крайней мере, не в том виде, в каком мы понимаем их сегодня.
Как вы относитесь к идее самопишущихся программ, самовосстанавливающихся систем, которые сами себя могут чинить и дорабатывать? Это действительно тренд или мы говорим о далёком будущем?
Почему же? На канале Ai4Dev у меня уже есть лекция о саморазмножении LLM. Я достаточно детально рассмотрел этот вопрос — он во многом касается того, о чем вы спрашиваете. Самосовершенствование как мутация при размножении вполне проходит.
А LLM способна эволюционировать самостоятельно, без участия разработчиков?
Сейчас есть LLM, работающие в режиме continuous training. Они всё время обучаются, эволюционируют.
Тогда почему сверхразум, универсальный интеллект не появился? Мы только о нём говорим уже который год. Почему LLM застопорились в показателях? Неужели маркетинг задушил научную часть?
Он не задушил прогресс — скорее, заставил индустрию активнее перераспределять ресурсы в пользу быстрого, измеримого практического результата. Как говорил Сэм Альтман, фокус смещается туда, где можно показать эффект здесь и сейчас.
Достаточно посмотреть на то, что происходит с бенчмарками. Все бросились придумывать метрики вроде GDP Vault, т. е. попытки измерить вклад конкретной LLM в валовой продукт, буквально «прибавку к ВВП». В таких оценках фигурируют десятки профессий и крупнейшие сектора экономики, которые дают основную долю ВВП. Задачи формулируют и проверяют профессионалы с опытом от 15 лет — и именно они в итоге будут «ставить оценку» той или иной модели.
Вспоминается формулировка, которую я помню в пересказе (кажется, её приписывают Сатье Наделле): общий искусственный интеллект появится тогда, когда модель начнёт приносить 100 млрд долларов дохода. Видите, как мы разворачиваемся от научных вопросов и аккуратных определений? Вместо «что такое AGI» получается «сколько он приносит». Заработало 100 млрд — значит, объявляем: вот он, общий интеллект. Экзамен по философии отменяется, бухгалтерия зачёт поставит.
Опытный разработчик с двадцатилетним стажем пишет на Хабре, что vibe-coding имеет негативные когнитивные последствия — теряется что-то важное, когда программист перестаёт писать код руками. Это страхи или реальная угроза? Люди разучатся думать?
Мне кажется, теряются программисты, которые умеют писать код только руками. Вот такие программисты перестанут быть программистами.
Я с удивлением прочитал один серьёзный отчёт в «Российской газете»: каждый пятый россиянин сегодня считает, что Солнце вращается вокруг Земли. Опросы проводил Институт психологии РАН. 16% опрошенных не сомневаются, что люди и динозавры жили в одно время. При этом 90% респондентов не смогли назвать ни одного ныне живущего российского учёного мирового уровня. 39% верят в существование ведьм и колдунов, 34% — в то, что экстрасенсы могут предсказывать будущее.
Вот такие вопросы совершенно естественны. Часть людей, которые думают, что люди и динозавры жили в одно время, могут говорить: нет, нельзя, все обязательно должны понимать, как написать код руками. Но стоит ли учиться писать код руками для компьютера CL1 — в одной из лекций я рассказывал о больших проектах на биокомпьютерах, где используются живые нейроны. Что толку от того, что программист умел писать код для кремниевых процессоров, если теперь надо работать на CL1? Он должен освоить новое, приспособить LLM к тому, чтобы генерировать код для этой платформы через симуляцию субстрата.
Ваш прогноз на 2026 год. Чья LLM станет лучшей? Давайте сделаем ставку, а потом сверим в следующем интервью.
Не делаю ставки ни на лошадей, ни на людей.
Но я скажу вам другое, и это, пожалуй, и есть прогноз. Сам вопрос «чья модель лучше» через год-два скорее всего потеряет смысл. Мы уже сейчас видим: разница между топовыми моделями на большинстве практических задач — проценты, иногда доли процента. Лидерство переходит от одной компании к другой каждые несколько месяцев. Сегодня Anthropic впереди в кодинге, завтра Google сделает рывок на TPU, послезавтра появится какой-нибудь новый DeepSeek и всех удивит.
Понимаете, гонка моделей — это как гонка процессоров в 90-е. Все следили: Intel или AMD, сколько мегагерц. А потом оказалось, что важнее — какой софт вы на этом запускаете, какую экосистему вокруг построили. То же самое происходит сейчас. Победит не тот, у кого модель на полпроцента лучше на каком-нибудь бенчмарке, а тот, кто создаст лучшую экосистему агентов, лучшую интеграцию с инструментами разработчика, лучший developer experience.
Если хотите мой совет — не утруждайте себя постоянным отслеживанием того, кто «победил» в очередном рейтинге. Следите за тем, как меняется ваша собственная продуктивность с разными инструментами. Попробуйте Claude Code, попробуйте Cursor, попробуйте что-то ещё через полгода. Ваш личный опыт — это единственный бенчмарк, который имеет значение.
А что касается 2026 года... Я думаю, мы будем обсуждать совсем другие вопросы. Не «чья модель лучше», а «какой агент лучше решает мою конкретную задачу». Ответ будет зависеть не от названия компании в заголовке, а от того, как этот агент настроен, какие у него инструменты, какой контекст вы ему дали. Вот это и есть настоящий сдвиг, который произойдет. Модель станет commodity как электричество из розетки. Никто же не спрашивает, с какой электростанции у вас ток. Важно, что вы с этим током делаете.
Так что ставок не делаю. Но с удовольствием обсужу через год, насколько я оказался прав или неправ в этом предсказании.
Комментарии (160)

Bardakan
20.01.2026 07:13Мы почти никогда не задаём себе неудобный вопрос: а что, если здесь в ИИ существенную роль сыграют невычислимые функции — те, для которых не существует машин Тьюринга, то есть их нельзя реализовать кодом ни на каком компьютере? Похоже, именно к этому мы и подошли.
Мой неудобный вопрос "доктору технических наук":
У машины Тьюринга бесконечная лента, а значит в теории можно все значения якобы невычислимой функции можно записать тупо на отрезке этой ленты и обращаться к ним как к списку значений (при условии конечно, что вы не знаете саму функцию, но знаете ее значения). Получается, вы не правы - проблема не в том, что что-то там нельзя реализовать машиной Тьюринга, а в том, что в реальности невозможно сделать бесконечную память?
flancer
20.01.2026 07:13а значит в теории можно все значения якобы невычислимой функции можно записать тупо на отрезке этой ленты
Нельзя. Порядки бесконечности разные. Если одна бесконечность больше другой в два раза, то первую никак не уложить во вторую даже чисто математически.

Bardakan
20.01.2026 07:13но у вас же порядок бесконечности ленты неизвестный

flancer
20.01.2026 07:13Почему неизвестный? Как говорят математики в таких случаях: "Допустим, порядок бесконечности Ленты Тьюринга равен 1. Тогда ..."
Весь вопрос в том, для чего нужна Лента Тьюринга? Если для реализации бесконечного множества всех вычислимых функций, то её длина бесконечна, но меньше, чем у аналогичной ленты для реализации множество всех вычислимых функций + ещё одной. Порядок совпадает, но длина меньше, как ни крути ¯\_(ツ)_/¯ А если добавлять не просто +1 функцию, а ещё одно бесконечное множество функций уже невычислимых, то тут и порядки длины лент могут быть разные (см. матанализ, пределы).

artptr86
20.01.2026 07:13Если для реализации бесконечного множества всех вычислимых функций, то её длина бесконечна, но меньше, чем у аналогичной ленты для реализации множество всех вычислимых функций + ещё одной.
А если добавлять не просто +1 функцию, а ещё одно бесконечное множество функций уже невычислимых, то тут и порядки длины лент могут быть разные
Напоминает парадокс Гранд-отеля Гилберта

Bardakan
20.01.2026 07:13не знал название. Именно это я имел в виду, спасибо!
Нам в универе фактически преподавали более простые случаи этого парадокса.

axion-1
20.01.2026 07:13Порядки бесконечности разные.
Там речь про отображение множества целых чисел, то есть счётного. Это минимально возможный порядок бесконечности. Если лента бесконечная, поместится.
Если одна бесконечность больше другой в два раза
Множество целых чисел и множество чётных чисел имеют один и тот же порядок бесконечности.

flancer
20.01.2026 07:13в теории можно все значения якобы невычислимой функции можно записать тупо на отрезке этой ленты и обращаться к ним как к списку значений
Если речь идёт про одну невычислимую функцию, то - да, там порядок бесконечности одинаков. Я что-то по невнимательности решил, что разговор идёт про множество всех вычислимых функций и про множество всех невычислимых.

test4354545
20.01.2026 07:13Если одна бесконечность больше другой в два раза, то первую никак не уложить во вторую даже чисто математически
ого, вы какую-то свою математику открыли? Потому что 2⋅∞=∞

flancer
20.01.2026 07:13
Нет, это обычный матанализ.

test4354545
20.01.2026 07:13А причем тут предел? Никто не говорит про то что нужно писать на растущие одинакого со временем в длину ленты. Они по умолчанию уже бесконечны(либо можно еще представить что если попытаться запихать на бесконечную ленту х2 от ее текущего размера то она моментально увеличится на сколько нужно. А через свою формулу предела ты это свойство не выражаешь). На бесконечную ленту ты можешь записывать бесконечно бесконечное количество раз. Вроде несложная мысль

flancer
20.01.2026 07:13Бесконечности бывают разные. Это тоже несложная мысль. И матанализ её наглядно демонстрирует. Я просто переписал ваше же "2⋅∞=∞" в несколько другой форме.

Cerberuser
20.01.2026 07:13Бесконечности бывают разные, совершенно верно. Правда, ни "2⋅∞=∞", ни предел отношения с этим не связаны (по крайней мере, явно). Но да, есть бесконечное число разных счётных бесконечностей (таких, которые могут влезть на ленту машины Тьюринга) и ещё более бесконечное число разных бесконечностей, которые больше счётных (и на ленту по определению не влезут). Ключевые слова для поиска - "порядковые числа" либо "ординалы".

gres_84
20.01.2026 07:13У меня есть 2 отрезка. Один больше (длиннее) другого в 2 раза. Легко доказать, что каждой точке первого отрезка можно сопоставить одну и только одну точку второго

kogemrka
20.01.2026 07:13В исходном комментарии в "в два раза" какая-то ерунда, конечно. Но бесконечности, разумееются бывают разными - множество точек на отрезке вещественной прямой невозможно сопоставить множеству рациональных чисел.
Наверное, автор исходного комментария рассуждая про разные бесконечности пытался сопоставить множество всех функций, включающие в себя - все невычислимые (допустим, рассматриваем функции N->N) и множество вычислимых функций.
И тех и других бесконечно, но вычислимых - счётное число, а всех функций из N в N - несчётное (кардинальное число - то же, что у отрезка)

flancer
20.01.2026 07:13Типа того. Пример с бесконечностью того же порядка не особо удачный. Но я и не математик :) Я просто с универа помню, что бесконечности бывают разные.

kogemrka
20.01.2026 07:13У машины Тьюринга бесконечная лента, а значит в теории можно все значения якобы невычислимой функции можно записать тупо на отрезке этой ленты
Машина тюринга - это вполне себе конкретный формализм, в нём всё довольно чётко определено.
Вычислительная функция - это тоже конкретный формализм.
Определить эту пару сущностей можно по-разному, более того, довольно часто получаются эквивалентные вычислительные модели - допустим, можно "машиную тюринга" описать с одной лентой - бесконечной в одну сторону.
А можно описать с лентой бесконечной в две стороны.
А можно определеить машину тюринга как машину с n лент.
(А в качестве упражнения - доказать, что вычислительные модели - эквивалентны).
Но если вы задаётесь вопросом "можно ли сделать X на машине тюринга" или "может ли f быть вычислимой функцией", какой-то конкретный формализм придётся выбрать. На каком-то "эмоционально-чувственном уровне" тут рассуждать - абсолютно бесмысленно и вредно. И не нужно. Это конкретная формальная конструкция, в которой каждый элемент определён.
Наиболее популярный формализм для "вычислимых/невычислимых функций" - это f: A* -> B*, где A* - это слово (конечная последовательность) некоторого конечного алфавита. Это слово - записывается на старте на ленту (остальная бесконечная часть ленты - заполнена пустым символом).
---
Соответственно, начало вашего утверждения "можно заранее записать все значения" уже заранее противоречит стандартному определению.
Что такое "заранее записанные все значения некой невычислимой функции?"
Это не может быть стартовым состоянием ленты (стартовое состояние задаётся конкретным образом). Это не может быть частью входа (вход - это слова, т.е. последовательности конечного размера).
Выходит, вы рассуждаете про какую-то другую формальную конструкцию. И машина, про которую вы рассуждаете - может быть, а может и не быть эквивалентна Тюринговской.
Спойлер - не эквивалентна. От этого у вас все невычислимые по Тюрингу функции стали вычислимы.
---
Разумеется, если вдруг вы начинаете рассуждать про "другие функции" и "другие машины тюринга", понятие "вычислимости" может сломаться. Например, давайте "назовём машиной тюринга волшебного оракула который может просто взять и за один шаг записать ответ f(x) для входа x для любой заранее заданной f" - очевидно, у такой "машины" невычислимых функций не бывает.
---
При этом, ваш вопрос не лишён смысла - мы можем вполне себе рассуждать про машины тюринга с каким-то хитрым бонусом - в том числе, бесконечным и неконструктивным. Такие вещи в теории принято называть "вычислениями с оракулами". Оракул - это такой чёрный ящик, который "что-то умеет". Например - выдавать значение некоторой невычислимой функции.
И можем порассуждать, что будет, если к машине тюринга присобачить оракул в виде некоторой невычислимой функции - можем порассуждать, будут ли у такой машине "невычислимые-с-волшебным-оракулом" функции, или добавление одного волшебного оракула - достаточно?

SwingoPingo
20.01.2026 07:13Насколько я помню еще с корнем из двух вышла накладка что он невычислим при использовании основы-катетов, где то во времена Пифагора.

vadimr
20.01.2026 07:13Знать значения – это то же самое, что знать саму функцию. Невычислимую функцию невозможно расписать на ленте, потому что мы не знаем её значений.
Кроме того, как верно замечено выше, вещественную (и выше) функцию общего вида вообще невозможно расписать на ленте.

Edwward
20.01.2026 07:13Одним полезно изучать «музыкальную грамоту» (основы, правила, сольфеджио), а другим, чтобы стать выдающимся программистом, это может и не понадобиться.
На мой взгляд абсолютно некорректная аналогия. Музыкальное искусство появилось и может существовать без «формализации». Для гениального исполнения «светит месяц» на флейте , действительно можно не изучать ноты.
А вот в отношении кода ??? Как может получится гениальный кодер без знания «нот» ? Выдающимся математикам тоже не надо знать «ноты» - цифры , интегралы там всякие ??? Сразу в «Перельманы»?

tonteliona
20.01.2026 07:13Музыкальное академическое искусство без знания нот нельзя изучать и практиковать тоже:)
И в аналогии с мисье Паворотти, важный момент, он очень хорошо знал ноты, но как и любой спец. дурил окружающих:) у него первые педагоги заставляли учить распевки, пассажи, гаммы и др. плюс батя был в проф хоре как и он:)
Ну, это типо как в ИТМО отучиться на теор мехе и всем рассказывать, что ты ноль в математике и физике, работаешь по наитию, без вычеслений.
Поэтому что в коде, что в музыке (и в художке и до) без основ и базы не куда, а то что профессура и профы говорят нужно делить на два, уж больно они любят дурить людей, не ну а чё вдруг ещё и проверят:)

DmDu
20.01.2026 07:13Тут ещё момент, что Паворотти не создавал музыку.
Не знаю за академическую музыку, но я могу снять на слух практически любую гитарную партию имея гитару, кроме скоростных соло. Естественно запись будет в виде табулатуры, поскольку нотной грамотой свободно не владею. Потом смогу её воспроизвести. Но сочинять более менее сложные и интересные пассажи без знания хотя бы гамм и минимума музыкальной теории, я считаю не реальным. Поэтому Паворотти мог спеть то что он услышал, но он не сочинял поэтому ему муз теория вроде и не нужна.

SwingoPingo
20.01.2026 07:13Поддержу. Любое написание чего то, что "не вмещается в окно контекста" требует записи, если не использовать существующие, придется выдумывать свою.
Так же там присутствует и декомпозиция и абстракции и держать всю композицию в уме именно что в виде звукового ряда - прям очень накладно. Ну может есть уникумы
OldCreater
20.01.2026 07:13"Пол Маккартни так и не выучил нотную грамоту в традиционном понимании, а сочинял музыку исключительно на слух, опираясь на прекрасный музыкальный слух и интуицию, что подтвердил сам в интервью, а также его коллеги по The Beatles. Несмотря на то, что он брал уроки фортепиано и трубы, нотная запись не давалась ему, и он, как и другие участники группы, «не умел читать или писать ноты». И кто скажет, что он не гениальный музыкант?

asatost
20.01.2026 07:13И кто скажет, что он не гениальный музыкант?
Аналогия неверная. В музыке эквивалентом программиста, не умеющего писать код руками, выступает музыкант (композитор), который не умеет играть на музыкальных инструментах.

vtal007
20.01.2026 07:13это дико странно, куча народу ходит в музыкалку и осваивает ноты ну, ну я даже не знаю, ну пусть за год (на самом деле наверно за месяц-другой) - это простая память, для фоно -надо 2 ключа помнить, просто, что вот есть нотный стан и 2 октавы (основной диапазон) записываются вот таким образом. Соль на второй линейке, далее по полутонам вверх и вниз. Это как таблица умножения (наверно даже проще, тут не надо учить, тут зрительно запомнить где какая нота записана) - ну еще добавить длительность, что четвертинка вот таким значком, а целая - вот таким
я не поверю, что Пол Маккартни настолько альтернативно одаренный (это не оскорбление, а некий факт.. то есть одаренный в музыке но дико тупой в нотах)

engine9
20.01.2026 07:13В творчестве можно и без знания матчасти, важнее знать и понимать закономерности которые нравятся людям. Или как подать себя так, чтобы "хайпануть", примеров в истории много. Академические знания это систематизированные и хорошо структурированные знания накопленные на практике, но сами по себе они "мертвы", можно быть идеальным технарём и не быть признанным зрителем. Всё очень переплетено.

vaslobas
20.01.2026 07:13Вы сейчас смешали поп-музыку и академическую. Это два разных жанра, каждый со своей аудиторией. Зачем сравнивать их вообще?

artptr86
20.01.2026 07:13Другое дело что в рок-музыке многие музыканты действительно могут «не знать нот», но это может касаться исключительно нотации. Играют они всё равно по памяти и интуиции.

K0styan
20.01.2026 07:13На первый взгляд да, а с другой стороны разговоришься с таким - а он свободно понятиями музтеории оперирует. Не в полном академическом комплекте, но и не совсем уж вершками, явно понимая, о чём говорит.

Luis2
20.01.2026 07:13Скорее корректная формулировка такая: без базовых знаний можно начать и даже быть продуктивным, но потолок определяется тем, насколько глубоко ты готов эти знания потом освоить

Gizma_2000
20.01.2026 07:13Т.е. посыл в этой статье - уметь писать низкоуровневый код, это вредно.... хм... "написание" кода это, 10% всей работы, остальное это понимание алгоритмов, прогнозирование как когда и куда лучше сложить информацию, как лучше построить конвеер или конечный автомат, ну итд.... какой там где язык, это уже фиолетово абсолютно... невозможно писать как боженька на C и ПЛИС, и вообще не понимать как писать на PHP каком-нить... ты можешь это не любить, но если надо - освоишься в 100 раз быстрее чем PHPшник в твоем ПЛИСе.... Если человек всё это нутром чувствует, перестроиться на какой нить там CL1 и хрен знает что, это вопрос пары месяцев... а вот если ты на питухе три скрипта писать умеешь, и не...шь что там под капотом этого питуха, то тут все конечно уже, лучше промпты пиши.... Крайне странный вывод из статьи... нейронки - это математика + дико оптимизированные операции с малой вариативностью(так должно быть по крайней мере)... и пока ишо они считаются не биокомпьютерами, а вполне себе человеческими логическими машинами))) Тот же самый трансформер - на чем держится вся эта LLM, c точки зрения вычислений в логической машине - крайне простая штука...

axion-1
20.01.2026 07:13Авторы одной из последних работ на эту тему доказывают теорему: для любого вычислительно перечислимого множества всегда найдётся такая последовательность, такой вход для LLM, на котором модель неизбежно ошибётся и не выдаст правильного ответа.
Абсолютно верное и абсолютно бесполезное утверждение, как в анекдоте про математика. Интеллект, естественный или искусственный, не обязан быть непогрешимым.

vadimr
20.01.2026 07:13Смотря в какой задаче. Если он управляет ядерным реактором рядом с вашим домом, вы, может, по-другому заговорите.

Oncenweek
20.01.2026 07:13Ну сейчас этот реактор управляется интеллектом которые не только 100% иногда ошибается, но уже несколько раз делал ошибки именно в этом классе задач. Для ИИ достаточно быть статистически надежнее ЕИ, а не полностью непогрешимым

Wesha
20.01.2026 07:13Ну сейчас этот реактор управляется интеллектом которые не только 100% иногда ошибается, но уже несколько раз делал ошибки именно в этом классе задач
Вообще-то чернобыльским операторам система четыре раза говорила «тушите свет, сливайте воду» — но операторы настаивали, что ыкспырымент маст го он.

axion-1
20.01.2026 07:13Предпочту того кто реже ошибается, в любой задаче, особенно связанной с безопасностью. И зная какую дичь порой способен творить естественный интеллект.

RenatSh
20.01.2026 07:13> Сейчас есть LLM, работающие в режиме continuous training. Они всё время обучаются, эволюционируют.
Что-то ничего не гуглится, это же не RAG имелся в виду
t1nker
20.01.2026 07:13Я так понимаю это он про что-то типо Cursor autocompletion model. У этой модели настроен пайплайн обучения и новая версия выходит каждые несколько часов.

R0bur
20.01.2026 07:13Опросы проводил Институт психологии РАН. При этом 90% респондентов не смогли назвать ни одного ныне живущего российского учёного мирового уровня.
Любопытно. Посмотрел подробности по указанной в статье ссылке:
Кстати, в опросах, которые проводились не только Институтом психологии РАН, но ВШЭ и ВЦИОМ, на вопрос, кого из ныне живущих российских ученых мирового уровня вы можете назвать, ответили примерно 7-9% респондентов. Показателен список фамилий: как правило, упоминались Михаил Ковальчук, Леонид Рошаль, Татьяна Черниговская, Виктор Садовничий, Лео Бокерия, Станислав Дробышевский. Именно они часто появляются на телеэкранах, а также активно работают в соцсетях.
Интересно, на что рассчитывали Институт психологии РАН, ВШЭ и ВЦИОМ, задавая такой вопрос? Что респонденты регулярно читают научную периодику и следят за индексами цитирования публикаций авторов? Или какой критерий "мирового уровня" они имели в виду?
Решительно не понимаю, что показательного в списке фамилий увидели заказчики опроса.

seepeeyou
20.01.2026 07:13Даже если галлюцинации - это "фича" нейросетей, эту фичу надо устранять. Мы привыкли что машины точны, для этого мы к ним и обращаемся. Нейросеть должна быть таким же надежным инструментом, как нож или молоток. Что если молоток 33% ударов проходит сквозь гвоздь, или острый нож 33% времени обращается в нож для масла? Тогда это ненадежные инструменты и им нужно искать замену либо дорабатывать, пользоваться ими решительно невозможно. Касаемо нейросетей с таким же уровнем уверенности можно спрашивать нужную информацию у прохожего на улице. Все равно придется перепроверять. Да, нейросети более сложный инструмент, отлаживать их сложнее. Но делать это необходимо по моему мнению, а взгляд "ну есть галлюцинации и ладно, это фича" вреден и неприемлем.

artptr86
20.01.2026 07:13Как бы вам объяснить... Вот предположим, у вас есть некая таблица значений x, f(x) для некоторой функции. Тем или иным алгоритмом вы подбираете формулу для этой функции, которая вполне соответствует табличным значениям с определённой точностью. При этом для других значений формула тоже может возвращать некоторые значения и окажется, что во многих случаях результат вполне соответствует ожидаемому. Собственно в этом и фича формулы. Однако может оказаться, что в некоторых случаях формула выдаёт совершенно ложные значения, поскольку в обучаемом множестве значений отсутствуют данные о некотором специфическом характере поведения функции. Можно считать, что в этом месте формула будет «галлюцинировать».
Вот LLM и есть по сути такая же формула, которая по одному тексту выдаёт другой текст. И ценятся они как раз за способность во многих случаях генерировать правдоподобный ответ на переданный запрос.

K0styan
20.01.2026 07:13Точность или там надёжность - это не свойство машины, это всегда процесс и его результат. У любого прибора есть погрешности, и с ними живут, но поставив под контроль регулярными поверками. У инструментов есть надёжность и наработка на отказ, и с ними живут, но опять же поставив под контроль техобслуживанием.

acsent1
20.01.2026 07:13Для начала бы неплохо научиться определять галлюцинации. Это бы уже дало 80% результата

wataru
20.01.2026 07:13Галлюцинация ничем принципиально не отличается от правильного ответа, которого нет точно 1-в-1 в обучающей выборке. Просто, когда нейросетка со своей интерполяцией угадывает что-то правильное - все радуюутся ее удивительным аналитическим способностям и интелекту. А когда не угадывает, называют это обидным ругательством "галлюцинация", чтобы маркетологи могли наврать, что это не фича, а баг.
Можно было бы как-то выкрутить ее, чтобы она не пыталась угадывать, если "не уверена", но тогда это будет такая адсткая лоботомия, что нейросетки вообще бесполезны станут.

K0styan
20.01.2026 07:13Проблема в том, что они и при наличии ответа 1-в-1 могут выдать что-то другое, если оно окажется вероятнее.
Впрочем, опять же, человеки тем же страдают сплошь и рядом.

Luis2
20.01.2026 07:13От нейросетей не ждут абсолютной надёжности, от них ждут ускорения работы. А надёжность добирается процессами, проверками и ограничениями, а не самой моделью

seepeeyou
20.01.2026 07:13Как может ускоряться работа, если процесс "провести собственный ресерч" превращается в "пододждать пока нейросеть сгенерирует ответ, а потом все равно провести собственный ресерч, проверяя ответ нейросети"?

Wesha
20.01.2026 07:13Справедливости ради, проверить иногда проще — например, если она утверждает, что намазанные мылом предметы обладают свойством антигравитации, то достаточно намазать карандаш мылом и сбросить его со стола.
Ровно то же самое с "найденными нейросетью лекарствами", про которые сейчас все новости жужжат: нет, это не лекарства — это наиболее перспективные кандидаты на проверку.

axion-1
20.01.2026 07:13Во многих задачах проверка правильности решения может быть на порядок или два быстрее чем реализация этого решения с нуля.

cpud47
20.01.2026 07:13Неточные инструменты тоже бывают полезными. Всякими фильтрами блума, или hyperloglog-ом вполне себе успешно пользуются. Ну и в целом, что ssd/had, что ram — штуки не шибко точные. Но ничего, пользуемся.

proxy3d
20.01.2026 07:13Не знаю, на сколько Владимир Крылов силен в математике, думаю что достаточно хорошо. Но то что она написал это каша, и интерполировать некоторые субъективные представления без доказательств на LLM, как минимум не профессионально.
Множество всех функций континуально, вычислимых - счётно, мера вычислимых равна нулю
В реальности LLM никогда не аппроксимируют произвольные функции. Они работают внутри фиксированного класса параметризованных функций. Это конечномерные, вычислимые, гладкие отображения. Мы здесь не ищем произвольную функцию. Наша задача аппроксимировать условное распределение языка, а не функцию Z→Z. Аргумент про "меру ноль" ничего не говорит об обучаемости, аппроксимации, обобщении, вероятностных моделях.
сам механизм attention неизбежно содержит появление галлюцинаций
Это просто неверно. Attention линейный по V, детерминированный, полностью вычислимый, не вводит ошибок сам по себе. Галлюцинации прекрасно возникают и без attention (RNN, n-gram), в байесовских моделях, в любом генеративном вероятностном процессе. Attention не причина, это формально "усилитель уверенности".
Галлюцинация не дефект архитектуры
Частично верно, но сказано в неверной формулировке. Более правильно было бы сказать, что галлюцинации это следствие постановки задачи как вероятностного языкового моделирования, а не конкретно трансформеров или attention. Более того, есть множество видов галлюцинаций, которые имеют разные причины и проявляются схожим образом.
Скрытый текст







Для примера делал разбор, как это у мозга. Даже у краткого частичного описания этого явления, можно понять, что причин существует множество. А существующие архитектуры, не охватывают/учитывают многие моменты.
Это означает, что модель не оптимизируется на истинность, не оптимизируется на выполнимость, не оптимизируется на корректность логического вывода, а только на правдоподобие продолжения. В этом смысле галлюцинация это естественный режим работы модели, когда данных недостаточно, сигнал слабый, распределение неоднозначно, или запрос лежит вне обучающего распределения. Но это не имеет никакого отношения к невычислимым функциям, Тьюрингу и мерам множеств.
теорема о неизбежной ошибке: для любого вычислительно перечислимого множества найдётся вход, на котором модель ошибётся
Это по сути переформулировка теоремы Райса, следствия неразрешимости. Формально верно, но логически вообще не связано с галлюцинациями.
Теорема говорит о точном вычислении функций. LLM не претендуют на точность, они оптимизируют ожидаемую правдоподобность, а не универсальную корректность. По этой логике любой калькулятор галлюцинирует, потому что есть входы вне его спецификации. Это подмена понятий.
Возможно он имел ввиду теорему AGI is Impossible. Here is the Proof. The Infinite Choice Barrier and a New Critique of Artificial Reason. Author: Max M. Schlereth. Не знаю как Крылов, но очень подробно изучал эту работу, так как она была связана с другими нужными мне математическими теоремами. Формально она говорит:
Существует класс задач рассуждения, в которых агенту требуется сделать выбор из неограниченного (неперечислимого или неограниченно растущего) множества альтернатив, без априорного алгоритмического критерия остановки.
Формально это близко к неразрешимости, отсутствию эффективной процедуры выбора, или отсутствию вычислимого функционала оптимальности. Это своего рода вариация аргументов Гёделя, Райса и анти-формалистских аргументов Пенроуза. Но тут важно, что Schlereth говорит о принципиальной невозможности универсального разума, а не об ошибках в конкретных ответах. поэтому если упоминается она, то это натягивание совы на глобус и подмена понятий.
Потому что галлюцинация это уверенный вывод при недостаточной информации, в рамках вероятностного генератора. А ICB это невозможность алгоритмического выбора в бесконечном пространстве альтернатив, даже в идеальных условиях.
Если совсем кратко, то разница в том, что галлюцинации не следствие невозможности выбора, а следствие принуждения к выбору там, где оптимально было бы воздержаться.Про 33–48% галлюцинаций у reasoning-моделей, здесь он частично прав, но формулирует это как-то криво. Если описывать причину понятно и правильно, то reasoning это длинная цепочка. Она приводит к тому, что вероятность ошибки растёт экспоненциально. То есть по факту это накопление ошибки, а не парадокс рассуждений. Именно об этом я и писал в комментарии ранее:
https://habr.com/ru/articles/982494/comments/#comment_29332940
как об одном конкретном виде галлюцинаций, который приводит к накоплению ошибки и в итоге это проявляется как сдвиг. А так же почему он происходит и как его минимизировать.
Как математик он вроде говорит корректные вещи. Но как специалист по ИИ он явно путает вычислимость и обобщение, подменяет задачу, использует нерелевантные теоремы, не понимает оптимизационную природу LLM. То что я вижу, это ответ человека, который знает теорию вычислимости, но не понимает что именно оптимизируют LLM.
Если следовать его цепочке рассуждения, то AGI невозможно из-за Infinite Choice Barrier => LLM частичный AGI => Следовательно, ошибки LLM (галлюцинации) фундаментальны.
Но на основе ICB, мы можем говорит только о существовании нерешаемых задач, но галлюцинации возникают на решаемых, конечных задачах из-за того, что модель обязана генерировать ответ.

Oncenweek
20.01.2026 07:13то AGI невозможно из-за Infinite Choice Barrier
А как вообще подобные теоремы сочетаются с очевидным контрпримером в виде NGI (Natural General Intellegence) в виде человеческого мозга? Или сейчас под AGI понимают уже что-то сильно за рамками "интеллекта в подавляющем большинстве задач не уступающем человеческому"?

proxy3d
20.01.2026 07:13Там под AGI подразумевается немного другое. Условно говоря система, которая может описать все что только возможно, то есть любую сложность. Поэтому эту теорему критиковали, так как аргумент был что мозг это AGI. Но автор теоремы все таки говорил там о другом. То есть словами теоремы, наш мог тоже не может обобщать бесконечно и поэтому имеет ограничение по предсказанию/аппроксимации/описанию. Подозреваю, что в теореме фигурирует AGI в данной формулировке, по той причине, что было много обещаний, что появиться AGI и сможет объяснить все на свете.

Oncenweek
20.01.2026 07:13Тогда все эти мудрствования с практической точки зрения вообще лишены смысла: да всемогущий всеведущий оракул создан быть не может, но никаких ограничений на создание интеллекта уровня человека и даже выше из этой теоремы не следует. Честно говоря я и подобных обещаний про AGI, что он будет уровня демона Лапласа не припомню - обещали, что он вот-вот станет как хороший специалист-человек, что, конечно тоже буллшит, но по крайней мере за рамки физически возможного не выходит

proxy3d
20.01.2026 07:13Там скорее про AGI в математическом плане, так как тут два лагеря:
AGI как система, способная понять абсолютно всё
Такую трактовку использует Шлерет. AGI это универсальная система, способная охватить все возможные данные и концепты. Если мы следуем этому определению, то, как утверждает Шлерет, AGI невозможен: алгоритмические системы ограничены семантическим алфавитом и не могут индуктивно выйти за пределы своего (Semantic Closure), особенно в условиях тяжёлых хвостов (α ≤ 1), когда энтропия расходится.AGI как выдающаяся обобщающая система (человеко-подобная)
Если AGI понимать как систему, способную разумно обобщать данные, учиться, адаптироваться в широком диапазоне задач (человеко‑подобный интеллект, но не всесильная модель), то такая AGI может быть теоретически достижима. Этот подход соответствует определению AGI как способности обобщения и адаптации в разнообразных средах, например, как способность учиться и адаптироваться к новым задачам.
Если AGI требует бесконечного символического охвата, то согласно Шлерету, это невозможно.
Если же AGI это скорее человеческий интеллект, способный обрабатывать широкий класс задач, тогда Шлерет лишь указывает, что алгоритмические модели имеют пределы, но уже такие системы могут приближаться к человеческой универсальности.
Поэтому если называть AGI в рамках теоремы Шлерет, то человек сам по себе не способен охватить абсолютно всё, значит человек тоже не является AGI в строгом смысле первой трактовки. Таким образом AGI невозможен если нужен абсолютный охват.
AGI возможен в практическом смысле человеческой универсальности и человек, и алгоритмы могут быть ограниченно универсальны.
Так что выводы Шлерета не оспаривают возможность создания систем, схожих с человеческим интеллектом, но ставят под сомнение концепт AGI как всемогущего оракула, который охватывает всё.
Но изначально была речь про интерпретацию теоремы в рамках галлюцинаций (в рамка поста выше), а она к ним не имеет отношения, об этом я и указал.

Oncenweek
20.01.2026 07:13Ну суть понятно, но немного странно выглядеть начинают подобные статьи - берут некое определение AGI далекое от его понимания большинством, доказывается невозможность подобного AGI, потом это доказательство переносится на современные реальные ИИ-системы и делается глубокомысленный вывод "очередной скам, ИИ невозможен". При этом даже есть термин "Искусственный Суперинтеллект" (Superintellegence) который вроде как следующая ступень после просто AGI, но который все равно до богоподобного оракула не дотягивает

rombell
20.01.2026 07:13Существует класс задач рассуждения, в которых агенту требуется сделать выбор из неограниченного (неперечислимого или неограниченно растущего) множества альтернатив, без априорного алгоритмического критерия остановки.
Бога, всеведущего и всемогущего, и впрямь не существует. 1001е доказательство. Какое отношение это имеет к интеллекту - непонятно. Важное свойство человеческого интеллекта - в ситуации буриданого осла кидать монетку. Почему этот способ не может использовать ИИ, совершенно непонятно. Собственно, те же шахматы - вариации фактически несчётны, но давно уже придумали, как обрубать ветки расчётов. Так и в таком выборе можно рубить, пока не отросло.

Bonus2k
20.01.2026 07:13Вот вот и вероятностная функция заменит мышление - разработчики будут не нужны, а люди не знающие нот буду писать код

Luis2
20.01.2026 07:13Про большие кодовые базы очень точно подмечено. Кто пробовал тот знает, как быстро всё рассыпается

CalcuJIator
20.01.2026 07:13Давно уже пора бы перестать называть LLM - ИИ, если уж так хочется "ИИ", то предлагаю называть LLM вместо этого ИИИ - Имитацией Искусственного Интеллекта

TruthFounder
20.01.2026 07:13Согласен! Но маркетинг требует название "ИИ" и более того писать кривые работы про "АГИ близок - вкладывайтесь!".

Terimoun
20.01.2026 07:13Звучит как оправдание автопроизводителя, у которого тормоза отказывают в 30% случаев: "это не брак, это физика трения!"
Пользователю все равно, почему модель врет , ему нужен инструмент, которому можно доверять. Если LLM не может сказать "не знаю", она непригодна для критических задач

SensDj
20.01.2026 07:13Вы редко можете добиться от LLM признания «этого я не знаю».
без проблем этого добиваюсь когда по совету OpenAI добавляю в промпт фразу "отвечай только если уверен в ответе более чем на 80%, иначе скажи "не знаю", такой ответ не штрафуется" и спрашиваю такое, в чём ИИ всегда галлюцинирует

anshdo
20.01.2026 07:13А вы уверены, что в этом случае модель не выдает ответ "не знаю" на те вопросы, на которые она вполне могла бы правильно ответить? Технически это тоже будет галлюцинацией.

SensDj
20.01.2026 07:13просто запускаю два разных чата, в одном вопрос, в другом вопрос+та фраза, по ответам всё понятно

NekitGeek
20.01.2026 07:13Решал задачу по электротехнике дипсиком, сказал ему какой результат (из симулятора) должен получиться, он долго размышлял и топтался по кругу пытаясь найти ошибку, в итоге я ему подсказал что его метод расчета был не совсем правильным и он быстро все решил другим методом.

el_mago
20.01.2026 07:13Когда-то раньше считали, какой ты программист, если шестнадцатеричную систему исчисления не знаешь? А кто сейчас активно использует шестнадцатеричную систему из наших ребят-программистов?
Допустим все разработчики микроконтроллерных систем.

OldCreater
20.01.2026 07:13Помню Владимира Владимировича, преподавал в 77 году, нам первокурсникам, ФОРТРАН на радиофаке Нижегородского политеха, вместе с красавицей женой. Он читал теорию, жена вела практику. Кажется он был тогда заместителем заведующего кафедры цепей и сигналов Глебовича, Глеба Викторовича.

Reload234
20.01.2026 07:13На самом деле GPT не обучается “в реальном времени”, это частое заблуждение. Обновления моделей происходят централизованно, не на основе пользовательского диалога. У @realmikemozg подробно это объясняют в ролике про fine-tuning — особенно блок с 6-й минуты.

cdriper
20.01.2026 07:13Понимаете, гонка моделей — это как гонка процессоров в 90-е. Все следили: Intel или AMD, сколько мегагерц. А потом оказалось, что важнее — какой софт вы на этом запускаете, какую экосистему вокруг построили.
Я не знаю, что это за "эксперт", но он выдал кучу совершенно кривых аналогий и о том, что происходило с процессорами в 90-х и почему поменялось отношение к ним сейчас, похоже, он тоже не сильно понимает.

vadimr
20.01.2026 07:13Дочитал до ненужности шестнадцатеричной системы и понял, что этот человек бесконечно далёк от проблем программирования.
Zippy
Ну ИИ \то имитация работы могза челорвека.
Люди никогда не перестанут врать - так что вранье ИИ -норма
pigeondoves
Нет. ИИ это имитация работы диалога. Даже мозг червя архитектурно сложнее чем GEMINI, про мозги речи пока нет.
Zippy
я имел ввиду не нейронки а ИИ как он был задуман в 1956 году
То есть междисциплинарная нацчсная дисциплина задачей котрой является имитация работы мозга и коншгитивных способностей человека.
LLM это просто чамтный случай. ИИ это вообше не обязательно нейронная сеть
pigeondoves
Ну как мега-проект да, конечно... Имитация разума и даже можно сказать имитация человека.
LuckyJewish
Будем строить утверждения на почве бреда маразматиков прошлого века?
Чтобы имитировать работу мозга, вам нужны 80 000 000 000 электрически сложнейших блоков, соединённых ещё на несколько порядков бо́льшим количеством коннекторов
RavenStark
Способных к самостоятельному изменению собственной формы в процессе работы...
Snownoch
ну, 80 млрд функций с 80 млрд эндпойнтов не выглядят невыполнимой задачей...
ToRcH2565
А если подумать в таком ключе:
"80 млрд функций с 80 млрд эндпойнтов каждая" уже не так и мало.
Ибо насколько помню у нейрона далеко не один выход, и каждый нейрон может триггерить целую область.
Sap_ru
Там 3D схема соедниений, в унынешних сетей 2D. Вычилительная сложность от количества узлов на много порядком больше текузий сетей. Там уножением матриц не обойдёшься. Плюс там есть узлы, сохраняющие состояние, обратные связи и прочее.
ALT0105
А сколько миллиардов устройств (компьютеров и телефонов) уже объединены в одну сеть? Есть оценки что десятки миллиардов.
LuckyJewish
Если вы организуете В СРЕДНЕМ от 1000 до 10 000 P2P связей между 86 000 000 000 устройств с пингом меньше, чем до сервера вашего провайдера, то, возможно, получите киберпанк
Иначе - все ваши чёртовы связи идут через провайдера с пингом больше, чем у школьника в кс-ке
Даже в рамках вашей фантазии, кажется, с концептом что-то идёт не так
ALT0105
Я говорю не о преднамеренной имитации мозга, а о том, что структура, содержащая связанные вычислительные устройства, каждое из которых невообразимо сложнее нейрона мозга, а число этих устройств в сети сравнимо с числом нейронов, давно существует. Вычислительная мощность не зависит от пинга - просто всё идет в другом масштабе времени. Вы уверены, что эта структура не обладает сознанием? Я не уверен.
LuckyJewish
Ого, играем в панпсихизм, значит
Shame on you
ALT0105
Я, переходя дорогу с односторонним движением, смотрю в обе стороны
Wesha
Я, переходя дорогу с односторонним движением, вообще никуда не смотрю. Потому что транспортные средства, перемещающиеся абсолютно беззвучно, мне неизвестны — а если меня собъёт низколетящий НЛО, то я даже и не против.
ALT0105
Стругацкие "Жук в муравейнике":
В нашей ситуации Сикорски не сидел бы сложа руки
axion-1
Сознание, судя по всему, артефакт естественного отбора и эволюции и у белковых возникло лишь потому что даёт преимущества в выживании. Оно не возникает "само по себе" по достижению некоторой сложности системы. 80 миллиардов нейронов также не требуются, признаки сознания есть например у кошки и даже мыши-полёвки, возможно и у более простых организмов, а скажем у вычислительного центра не наблюдается.
Искусственно создать сознание скорее всего возможно при правильном подходе к обучению, вопрос тут в том действительно ли нам это нужно.
LuckyJewish
У них однозначно наблюдаются признаки квалиа, рефлексы, способности к обучению
Сознание - это развитая способность к когнитивному контролю, абстракции и саморефлексии, и наблюдаются эти признаки отчасти только у наших меньших приматов
И сознание - не артефакт и не побочный эффект. Это феномен - да, и оно позволяет нам взглянуть на вещи абстрактно и говорить о природе эмерджентных систем, которые мы сейчас с вами обсуждаем, и конструировать их
Мы обладаем мотивацией, основанной на этих абстракциях, сложными чувствами, интуицией - это не подделаешь, это уникально. Эволюция - да, континуум - да, но меня корёжит от спекуляций на эту тему. Мы не можем стопроцентно верифицировать квалиа даже друг у друга, а вы говорите про сознание у полёвок, кто-то - вообще про цифровые системы
vadimr
Чтобы делать предположения, не обязательно их стопроцентно верифицировать. Бритва Оккама заставляет предположить, что признаки сознательного поведения у полёвок, аналогичные подобным признакам у самого наблюдателя, скорее объясняются наличием у полёвок сознания, чем каким-то неизвестным альтернативным сознанию механизмом высшей нервной деятельности. То же самое и с наличием квалиа у других людей.
Хотя теоретически философский зомби возможен, но в случае живого существа непросто ответить на вопрос, какой эволюционный механизм сделал бы его отличающимся от наблюдателя.
Wesha
И часто Вы
онаантропоморфизируете?vadimr
Тут нет нужды антропоморфизировать, общеживотная природа нервной системы человека и ее основных функций - объективно наблюдаемый факт.
SerjV
В развитие сказанного вами - и еще немало человеков путают интеллект (включая возможность к обучению) и сознание... Особенно если пытаться применять философские определения в естественнонаучных вопросах...
axion-1
Я говорил о сознании в более упрощённом смысле, как способность чувствовать "себя", отделять себя от других и окружающего мира. Способность к абстрактному мышлению и пр. отношу скорее к интеллекту, которого у полёвок действительно нет, или находится в зачаточном состоянии. А вот "самочувствование" у них, предполагаю, (не утверждаю!), есть.
Если не согласны с такой терминологией, ок, называйте это по-другому, спорить о таких вещах не вижу смысла. Принципиальных разногласий у нас здесь нет.
Важно то что ни сознание ни интеллект не могут возникнуть сами по себе просто при усложнении системы. Необходимо внешнее давление, естественного отбора в течение миллионов лет, или обучающего алгоритма (хочется надеяться, гораздо быстрее).
Одно другому не мешает )
Я вообще считаю людей как вид побочным эффектом эволюции, одним из многих промежуточных этапов. Не целью, не "венцом творения" и т.д. Сознание - да, удивительный феномен, тем не менее не вижу проблем в том чтобы назвать его артефактом.
LuckyJewish
Ну, мы с вами говорим о квалиа (нужно всё-таки использовать корректные термины) и, как раз, скорее, об интеллекте в зачаточном состоянии , чем о сознании, которого у полёвок, очевидно, нет
А на наличие квалиа косвенно указывает морфиновый тест. У пчёл, например, даже квалиа нет - это биороботы
Давление эволюции... Так, кажется, нам вообще больше не о чем дискутировать, всё база базированная
vadimr
В русском языке вообще плохо с терминологией философии сознания. В китайском различают два термина, переводящиеся на русский как "сознание" – 知觉 zhījué, как способность воспринимать, ощущать и 意识 yìshi, как осознание себя. Первое у полёвок есть, второго нет.
Собственно, эти вопросы исторически гораздо лучше разработаны в восточной философии.
А что касается квалиа, то это просто психические феномены. Известно, что можно психоактивными веществами или медитативными практиками достичь такой диссоциации психики, когда квалиа останутся, а сознания ни в каком смысле уже не будет (* не является рекламой употребления запрещённых к свободному распространению веществ).
LuckyJewish
К сожалению, это вещество до сих пор используется анестезиологами, которым не заплатили
vadimr
Да какая разница, как в кому попасть? К пропофолу лично у меня претензий нет.
NAGIBATOR-1999
Правда, 90% из них не нужны.
Wesha
Вижу, месье не пользуется бэкапами!
nnutts
Нужно много больше этого — нейромедиаторы работают и в объёме, концепция «проволочного» мозга уже давно устарела.
digrobot
А чтобы полететь, нужно имитировать аэродинамику 25000 перьев как у вороны.
LuckyJewish
Как мило, как оригинально
SwingoPingo
Что бы полететь как ворона определенно это может быть кратчайшим путем к решению.
Все же ворона своими перьями решает существенно большее количество несвязанных и противоречивых задач, чем планер.
Вот тут вопрос - мы хотим просто летать или летать как ворона?
И возможно так выйдет, что полет может строится на других основаниях, чем крыло вороны, допустим воздушный шар.
Но мы почему-то копируем с огромным усердием именно крыло вороны, на каждой итерации пытаясь приблизится к более точной копии. И сравниваем постоянно с крылом вороны.
JustFunnest
Товарищ, вы путаете "имитацию" с "эмуляцией". Крабовые палочки содержат 0% ДНК краба, но имитируют их внешний вид. Тут тоже самое, внутрянка вообще не имеет ничего общего с человеком, но внешне похоже.
LuckyJewish
Тут это где?
Эмулировать можно Мак на винде, а здесь речь про работу мозга - с одной стороны - и имитацию семантики с позиции функционализма
Не можешь срать - не мучай жопу.
LuckyJewish
Ого, забавно, потому что у червя НЕТ мозга.
Если говорить об архитектуре, то самых развитых - порядка 10000 нейронов. И сложнее они потому, что у нейронов свои "вычисления".
Voliker
Математическая модель нейрона в нейронных сетях стоит довольно далеко от физического нейрона. Она не учитывает нейротрансмиттеры и гормоны как минимум.
Если я верно помню "слоёную" архитектуру современных нейронных сетей придумали исключительно на основе того как работает зрительная кора людского мозга
Если записаться в адепты Роджера Пенроуза и вспомнить про наличие в клетках нейронов микротрубочек про которые недавно кстати были очень интересные исследования то аргумент "мозг этож нейронная сеть" будет звучать ещё хуже
LuckyJewish
Третий лишний
Не открывая, могу сказать, что там какая-то шняга про квантовые эффекты
Вообще, сверху какое-то веселье, поймут только одарённые (или адепты)
Voliker
Я просто ответил немного невпопад, поэтому комментарий странно звучит :)
Я прочитал ваш комментарий как "но мозг червя не так уж сложен по сравнению с нейронной сетью", не смотря на то что вы сами написали про "и сложнее они потому, что у нейронов свои "вычисления" и совершенно не то имели в виду.
My bad.
Третий пункт да, натянутый, но я хотел его добавить для того чтобы показать насколько мозг может быть сложнее нейросетей (что даже текущие математические модели нейронов на потенциалах всего не объясняют).
LuckyJewish
Да, и это та самая проблема, почему проектировать человеческий мозг целиком - прикольно в теории, но недостижимо и непрактично
Аналоговый вариант сразу отпадает, а цифровой даст нам... Ну, мы получим модель мозга (не получим, вычислений не хватит). Искусственного квалиа цифровым путём не достичь, а по поводу плюшек...
ИИ нужно развивать с позиции функционализма - брать всё самое хорошее и работающее, а исследования и проектирование мозга двигать в сторону решения проблем с болезнями и прочими органическими ограничениями - база, в общем-то
megadrugo2009
Наблюдая за окружающими людьми и некоторыми комментаторами в интернете, ненароком навожу себя на мысль, что таки да, нейросети действительно имитируют работу их мозга. И во многом превосходят их.
kuza2000
А по каким критериям вы сравниваете мозг червя и нейронку?
ic10
Нет там никакой имитации. Человек врет сознательно. LLM "врут", потому что не обладают сознанием и просто вероятностно угадывают следующее слово.
И это, действительно, не баг, потому что баг -- это ошибка, которую можно исправить. А это особенность работы.
Vindicar
Стоит различать ложь и буллшит. Лжец знает правду и хочет её скрыть. А тут скорее именно буллшит, когда говорящему безразлично, насколько правдивы его заявления, он просто хочет получить желаемый результат - например, не выдать своё незнание.
И да, в этом отношении LLM и впрямь являются подобием человека.
ic10
Нет, не являются. Безразличие -- это так же особенность сознания. Машина/компьютер не могут быть безразличны, т.к. у них просто нет такой категории.
Если я скажу, что мой автомобиль обладает нулевой эмпатией -- это ведь будет звучать глупо, не так ли? Потому что у него вообще нет такой категории.
Oncenweek
сознание это чистой воды философская концепция, проверит ее наличие или отсутствие, что у человека, что у ЛЛМ нельзя
Ainyru
Если это "чистой воды философская концепция", почему в нашем мире можно заключать юридически обязывающие договора только между теми, кто обладает сознанием?
Проверить нельзя, но все делают это без малейшего затруднения.
Oncenweek
Вообще это не так: согласно философии 12-летний ребенок сознанием якобы обладает, но юридически обязывающие договора заключать не может, или полудементный дед, который уже плохо помнит какой сейчас год сознания в полной мере уже может и не иметь, а договора заключать таки может, пока его невменяемым не признают. И никакого теста на наличие сознания при заключении договоров не делают, смотрят только на возраст да на документы. То есть определяют "без малейшего затруднения" чисто по аналогии - "у меня есть, значит и у них есть", а нука у нас среди человечества половина философские зомби, как отличать будем?
Vydra77
Так возраст и документы, по сути, и есть тест на достаточное сознание.
Oncenweek
Опять же у философов сознание бинарная характеристика - есть/нет, никакого достсточного быть не меожет. И это никакой не тест - в 18 никто не дает тестов на то есть ли у тебя сознание или ты философский зомби
vadimr
Ещё старый добрый епископ Беркли указывал, что это не так, приводя в пример
обкурившихсяобъевшихся несвежей кашей детей.Кстати, эту его постановку вопроса большинство европейских философов с тех пор заметают под ковёр (хотя в Индии, например, вопрос ментального состояния наблюдателя и других людей очень тщательно исследовался).
Oncenweek
У тех у кого это не бинарная характеристика, у тех еще хуже - сразу всплывают вопросы сознания, как минимум, у животных
vadimr
А что тут плохого? Мне, например, представляется совершенно очевидным, что, как минимум, у высших животных есть сознание в самом обычном его понимании. И никакой чёткой границы с человеком ни в отношении сознания, ни в отношении разума нет.
Также из личных наблюдений могу отметить, что под общей анестезией пропофолом я лично сознанием не обладал. Про сон и обморок – вопрос определений.
Oncenweek
ну тогда это еще более очевидный контрпример тезису "в нашем мире можно заключать юридически обязывающие договора только между теми, кто обладает сознанием" - ну точнее формально критерий остается верным, но становится очевидным, что тут не на наличие сознания опираемся, ведь договор с котом я заключить не могу.
vadimr
Конечно. Договора вообще из другой оперы, кота просто законодатель не наделил правосубъектностью. Раньше с неграми кое-где так было.
Конечно, кот не больно-то умён, но это и к некоторым людям относится.
Oncenweek
Ну, собственно, тут и возникает вопрос является ли сознание чисто философской концепцией, если определить его наличие каким-либо тестом мы не можем. Оно ведь и ЛЛМки умнее отдельных индивидуумов бывают
vadimr
Я наличие у себя в данный момент сознания наблюдаю непосредственно (хотя буддисты ставили этот опыт под сомнение, но весьма искусственно). Поэтому чисто философской концепцией оно не является.
Oncenweek
Или вы утверждаете, что наблюдаете, а сами не наблюдаете. Проверить-то снаружи нельзя
vadimr
Если у вас нет собственного сознания, то для вас, конечно, этот аргумент не релевантен. Он апеллирует к квалиа, а не к интеллекту. А кому сейчас легко?
Oncenweek
Ну собственно тут и начинается махание руками - кот подтвердить наличие у него сознания не может, но оно, вроде как есть, ЛЛМ подтвердить может, но у нее нет. У людей оно вроде как есть, но точно ли у всех? Посему и смысла в этом термине не много
vadimr
Ну это как искать потерянные ключи под фонарём.
axion-1
Просто не считает нужным что-то подтверждать низшим существам.
Wesha
Я не знаю, как там ваши коты, а мой спокойно себе трекает мои эволюции позади него в настенном зеркале.
SwingoPingo
Видится что не только философской, но и прикладной уже исходя из того, что мера всего - человек. Т.е. допустим некая огромная скала обладает каким то своим "сознанием", но нам оно не интересно, пока ее, скалы, "сознание" не пересекается с нашим сознанием в каком то прикладном нашем аспекте. Мало ли вокруг чудных вещей, нам же надо с кем поговорить.
Oncenweek
Ну вот как только у нас мерой становится человек это первый признак того что мы от практики ушли в философию. Причем с практической точки зрения куча людей ведет натуральные беседы с ЛЛМ не заморачиваясь вопросами наличия сознания у оных
vadimr
Ну для целей ведения бесед вопрос наличия сознания и не важен.
Oncenweek
А для чего он важен? Если юридически мы на другое смотрим, для личного общения нам тоже философский зомби подходит...
vadimr
Для кармы. Перефразируя Лема, в какой-то момент придётся принимать решение усыновить вычислительную машину. Вроде как безнравственно, если человечеству унаследуют философские зомби.
Oncenweek
Так может уже унаследовали, в том-то и дело. Ну или директивно примем, что у будущих ИскИнов есть сознание, проверить-то все равно никто не сможет
vadimr
Если говорить конкретно про LLM, то у них кроме отсутствия сознания, в чём было бы ещё полбеды, отсутствуют и многие ключевые функции интеллекта, начиная с воли.
Oncenweek
А у людей он точно у всех присутствует? А то, можно придумать, что у человека есть, незнаю, тирьямшизация, и искать ее потом у животных и искинов
axion-1
Душа.
Oncenweek
Ну, собственно душа и сознание у философов обычно взаимозаменяемые понятия
ToRcH2565
"это ведь будет звучать глупо"
КМК только потому что мы привыкли опускать в речи параметры которые всегда для данного типа объектов отсутствуют("всегда равны 0"). Но с точки зрения логики - конструкция вполне верная, ибо характеристика "эмпатия" и в самом деле у автомобиля отсутствует( 0 - отсуствие чего либо, ну или "наличие отсутсвия" если вы хотите вспомнить про nil)
Newbilius
А ещё бывает, не поверите, "неверное знание". Человек в чём то уверен, но это неправда. Он добросовестно заблуждается. Так что сводить всё просто к двум категориям - ну такое себе)
Wesha
Вот сейчас бОльшая часть населения Земли, верующая в различные версии Создателя...
Terimoun
Буллшит опаснее лжи. Ложь хоть можно опровергнуть фактами, а буллшит настолько размыт и правдоподобен, что на его опровержение тратится на порядок больше энергии
Cerberuser
Ах если бы.
K0styan
Канеман приводил исследования, в которых люди во всех подробностях рассказывали, как в детстве ездили в Диснейленд, только потому, что им показывали фотографию оттуда - разумеется, смонтированную. Да и дежа вю в том или ином виде каждый испытывал.
Человеческий мозг галлюцинирует дай боже. Память в принципе перезаписывается каждый раз при обращении. И всё это абсолютно фоново, без какого-то волевого решения.
vaslobas
Зачем в детстве? Мы путаем события, которые происходили буквально пару минут назад - https://www.youtube.com/watch?v=_LYe58b-3HM
Наши воспоминания нифига не отражают реальность. Это скорее Мойша напел.
Wesha
Да ладно, некоторые люди
на голубом глазу говорят "обе белые",
хотя сами ведликолепрно в курсе, что это не так.
riky
наличие смонтированной фото не отрицает факт что они там могли быть. скорее родители забудут что дети там были и когда.
Если мне покажут фото меня в детстве в ДЛ то я при всём желании не смогу придумать что я там был, нету у меня в голове инфы о том как он выглядит.
Другое дело если эти люди в детстве много раз видели и слышали от других детей что там бывает, тогда могут это выдать за то что там сами были. То есть воспоминания/рассказы других людей переносят на себя.
Terimoun
А что такое "сознательно"? Может наш мозг тоже просто вероятностно угадывает лучшую стратегию выживания, а "сознание" это пост-фактум объяснение (интерфейс) для нас самих?)
sokratstoforandov
Лучший