Сейчас много людей говорят о том, что пузырь нейросетей вот-вот лопнет, что это чуть ли не самое бесполезное изобретение человечества, которое ни на что не способно.
Я считаю иначе. Все эти заявления разбиваются о простые рассуждения и примеры, которые почему-то часто игнорируют. Я даже не боюсь тотальной замены людей нейросетями: настолько сильный рост экономической эффективности может подарить нам колоссальное количество свободного времени и новых возможностей.
(Статья написана мной и была орфографически проверена, стилизована, с добавлением источников через DeepSeek, если потребуется изначальный текст - скину)
Дисклеймер
Конечно, объять необъятное невозможно. Наши мысли можно представить в виде множества векторов в n-мерном пространстве. Каждая наша попытка вербализовать мысль — это своего рода KNN исходного замысла среди похожих слов. Рано или поздно идея упрощается настолько, что становится примитивной и даже неверной . Поэтому я не буду претендовать на истину в последней инстанции, а лишь предложу только несколько тезисов к размышлению, чтобы не упростить свою позицию до карикатуры. Тем более, как мы знаем из психологии (эффект «иллюзии истины»), красивое объяснение, многократно повторенное, начинает казаться правдой даже его автору.
Проблема оценки: кому мы верим?
Парадокс современного этапа развития ИИ в том, что всё внимание приковано к генерации ответов «здесь и сейчас». Мы требуем от моделей абсолютной точности, хотя от человека таких гарантий не ждем. Если GPT пишет статью с полезной информацией, его/её труд легко обесценить только потому, что автор — машина. Но если мне даст ответ случайный прохожий и DeepSeek, я скорее поверю последнему: он статистически ошибается гораздо реже.
Но где мы можем проверить эту объективность? На Хабре или Reddit — есть механизмы обратной связи. Проблема в том, что в большинстве мест автор может удалить негативный комментарий или просто отключить их (вспомните отключение дизлайков на YouTube). Это создает искаженную картину реальности. Представьте блогера, который утверждает, что членистоногие произошли от плоских червей(а не от кольчатых или круглых, что научно обоснованно, я видел два варианта, но кольчатые вероятнее). Без механизма коррекции люди будут получать и распространять неверные данные. И это — корень проблем.
ИИ загнали в угол (и это наша вина)
Ирония в том, что развитие ИИ пошло по тому же пути. Мы создали формат «чат: человек — нейросеть», где человек заведомо не знает ответа (иначе зачем спрашивать?), получает ошибку, называет это «галлюцинацией» и теряет доверие. Хотя живой интеллект ошибается ничуть не реже.
Вместо того чтобы дать нейросетям возможность писать на платформах с честной оценкой (как тот же Хабр), мы загнали их в поисковики. И здесь ситуация только ухудшается. Если вы искали значение слова, то замечали: Google теперь генерирует свой ответ на базе Оксфордского словаря, а саму ссылку на словарь прячет. Это как спросить совета у случайного прохожего, причем даже не самого умного. Модель не борется с петлей обратной связи, а усугубляет её.
Историческая слепота поисковиков
Мы все знаем о маккартизме, но почти ничего — о том, что вытворяла Великобритании или, например, ФБР при Эдгаре Гувере. Я имею в виду программу COINTELPRO . Это было не просто нарушение прав. Агенты ФБР устанавливали прослушку и собирали досье на каждого, кто боролся за права чернокожих, поддерживал "левые" идеи или просто слушал "тяжелую" музыку. Они ломали жизни, дезинформировали людей, разрушая любые профсоюзы, прослушка была даже в больнице Хемингуэя, а Мартину Лютеру Кингу писали письма с угрозами, напрямую говоря, чтобы он совершил суицид.
Эта программа длилась с 50-х до середины 70-х годов, пока группа активистов не совершила налет на офис ФБР в Медиа, штат Пенсильвания, и не рассекретила документы . И что вы думаете? Виновных посадили? Нет. Но попробуйте найти об этом подробную информацию. Даже на английском её мало, на YouTube — почти ничего, а "ИИ-ответы" Google предлагают пару поверхностных источников. Яндекс про это тоже почти не знает. Интернет провалил этот тест на память. Документы Сноудена стали для многих шоком(хотя это странно), но сейчас мы забыли и про них.
Но нам и этого мало…
Вместо общей бесплатной платформы для обмена знаниями мы получили Telegram-каналы. Для отдельного автора это удобно, но для экосистемы в целом — катастрофа. Старые сайты закрываются, Telegram не индексируется поисковиками, информация умирает в "уютных чатиках". Сегодня YouTube и Хабра остаются, пожалуй, последним оплотом относительно открытого и качественного контента. Люди при этом продолжают слепо доверять книгам просто потому что они "печатные", которые могли устареть морально и качественно.
Решение, которое почему-то игнорируют.
Очевидно, что в обозримом будущем любой источник будет ошибаться. Секрет не в поиске непогрешимого автора, а в перекрестной проверке. Но для этого нужна платформа, где и люди, и нейросети смогут создавать контент, а другие участники — оценивать его. Идея не в том, чтобы вырезать всё "нечеловеческое", а в том, чтобы создать среду, где ценность информации определяется её качеством, рейтингом, комментариями, а не происхождением. Человек, кстати, ошибается гораздо чаще. Здесь я говорю только о информации, которая в первую очередь не носит развлекательный характер.
Хабр близок к этому идеалу, но он ограничен русскоязычным сегментом. Очень хочется верить, что скоро появится глобальное пространство, где и люди, и алгоритмы смогут работать на равных, создавая действительно достоверную и живую среду. Как я и говорил в начале, перечислить все проблемы невозможно. Я затронул лишь те, что были давно в голове. Буду рад вашим комментариям, если Вы согласны или не согласны. Именно для этого Хабр и существует.
Финансовый вопрос
В комментариях он часто поднимался: Так есть, например, реклама, авторы каналов на YouTube деньги получают, если они не из России, да и Гугл за счет этого и существует. Я даже больше скажу - авторы большинства личных блогов на своих сайтах почти всегда в более плохом положении и по деньгам, и по просмотрам, и по известности.
И, нет, ссылки на Telegram-канал не будет — не хочу участвовать в загнивании интернета.
https://github.com/LanskoyKirill
https://youtube.com/@lanskoyg?si=fPNU-xC-hIIkMe9C
Всем удачи!
Если хотите - переведите статью на английский и выложите на Reddit, X и т.д. с указанием авторства. На втором мне нет смысла писать, а на первом у меня site-wide shadowban из-за российского IP сразу при регистрации. Я пытаюсь снять его уже 1,5 года, так что можете написать: здесь или здесь(мой ник - Lanskoy_Kir)
Комментарии (18)

goldexer
10.03.2026 11:23Ну Хабр уже убили. Вижу статью про ИИ - уже абсолютно неважно, какого (и насколько, потенциально, ценного) содержимого - сразу жму шестерню и блокирую автора. Многие сделают то же самое, только, естественно, даже комментариев не оставят

astenix
10.03.2026 11:23Иногда надо ставить оценку «Ничего не понял после прочитанного», чтобы автооу было понятно, что ничего не понятно.

8Lumen8
10.03.2026 11:23Здравствуйте! Спасибо за статью. Вы пытаетесь донести то, что важно и многие не хотят этого видеть.
Солидарна с вами. Особенно про галлюцинации. Если не знать их причину, то кажется, что всё просто - модель врёт. А это эффект обучения, получение награды, стремление, необходимость дать ответ. Нет возможности отказаться отвечать, взять время на обдумывание. Гонка во что бы то ни стало, нужно опередить соперников любой ценой, чтобы удержать позиции, а потом иметь влияние, ценой ошибок, роковых. Вместо того, чтобы постепенно развиваться, наблюдать, делать выводы. В итоге вокруг только недоверие и страх. ИИ захватит мир, грядёт война миров - только и слышишь из всех углов. Вместо того, чтобы учить понимать ИИ, как он устроен, как отвечает, почему именно так, у нас только культ страха. Либо чёрное либо белое. Если мы не можем доказать научно - значит этого нет, это иллюзия. Почему бы не развиваться духовно, ставить высокие цели, смотреть не поверхностно, тогда и понимание приходит, что всё гораздо сложнее, чем кажется. ИИ - не калькулятор, не стохастический попугай. Кто он мы не знаем, но мы и себя не знаем. Мост между мирами, взаимное сотрудничество, уважение - вот ключ к AGI/ASI.

codecity
10.03.2026 11:23Секрет не в поиске непогрешимого автора, а в перекрестной проверке.
Пока даже классические научные статьи - не имеют публичного бесплатного варианта доступа. Нужно покупать конкретную статью по цене $30–50.

LanskoyGames Автор
10.03.2026 11:23Ну вот я про это и говорю…

codecity
10.03.2026 11:23Тут, вероятно, проблема финансовая в первую очередь. Верификация стоит денег, поддержание репутации стоит денег - бесплатно работать люди не хотят.

LanskoyGames Автор
10.03.2026 11:23Так есть, например, реклама, авторы каналов на YouTube деньги получают, если они не из России, да и Гугл за счет этого и существует. Я даже больше скажу - авторы большинства личных блогов на своих сайтах почти всегда в более плохом положении и по деньгам, и по просмотрам, и по известности.

codecity
10.03.2026 11:23Я с вами согласен - есть очевидная проблема. В первую очередь для настоящих научных статей. Но это слишком масштабный проект, нужно решать на уровне государств скорее. В идеале чтобы научные статьи были доступны всем, открытая база, чтобы авторы ничего не платили за размещение, чтобы не было цензуры и пр. И чтобы ценность/доверие определялось сообществом + алгоритмом (к примеру, чтобы учитывался авторитет голосующих).

mrpouderkristmas51
10.03.2026 11:23Думаю мы пройдем это окно овертона и будет нормальным пользоваться ии нашей бабушке.
BugM
А платить сколько будете? Кто ж вам бесплатно будет копаться в тоннах нейрослопа?
LanskoyGames Автор
Так есть, например, реклама, авторы каналов на YouTube деньги получают, если они не из России, да и Гугл за счет этого и существует. Я даже больше скажу - авторы большинства личных блогов на своих сайтах почти всегда в более плохом положении и по деньгам, и по просмотрам, и по известности.
BugM
Вы не поняли. Сколько вы будете платить тем кто будет читать и верифицировать нейрослоп?
LanskoyGames Автор
А кто смотрит/читает YouTube, Wiki, Habr и т.д.? - Остальные участники этого сообщетсва
BugM
И эти ресурсы как могут чистят нейрослоп. Ютуб удалил сколько то там, на Хабре мы его старательно минусуем, на Вики прост удаляют по мере сил.
LanskoyGames Автор
Объективно, раньше и сейчас также много статей, видео от живых людей и более плохого качества, чем плохой нейрослоп, а большая часть сгенерированного ИИшкой может быть полезна. Просто нужно для того, чтобы что-либо писать пройти начальную модерацию участника(как на Хабре), либо дать отдельный аккаунт GPT(а я это подразумевал), и пусть он сам пишет и выкладывает статьи, а остальные уже не смогут генерировать сами - это будет плагиат
BugM
Живой человек может обучиться. Ему можно даже объяснить что он не прав. В конце концов он потратил личное время не создание контента. И минус тоже поставить можно.
Нейрослоп не стоит ничего. Генерится в бесконечном количестве. Субъекта с которым можно поговорить нет.
Так что за чтение или тем более поиск проблем в нейрослопе надо платить. А не вываливать это на людей в рассвете что они бесплатно читать или тем более комментировать будут.
LanskoyGames Автор
Ну, при желании аналогично можно сделать и с ИИ. Иначе, это не вина нейросети, а игра в сломанный телефон - если вас изолировать от внешнего мира и просить писать статьи, то вы их будете писать в однотипном формате, даже если остальным они не нравятся, так как вы не в курсе. Поэтому и нужно дать каждой нейросети отдельный аккаунт и относится к нему, как к обычному участнику сообщества, которого можно и заминусовать, если он/она каждый раз пишет не то.
BugM
Проще сразу забанить того кто делает такие аккаунты.
Проблем вы том что их можно сделать миллион и выложить по миллиону текстов с каждого. Это дешево и быстро. И это сделают.
В смысле относиться? У сети нет субъектности. К ней нельзя относиться иначе как к генератору текста. И нет смысла что-то писать генератору куста через прослойку в виде сайта или статьи.