Задали вопрос — получили ответ прямо в ChatGPT, а сайт-первоисточник так и не открыли. Это феномен «нулевого клика». Интернет превращается в высокоуровневый API, а мы — в его пользователей. И как любая новая абстракция в технологиях, этот сдвиг открывает не только удобство, но и «утечки». Давайте разбираться.
От библиотекаря к API: три эпохи взаимодействия со знанием

Мы часто думаем, что интернет всегда выглядел так, как сейчас. Но на самом деле наше взаимодействие с информацией шло по ступеням абстракции.
Эпоха библиотекаря (прямой доступ через посредника). Сто лет назад знание было «физическим». Мы шли либо к экспертам, либо в библиотеку, где доступ к данным был опосредован человеком и его системой — каталогом. 35 лет назад появился интернет, но модель оставалась похожей: чтобы найти информацию, нужно было знать адреса сайтов или копаться в каталогах Yahoo!. Это был ручной доступ к «памяти» сети.
Эпоха ассемблера (поисковые системы). Google и Яндекс стали «ассемблерами» цифрового мира. Язык запросов превратил хаос веба в управляемую систему. Но работа оставалась низкоуровневой: поисковик выдавал список ссылок, а мы сами играли роль компилятора. Нужно было открыть десятки вкладок, сравнить данные, отсеять мусор и собрать собственный вывод.
Эпоха высокоуровневого API (генеративный ИИ). С появлением LLM (Large Language Models) мы перешли на новый уровень абстракции. Сегодня мы формулируем задачу на естественном языке — «Сравни мне два отеля в Питере» — и «мета-машина» делает всё за нас. Результат готов за секунды. Для пользователя это магия. Но для интернета — переломный момент: десятки сайтов, на которых основан ответ, так и не получили свой клик.
Пролог: долгая дорога к «нулевому клику»
Нулевой клик не появился из ниоткуда. Концепция, при которой пользователь получает исчерпывающий ответ, не переходя на другие сайты, — это то, к чему поисковики шли десятилетиями. «Быстрые ответы» (Featured Snippets), «Колдунщики» Яндекса, интерактивные виджеты — все это были шаги в одном направлении. Генеративный ИИ стал логическим завершением этого пути. Если раньше поисковик показывал фрагмент ответа, теперь он его создаёт.
Почему наш мозг в восторге
Новый интерфейс побеждает, потому что идеально совпдает с архитектурой нашего мышления.
Закон наименьшего усилия (Cognitive Load Theory). Наш мозг всегда минимизирует когнитивные издержки. Старый поиск — десятки вкладок, хаос информации. Новый — почти нулевая нагрузка.
Эффект авторитета (Authority Bias). Мы склонны доверять уверенным, декларативным заявлениям. Несколько исследований показывают значительную тенденцию (в ряде экспериментов — порядка 25–35%) к переоценке уверенных ответов ИИ (например, здесь, здесь и здесь).
Сила нарратива. Десять ссылок — это набор данных. Ответ ИИ — это история. Наш мозг эволюционно заточен воспринимать нарративы, а не списки.
Иными словами, ИИ не просто сокращает путь. Он играет по правилам нашей когнитивной системы, и именно поэтому поведение пользователей так быстро изменилось.
Данные подтверждают: сдвиг уже произошёл

Исследование от OpenAI (сентябрь 2025): почти 48% всех запросов к ChatGPT попадают в категории «Seeking Information» и «Practical Guidance». Для миллионов людей ChatGPT уже стал прямой заменой поиска. Google AI Overviews снизили CTR по отдельным категориям запросов на 15–30%. Парадоксально, но CTR по брендированным запросам растет.
Что это значит? Нейтральные сайты теряют трафик, а сильные бренды выигрывают «по умолчанию» — если их выбрал ИИ. Это и есть «winner-takes-all» динамика: маленькие игроки исчезают из поля зрения, крупные закрепляют своё лидерство.
Российский контекст: цифры и тренды
Аналитики отмечают значимое снижение переходов из поиска на внешние ресурсы, в ряде ниш — до 20–30%. Например, КоммерсантЪ сообщает, что нейроответы в поисковиках снизили трафик сайтов на 30%, и это не предел.
Мы имеем тройное давление: со стороны поисковых систем (AI-ответы), диалоговых интерфейсов (ChatGPT и др.) и закрытых экосистем (маркетплейсы, банки).
Интернет как бэкенд

Так как же именно ИИ превращает интернет в свой бэкенд? Ключевая технология архитектуры современных генеративных систем — Retrieval-Augmented Generation (RAG).
В упрощённом виде их работа выглядит так:
Пользователь задаёт вопрос (API Call).
Например: «Сравни два отеля в Питере».Модель делает «запрос к бэкенду» (Retrieval).
Вместо того чтобы сразу выдавать ответ «из головы», система обращается к внешним источникам — собственному индексу веба или поисковику. В дело идут десятки релевантных страниц: официальные сайты, отзывы, агрегаторы.Модель получает «сырые данные» (Backend Response).
Из них извлекаются ключевые факты: цены, рейтинг, перечень услуг, фрагменты отзывов.Модель синтезирует ответ (Logic Layer).
На этом этапе подключается генеративная часть LLM, превращая собранные данные в структурированный, удобный для пользователя ответ.
В такой модели сайты-источники фактически становятся бесплатными микросервисами: они отдают данные, но теряют прямой контакт с пользователем. Вся «бизнес-логика» и взаимодействие с «фронтендом» (человеком) смещаются внутрь ИИ.
Поэтому падение CTR и рост «нулевых кликов» — это не случайный тренд, а прямое следствие архитектуры RAG.
Важно: не все ИИ работают так. Классические LLM без доступа к вебу формируют ответы исключительно на основе параметров модели, без retrieval. Но системы вроде Perplexity, ChatGPT с Bing или корпоративные RAG-платформы — именно те самые «ИИ с интернетом как бэкендом».
«Утечки» новой абстракции
В программировании у любой абстракции есть «утечки» — моменты, когда скрытый слой прорывается наружу и приносит проблемы. С генеративным ИИ ситуация ровно такая же.
Потеря контроля над источниками (Source Code Blindness). Мы получаем гладкий абзац текста, но не всегда видим, на чём он основан. Например, в 2024 году Perplexity.ai несколько раз ошибочно цитировал несуществующие новости. Эти «факты» разошлись в соцсетях.
Атрофия навыка критической проверки (Automation Bias). Это когнитивное искажение, при котором человек склонен доверять машине больше, чем себе. Исследования показывают, что врачи и другие специалисты нередко следуют советам ИИ, даже когда они ошибочны. Так, недавний препринт фиксирует, что использование LLM-инструментов повышает риск выбора неверных решений, если модель формулирует их уверенно. Аналогичные результаты приводятся и в обзоре NEJM AI: пациенты и врачи демонстрируют склонность переоценивать достоверность ответов алгоритмов.
Смерть serendipity (случайных открытий). Раньше поиск был приключением, аналитической работой с возможностью ответвлений и потенциалом для инсайтов. ИИ лишает нас этого опыта. Мы получаем ровно то, что попросили — ничего больше.
Новая архитектура возможностей: что мы приобретаем взамен

Да, эти риски реальны. Но любая новая мощная абстракция не только создает проблемы — она открывает доступ к возможностям, которые раньше были немыслимы. Генеративный ИИ — не исключение, например:
Демократизация сложных знаний. Раньше, чтобы разобраться в основах квантовой физики или тонкостях корпоративного права, требовались годы обучения. Сегодня ИИ выступает в роли универсального "переводчика", который может объяснить сложнейшие концепции простым языком. Он делает нишевые, элитарные знания доступными для миллионов, ускоряя обучение и инновации.
Синтез как новый источник инсайтов. Человеческий мозг ограничен в объеме информации, которую он может одновременно удерживать и анализировать. ИИ может проанализировать тысячи научных статей, отчетов и патентов, чтобы найти неочевидные связи и закономерности, которые упустил бы любой человек. Он дает нам не просто "ответы", а способность видеть "лес за деревьями" в масштабах, которые раньше были недоступны.
Иными словами, мы жертвуем частью контроля над поиском, чтобы получить беспрецедентный контроль над синтезом и применением знаний. Это не деградация, а переход на новый уровень работы с информацией.
Новая грамотность: работа с «железом» знаний
Мы привыкли, что «цифровая грамотность» — это умение гуглить. Но в реальности грамотность будущего — это умение спускаться на уровень ниже, работать напрямую с источниками, а не довольствоваться результатом компиляции.
Для разработчиков это значит читать API-документацию и RFC, а не только спрашивать у Copilot.
Для аналитиков — работать с сырыми датасетами, а не ограничиваться саммари от ChatGPT.
Для компаний — владеть уникальными «низкоуровневыми» активами: данными, кейсами, исследованиями. Всё, что ИИ не может просто «придумать».
Только так можно оставаться не потребителем API, а частью его бэкенда.
Именно поэтому сейчас много говорят о Generative Engine Optimization (GEO) — новой дисциплине, где главная цель не понравиться поисковику, а построить настолько сильный фундамент из фактов и данных, чтобы любая высокоуровневая модель была вынуждена ссылаться на вас.
Практические советы: что делать бизнесу и профессионалам

Сохраняйте «низкоуровневый доступ». Даже если используете ИИ в ежедневной работе, выделяйте время на проверку первоисточников. Это снижает риск ошибок и сохраняет мышцу критического мышления.
Инвестируйте в уникальные данные. Бренды, которые владеют оригинальными исследованиями и датасетами, становятся обязательным источником для ИИ. Это стратегический актив — как интеллектуальная собственность.
Следите за «цитируемостью» бренда в ИИ. Новый KPI — не только трафик на сайт, но и то, насколько часто ИИ упоминает вас как источник. Это ранний индикатор будущей видимости.
Развивайте навыки «prompt literacy». Умение правильно формулировать запросы к ИИ — новая цифровая грамотность, сродни языку программирования 20 лет назад.
Вместо вывода
Интернет снова меняет форму, становясь универсальным API к знаниям. Но как и с любым API, настоящую власть получает тот, кто понимает архитектуру и управляет бэкендом.
Вопрос теперь стоит так: вы просто потребитель этой «машины ответов» — или вы строите системы, которые этот API будет использовать в качестве источника?
Эта статья была посвящена феномену «нулевого клика». А для тех, кто хочет глубже разобраться в бизнес-стратегиях для новой эпохи, советую посмотреть большой аналитический обзор по GEO: там конкретные шаги, новые KPI и бизнес-кейсы для компаний.