Рынок потихоньку обретает опору вновь.
Semrush выкатывает одни из первых внятных исследований про механику AI-ответов: какая логика отбора, какие используются источники и критерии контента.

Итак, на обзоре 2 исследования от Semrush, идеально дополняющих друг друга:
первое исследование показывает наглядно показывает как то, что начиналось как обычный AI-ассистент, быстро превращается в измеримый канал привлечения (за несколько месяцев количество доменов, получающих трафик из ChatGPT, выросло с менее чем 10 000 до более чем 30 000 в день).
второе — объясняет, почему «заполнить сайт AI‑контентом» редко приводит к тому, что вас начинают выбирать алгоритмы (и люди) в верхней части выдачи.
Приступаю к обзору исследования с практическими выводами.
Дисклеймер
Важно: после/во время прочтения материала, я бы не советовал ограничиваться только практикой в ChatGPT. Наблюдения релевантны для большинства AI-ассистентов и LLM в целом, потому что логика работы, отбора источников и формирования ответов у них во многом сходная. О различиях писал в прошлой статье.
Так же и с рынком: хотя исследования и данные я привёл по буржунету (в основном, действительно, дельные только там и есть), для рунета они тоже показательны — там будет происходить или происходит тоже самое. По тем же паттернам, но с некоторой задержкой.
ChatGPT стал проводником в веб, но главный бенефициар — Google
Luke Harsel и команда Semrush разобрали 17 месяцев US‑кликстрима (мобайл+десктоп) и собрали хороший такой и тяжёлый массив: больше 1 млрд строк clickstream‑данных по сессиям из панели на 200 млн пользователей за период октябрь 2024 — февраль 2026.
И что мы видим:
Трафик ChatGPT вышел на плато около ~1 млрд визитов в месяц примерно с ноября 2025 и держался до начала 2026.

При этом исходящий referral‑трафик из ChatGPT в веб вырос на 206% (сравнение январь 2025 vs январь 2026).

Теперь, как всё это связано с Гуглом:
Google забирает 21.6% всех рефералов из ChatGPT; следующие 9 доменов вместе дают ещё 8.6% — то есть чуть больше 30% всех переходов уходит всего в топ‑10 доменов на февраль 2026.

Причём доля рефералов в сторону Google выросла примерно с ~14% в начале наблюдения до >21% к началу 2026.

Концентрация по топ‑10 доменам не разовая: Semrush фиксирует, что 20–32% всех рефералов в топ‑10 доменов на всём измеримом отрезке, начиная с октября 2024.

Какой тут можно и нужно сделать вывод: AI часто подталкивает пользователя обратно в классический поиск, чтобы уточнить, проверить или открыть конкретный бренд/страницу. Да, вы правильно понимаете: SEO‑фундамент всё равно придётся латать.
Новая форма запросов: семантическое ядро уже не то
Самое полезное в этом исследовании с точки зрения подтверждения очень классной гипотезы — это новый язык промптов.
Semrush сопоставили промпты из датасета с собственной базой 27+ млрд ключевых слов и увидели следующее:
в течение большей части периода 65–85% промптов не мэтчились ни с одним традиционным поисковым запросом из keyword‑базы.
но доля промптов, которая всё же ближе к классике, почти удвоилась: с 18.9% (окт 2025) до 34.9% (фев 2026).

Это важная динамика: пользователь одновременно осваивает «разговорный поиск» и возвращается к коротким формулировкам там, где нужно просто быстро что-то найти. В основном это навигационные и транзакционные интенты.
Почему это хорошая новость для GEO
Навигационный/транзакционный слой — это территория GEO (всё с этого и начиналось): входы в карты, бренды, логины, “купить X”, “записаться”, “рядом со мной”.
И это видно даже по топ‑промптам в кликах: в списке встречаются “google maps”, “gmail”, “notion login” и подобные сценарии.

И ещё
Поведенчески AI‑сессия становится длиннее и «вдумчивее»:
Среднее число запросов за сессию в 2025 держалось в диапазоне 1.16–1.21, а затем подскочило на 50% и дошло до 1.75 запроса на сессию к февралю 2026.

-
Параллельно меняется длина промптов:
для search‑enabled запросов (те самые, где AI подключает поиск в интернете) средняя длина почти удвоилась с 4.7 до 8.7 слов (сравнение янв–фев 2025 vs янв–фев 2026);
для non‑search запросов средняя длина почти вдвое сократилась с 24.9 до 13.5 слов.

То есть пользователи учатся задавать вопросы так, чтобы либо быстро получить ответ (короче), либо включить поиск и получить глубокий результат (тоже короче, но при этом содержательнее). И для GEO это означает: вам нужно работать с разными потребностями (сценариями) — важно знать их все, чтобы смочь прийти на помощь пользователю на любом этапе воронки.
GEO – это вероятностная задача?
Web‑search в ChatGPT включён примерно на одной трети запросов.
Semrush фиксируют: в феврале 2026 поиск был включён на 34.5% запросов, что ниже, чем 46% в конце 2024.

Причём доля search‑enabled сессий очень сильно колеблется: от 15% до 66.3% на протяжении периода наблюдения.

Отсюда мой практический тезис: если вы оцениваете GEO только по “упоминаниям в ответах”, вы заблуждаетесь — потому что существенная часть пользовательских взаимодействий может вообще не полагаться на веб‑поиск в моменте (а значит, и на вашу свежую оптимизацию). Чат будет брать данные из своей базы, а вы можете переоценить скорость эффекта от изменений и недооценить роль долгосрочной репутации и накопленного «веса» источника. Это кроме того, что вы не видете всей картины и не можете оценить реальную долю влияния. Стремитесь к тому, чтобы попасть в эту базу — то есть, ИИ должен обучиться на вашем контенте и бренде.
Дерзайте, Semrush показывает, что экосистема рефералов постепенно расширяется: количество доменов, которые получают рефералы, выросло с ~71k (окт 2024) до пика ~260k (окт 2025) и затем снизилось до ~170k (фев 2026).

Чем хороша эта нарастающая конкуренция спросите вы? Отвечу: да, сайты заходят в эту игру, но внимание к источникам равномернее не стало. А всё потому что, многие ещё не прознали как правильно применять geo-знания. И вы можете этих “многих” опередить — вот в чём наша возможность.
Как AI‑контент воспринимается выдачей и алгоритмами
Теперь вторая часть пазла — контент.
Давайте свяжем «ощущения рынка» и «реальную SERP‑картину». Для исследования Semrush:
взяли 20,000 ключей, выгрузили по ним топ‑10 результатов (в сумме 200,000 URL), отфильтровали только blog‑страницы (по шаблону “/blog/”) и получили 42,000 страниц;
прогнали тексты через GPTZero, классифицировали как human / AI / mixed и посчитали вероятность типа контента по позициям;
параллельно опросили 224 SEO‑профессионала (внутри: 58% создают/оптимизируют контент, 40% — согласуют).
И вот что команде удалось выяснить:
чисто AI‑генерированные страницы попадали на позицию №1 только в 9% случаев, тогда как human‑контент — в 80% случаев (в рамках их классификации).
если смотреть вероятности: на позиции №1 страницы имели 80.5% вероятность быть human‑written и лишь 10% — AI‑generated.

То есть в топ‑1 попадают примерно в 8 раз чаще human‑written тексты. Таким образом, сам поиск вознаграждает оригинальностьЮ авторство и качество “финального продукта”. Не зная ваш процесс — видит результат. E-E-A-T в Гугле и ЭПОС теперь уже в Яндексе — одни из главных факторов современного ранжирования.
Почему всё именно ТАК?
Потому что AI:
либо ссылается на веб‑результаты (когда поиск включён),
либо собирает ответ из уже известных паттернов баз, где выбирает того, кто попал в устойчивые источники и накопил доверие.
И вот ни в первом, ни во втором случае AI‑контент вас ничем не отличает. А без отличий вы не становитесь ни топ‑страницей, ни цитируемым источником, ни причиной клика.
Ещё больше цифр:
87% команд сообщают, что их контент полностью написан человеком или хотя бы контролируется им; при этом самый массовый формат — второй (64%), а 23% вообще делают контент без AI.

AI чаще всего используют в «текстовых» задачах: 65%+ — ресёрч/редактирование/on‑page; но на более сложных задачах провал: 28% визуал, 15% перевод, 9% видео/аудио.

главная ценность от AI — скорость (70%) и помощь с идеями (62%), а вот «рост качества» признают только 19%.

А вот восприятие рынка было посмотреть действительно интересно:
72% SEO‑специалистов считают, что AI‑контент ранжируется “так же или лучше”, и эта доля выросла с 64% в 2024;
но одновременно выросла доля тех, кто считает, что он ранжируется хуже: с 9% до 13%;
“не уверен/не сравнивал” упало с 27% до 15% — рынок перестал фантазировать и начал мерить. Ура)

Мой вывод: рынок научился “делать быстрее и больше”, но верх выдачи (а значит — и шанс стать источником в AI‑ответах) всё ещё чаще забирают страницы, где есть человеческая экспертиза, уникальность и редактура. Это довольно таки экономическая логика конкуренции за верхние позиции.
Мне важно было вставить это исследование сюда, потому что многие всё-таки забывают, что пишете вы в первую очередь для людей, а не для алгоритмов. Поэтому, что Гугл, что Яндекс, делают всё возможное, чтобы докричаться до нас в своей погоне.
Механика AI‑поиска через призму GEO: что именно оптимизируем
Давайте всё же разведём две разные механики: AI‑поверхности, где вы можете появляться.
Поверхность с веб‑поиском и ссылками
ChatGPT Search переписывает запрос в один или несколько таргетированных запросов и отправляет их сторонним поисковым провайдерам (в примере — партнёрам вроде Microsoft и Shopify).
Для GEO это значит, что ChatGPT Search:
собирает примерную геолокацию по IP и может передавать эту «общую локацию» поисковому партнёру для релевантности результатов;
в локальных запросах может переписать “near me” в “топ SEO-агентств в Москве”;
может (опционально) использовать точную геолокацию устройства для ещё более локальных ответов.
OpenAI пишет, что нет способа гарантировать топ‑размещение в ChatGPT Search; и если вы вообще хотите попадать в ответы, важно не блокировать OAI‑SearchBot и пропускать трафик с опубликованных IP‑диапазонов.
Поверхность Google AI Overviews / AI Mode
Если говорить про Google, то в документации для владельцев сайтов позиция ещё более прямолинейная:
никаких “особых механик” для попадания в AI Overviews/AI Mode нет — работают базовые SEO‑практики. Индексируемость, корректный показ сниппета, например;
AI‑ответы могут строиться через “query fan‑out” — серию связанных запросов по под‑темам, а затем подтягивать больше supporting pages. Например, вместо одного “лучшее SEO-агентство” — отдельно проверить рейтинг, кейсы, отзывы, услуги). Конкуренция не по одному запросу, а сразу по кластерам.
отдельно подчёркивается важность актуальности данных в карточках бизнеса, каталогах и прочих агрегированных данных. Если у вас локальный бизнес или ecom — ваше присутствие в ИИ формируется зачастую вообще вне сайта.
ИИ алгоритмы любят всю структурность, потому что это снижает неоднозначность.
Операционная матрица: как соединить SEO, GEO и AI‑воронку – да так, чтобы это измерялось
Помним:
(а) поиск включается не всегда,
(б) трафик не распределяется равномерно,
(в) семантическое ядро нужно составлять внимательнее,
(г) качество контента в топе всё ещё решает.
Трекинг и аналитика: сначала научитесь правильно оценивать AI‑переходы
Если вы открыты для OAI‑SearchBot, то рефералы из ChatGPT автоматически помечаются UTM utm_source=chatgpt.com.
Но хотелось бы знать ответы на конкретные вопросы:
какие страницы реально получают такие визиты;
какие интенты приводят к клику (локальные, коммерческие, навигационные);
каков post‑click (конверсия/время/глубина).
Будет здорово, если поисковики начнут предоставлять такую информацию, но пока советую вам пользоваться инструментами аналитики. У меня есть видеоролик с подробным обзором функционала — кому интересно можете глянуть. Не пренебрегайте глубиной, иначе вы рискуете впасть в заблуждение, а потом и в разочарование от инструмента)
Индексация и доступность: проверьте базу
Для Google‑AI — это базовое SEO. Для ChatGPT Search — это OAI‑SearchBot вне блокировки. Для локального бизнеса — это карты и карточки бизнеса в интернете (справочники, рейтинги в том числе).
Помните, что огромная доля переходов уходит в Google и другие крупные площадки, а в картах и вовсе есть функция “спроси у AI”.
Подытожим
GEO не обособленный инструмент, SEO будет жить — и эти два исследования Semrush укрепляют эту позицию. AI‑слой не заменяет поиск, а надстраивается над ним — и часто даже усиливает ваши сайты (возвратом в выдачу).
Выдумывать не получится, потому что:
поиск в ChatGPT включается не всегда и ведёт себя нестабильно (34.5% запросов с веб‑поиском — варьируется от сессии к сессии с 15% до 66.3%);
клики концентрируются у крупных доменов (21.6% только у Google, >30% у топ‑10), а значит преимущество у того, кто одновременно силён в классическом поиске и понятен как сущность с точки зрения алгоритмов;
пренебрегать хорошими текстами не получится: AI‑контент редко занимает топ‑1.
Итого, обойти систему не получится: AI усиливает сильных, а не вытаскивает слабых. Рекомендация одна: стройте систему вокруг бренда (seo+pr+репутационный маркетинг) и делайте из SEO дисциплину (не единоразово, а регулярно).
Вопросы/предложения/пожелания, как всегда, в личке)