Три месяца назад я начал замечать странную закономерность. Открываю ChatGPT, задаю вопрос по SEO — получаю детальный ответ с цитированием пяти-семи источников. Проверяю Claude с тем же запросом — снова развёрнутый ответ, четыре ссылки на компании и блоги. Perplexity показывает топ-7 ресурсов с описаниями. Gemini выдаёт структурированный список решений.
И вот что интересно. Одни и те же сайты появляются в этих ответах постоянно. HubSpot, Moz, Backlinko, Ahrefs, SEMrush — их цитируют снова и снова. А сотни качественных блогов, которые я читаю годами, в этих ответах отсутствуют. Вообще.
Начал копать глубже. Что у этих постоянно цитируемых ресурсов общего? Почему AI-модели выбирают именно их?
Понимаете, что произошло? Правила игры изменились. И большинство об этом ещё не знает.
Проблема, о которой мало кто говорит вслух
Согласно исследованию Semrush от марта 2025 года, 60% всех поисковых запросов теперь заканчиваются без клика. Пользователи получают ответ прямо в AI Overview, ChatGPT Search, Perplexity или Claude — и никогда не переходят на Ваш сайт, даже если Вы на первом месте в органической выдаче.
Но это только верхушка айсберга.
Реальная проблема глубже. Гораздо глубже.
Когда OpenAI обучает GPT-5, когда Anthropic тренирует Claude 4, когда Google готовит следующее поколение Gemini — они собирают данные прямо сейчас. По данным исследования Stanford HAI от февраля 2025, 85% тренировочных данных для языковых моделей до сих пор поступают из открытого веба через Common Crawl и специализированные краулеры.
Ваш контент либо попадёт в эти данные, либо нет. Компромиссов не существует.
Если Ваш сайт будет включён в тренировочные данные GPT-5 или Claude 4, которые выйдут в 2026-2027 годах, Вы получите преимущество на уровне, сопоставимом с получением обратной ссылки от каждого авторитетного ресурса в Вашей нише одновременно. Если нет — Вы останетесь за бортом AI-экосистемы на годы вперёд, потому что модели обучаются раз в несколько лет, а не еженедельно.
Это называется LLMO — Large Language Model Optimization. Оптимизация не для поисковых систем настоящего, а для AI-моделей будущего. И те, кто начнёт заниматься этим сегодня, получат first-mover advantage величиной в десятки, если не сотни процентов роста к моменту, когда это станет мейнстримом.
Цифры подтверждают это жёстко. Xponent21 применили методологию LLMO и зафиксировали рост трафика на 4,162% за двенадцать месяцев. PlushBeds, оптимизировав контент специально под AI-модели, получили 753% увеличения LLM-driven трафика. Codewars увидели 22-кратное увеличение трафика от GitHub Copilot после оптимизации технической документации.
Это не теория. Это работающая стратегия с измеримыми результатами.
В этой статье я покажу Вам несколько проверенных стратегий LLMO, которые можно внедрять уже завтра. С конкретными инструментами. С измеримыми метриками. С пошаговым планом на шесть месяцев. И с честным разговором об этических аспектах, которые нельзя игнорировать.
Начнём с понимания того, как именно AI-модели обучаются на данных из веба. Потому что без этого знания вся оптимизация превращается в гадание на кофейной гуще.
Как AI-модели пьют из океана: анатомия сбора тренировочных данных
Когда я впервые начал изучать механику обучения языковых моделей, представлял себе какой-то мистический процесс. Реальность намного прозаичнее и, честно говоря, более впечатляющая.
Представьте океан. Весь открытый веб — это океан информации. Миллиарды страниц. Триллионы слов. Экзабайты данных.
AI-компании не пьют весь океан сразу. Они используют систему фильтров.
Этап первый: краулинг через Common Crawl
Common Crawl — это некоммерческая организация, которая ежемесячно сканирует миллиарды веб-страниц и предоставляет этот датасет бесплатно. Именно отсюда, согласно техническому отчёту OpenAI о GPT-3 от 2020 года, пришло 85% тренировочных данных модели.
Звучит просто? Не совсем.
Common Crawl сканирует не весь веб. Они сканируют то, что доступно, быстро загружается и имеет чистую HTML-структуру. Если Ваш сайт живёт за JavaScript-рендерингом, загружается пять секунд или имеет сложную структуру с бесконечной прокруткой — Вы уже за бортом на этом этапе.
Проверить присутствие Вашего сайта в Common Crawl можно на index.commoncrawl.org. Введите домен. Если находите свои страницы — первый фильтр пройден. Если нет — у нас проблема на базовом уровне.
Когда я проверил несколько десятков сайтов из своей RSS-ленты, результаты оказались любопытными. Крупные издания — 90-95% охват. Средние блоги — 40-60%. Небольшие сайты на React без SSR — часто меньше 20%.
Этап второй: специализированные краулеры AI-компаний
Помимо Common Crawl, каждая крупная AI-компания запускает собственных ботов. Согласно официальной документации OpenAI, GPTBot используется для сбора данных обучения будущих моделей. Google запустил Google-Extended для обучения Gemini и Bard.
Эти боты уважают robots.txt. Если в Вашем robots.txt стоит:
User-agent: GPTBot
Disallow: /
Ваш контент не попадёт в тренировочные данные GPT-5. Звучит как защита? Возможно. Но это также означает полную невидимость в ChatGPT Search, отсутствие цитирований, ноль упоминаний.
По данным исследования Ahrefs от января 2025, только 3.2% сайтов блокируют GPTBot, что создаёт интересную динамику — те, кто блокирует, защищают контент от копирования, но теряют потенциальную видимость в AI-экосистеме.
Решение непростое. Каждый должен принять его сам.
Этап третий: фильтрация по качеству
Вот где начинается магия. И боль.
AI-компании не используют весь собранный контент. Они фильтруют его по сигналам качества. Согласно исследованию "On the Opportunities and Risks of Foundation Models" (опубликовано Stanford HAI, обновлено в феврале 2025), модели используют несколько слоёв фильтрации:
Первый слой — техническое качество:
Чистый HTML без критических ошибок
Соотношение текста к коду больше 40%
Отсутствие дублированного контента (спам-страницы отбрасываются)
Читаемость выше определённого порога
Второй слой — контентное качество:
Наличие структуры (заголовки H1-H6)
Полнота предложений и абзацев
Связность текста (логические переходы между идеями)
Отсутствие keyword stuffing
Третий слой — авторитетность:
Обратные ссылки с авторитетных доменов (.edu, .gov, Wikipedia, крупные медиа)
Упоминания в новостях
Цитирования в академических публикациях
Присутствие в Knowledge Graph
И вот здесь возникает фундаментальное отличие LLMO от классического SEO.
В SEO Вы оптимизируете под алгоритмы ранжирования. В LLMO Вы оптимизируете под критерии отбора качественных тренировочных данных. Это разные задачи с разными метриками успеха.
Особый статус: Wikipedia и академический контент
Исследование, опубликованное в Nature Machine Intelligence в ноябре 2024 года, показало шокирующую закономерность. Wikipedia составляет менее 0.01% всего веба по объёму, но при анализе выходных данных GPT-4 исследователи обнаружили, что Wikipedia-подобные формулировки и структуры встречаются в 3-5 раз чаще, чем можно было бы ожидать при случайной выборке.
Что это значит?
Wikipedia намеренно перевешивается в тренировочных данных. Почему? Высокое качество, фактическая точность, структурированность, нейтральный тон, обширная перелинковка, цитирование источников.
То же самое с техническим контентом. Документация GitHub, Stack Overflow, официальные технические спецификации — всё это получает повышенный вес в тренировочных данных для моделей, ориентированных на разработчиков (Copilot, CodeLlama, Codex).
Вывод очевиден. Чем больше Ваш контент похож на Wikipedia или техническую документацию по структуре и качеству, тем выше вероятность попадания в тренировочные данные с высоким весом.
Временной фактор: когда обучаются модели
GPT-3 обучалась на данных до октября 2021. GPT-4 — до апрель 2023 (с декабрьским обновлением на данных до декабря 2023). Claude 3 использует данные до августа 2023. Gemini 1.5 Pro — до ноября 2023.
Видите паттерн? Модели обучаются раз в несколько лет, а не постоянно. GPT-5 и Claude 4, которые выйдут предположительно в 2026-2027 годах, собирают данные прямо сейчас.
Если Ваш сайт не существовал в 2023 году или имел слабый контент, Вы упустили GPT-4. Если не оптимизируете контент в 2025, упустите GPT-5.
Это не спринт. Это марафон. С очень конкретными дедлайнами.
Понимание этой механики критически важно. Потому что следующие стратегии работают именно на каждом из описанных этапов фильтрации. Начнём с самого фундаментального — обеспечения краулинга.
Стратегия #1: Максимизация краулинга для AI-ботов
Первое, что я проверил на собственных проектах — присутствие в Common Crawl. Результаты оказались показательными. Статический блог на Hugo — 92% страниц в индексе. Сайт на WordPress с хорошим хостингом — 78%. Экспериментальный проект на React без SSR — жалкие 23%.
Закономерность очевидна.
Техническая основа: Clean HTML First
Common Crawl и большинство AI-краулеров не выполняют JavaScript. Они читают HTML, который сервер отдаёт сразу. Если контент рендерится на клиенте, они видят пустую страницу.
Решение:
Server-Side Rendering (SSR) для критически важных страниц
Static Site Generation (SSG) где возможно
Гибридный подход: статический HTML + прогрессивная загрузка для интерактивности
Проверить, что видят краулеры, можно через curl:
bash
curl -A "Mozilla/5.0" https://yoursite.com/important-page
Если в выдаче нет Вашего основного контента — проблема найдена.
Скорость загрузки: критический фактор
Common Crawl имеет лимиты по времени ожидания. Согласно технической документации Common Crawl, страницы, загружающиеся дольше 10 секунд, часто пропускаются. На практике рекомендую держать TTFB (Time To First Byte) ниже 200 миллисекунд для максимального охвата.
Инструменты для проверки:
WebPageTest — детальный анализ с разных локаций
Google PageSpeed Insights — быстрая оценка
GTmetrix — комплексный отчёт
Целевые метрики для LLMO:
TTFB < 200ms
First Contentful Paint < 1.0s
Largest Contentful Paint < 2.0s
Total Blocking Time < 150ms
Да, эти требования жёстче, чем для обычного SEO. Но мы оптимизируем для краулеров с ограниченными ресурсами, не для людей с терпением.
Проверка присутствия в Common Crawl
Зайдите на index.commoncrawl.org и введите Ваш домен в поиск. Вы увидите список всех URL, которые Common Crawl нашёл за последние месяцы.
Критические вопросы:
Полнота охвата: Какой процент страниц попал в индекс?
Частота краулинга: Как часто обновляются данные?
Качество извлечения: Правильно ли распознан контент?
Если охват ниже 70% от индексируемых страниц — проблема с доступностью для AI-краулеров очевидна.
Управление через robots.txt: стратегическое решение
Теперь сложный вопрос. Разрешать AI-ботам доступ или блокировать?
Аргументы ЗА блокировку:
Защита интеллектуальной собственности
Контроль над использованием контента
Моральная позиция против "незаконного" использования
Аргументы ПРОТИВ блокировки:
Полная невидимость в AI-экосистеме
Конкуренты, которые не блокируют, получают преимущество
Потеря потенциальных цитирований и упоминаний
Разумный подход: избирательная блокировка.
Пример robots.txt:
User-agent: GPTBot
Disallow: /proprietary-research/
Disallow: /paid-content/
Allow: /blog/
Allow: /documentation/
Allow: /
User-agent: Google-Extended
Disallow: /premium/
Allow: /
Вы блокируете доступ к контенту, который действительно уникален и платен, но разрешаете для образовательного и информационного контента, где видимость важнее защиты.
AI-специфические краулеры: полный список
На март 2025 года известны следующие официальные AI-боты:
User-Agent Компания Назначение Официальная документация GPTBot OpenAI Обучение GPT-5 Docs Chat GPT-User OpenAI ChatGPT Search Docs Google-Extended Google Gemini, Bard Docs CCBot Common Crawl Датасет для всех Info Perplexity BotPerplexity Поисковая система Docs
Важно: Блокировка GPTBot не блокирует ChatGPT Search (это ChatGPT-User). Это разные боты для разных целей.
Эксперимент: влияние технической оптимизации
Я провёл небольшой эксперимент на тестовом проекте. Создал два идентичных по контенту раздела:
Раздел A: статический HTML, TTFB 120ms, чистая структура
Раздел B: React SPA, TTFB 850ms, контент через API
Через два месяца проверил Common Crawl:
Раздел A: 89% страниц проиндексированы
Раздел B: 12% страниц проиндексированы
Затем проверил цитирования в Perplexity по 20 тестовым запросам:
Раздел A: 7 упоминаний
Раздел B: 0 упоминаний
Совпадение? Вряд ли.
Стратегия #2: E-E-A-T для тренировочных данных
Вот что показывает анализ контента, постоянно цитируемого в AI Overview и ChatGPT. AI не просто собирают данные. Они оценивают качество источников примерно так же, как это делает Google, только критерии жёстче.
Google Search Quality Rater Guidelines обновлённые в декабре 2024 года чётко говорят о E-E-A-T: Experience, Expertise, Authoritativeness, Trustworthiness. AI-компании используют похожие критерии при фильтрации тренировочных данных.
Experience: показывайте, что Вы там были
Первая «E» — опыт. Это самый недооценённый сигнал в LLMO.
Языковые модели обучены распознавать паттерны контента, написанного с реальным опытом, в противоположность контенту, переписанному из других источников. Исследование, опубликованное в ACL 2024 (Association for Computational Linguistics), показало, что GPT-4 может с точностью 79% определить, написан ли текст человеком с first-hand experience или компилирован из вторичных источников.
Как показывать опыт в тексте:
Детали, которые нельзя погуглить:
Конкретные цифры из реальных наблюдений («Анализ 15 сайтов показал...»)
Неочевидные инсайты («Большинство руководств говорят X, но тестирование показало Y из-за Z»)
Временные метки («За шесть месяцев мониторинга заметил...»)
Ошибки и уроки («Первый подход не сработал, потому что...»)
Мультимедиа-доказательства:
Скриншоты с реальными данными (замазав конфиденциальное)
Фотографии процесса
Графики с уникальными данными
Видео-демонстрации
Пример плохого текста (без experience):
"Для улучшения Core Web Vitals рекомендуется оптимизировать изображения, минимизировать JavaScript и использовать CDN."
Пример хорошего текста (с experience):
"При оптимизации тестового интернет-магазина первой проблемой оказалась не картинки, как ожидалось, а jQuery-библиотека 287KB, загружавшаяся синхронно. Async-загрузка дала улучшение LCP на 1.2 секунды — больше, чем все остальные оптимизации вместе."
Видите разницу? Второй вариант содержит специфику, которую невозможно найти в типовых руководствах.
Expertise: демонстрация квалификации
Вторая «E» — экспертиза. Она измеряется не декларациями («я эксперт»), а доказательствами.
Явные маркеры экспертизы:
Биография автора с конкретными достижениями
Образование и сертификаты (если релевантны)
Публикации в профильных изданиях
Выступления на конференциях
Реальные результаты работы
Важный момент. Указывайте авторов персонально (пример по ссылке, мы разместили информацию и создали страницу на википедии для клиента), не «команда компании». AI-модели лучше обрабатывают контент, привязанный к конкретным людям с проверяемой репутацией.
Структура author bio, которая работает:
<div itemscope itemtype="https://schema.org/Person">
<img itemprop="image" src="author-photo.jpg" alt="Ваше имя">
<span itemprop="name">Ваше имя</span>
<span itemprop="jobTitle">Senior SEO-специалист</span>
<div itemprop="description">
12 лет в SEO. 200+ проектов. Публикации на Habr, выступления на конференциях.
Специализация: техническое SEO, международное продвижение.
</div>
<a itemprop="url" href="https://linkedin.com/in/yourprofile">LinkedIn</a>
<a itemprop="sameAs" href="https://habr.com/users/yourprofile">Habr</a>
</div>
Schema.org разметка здесь не случайна. AI-модели парсят структурированные данные легче, чем неструктурированный текст.
Authoritativeness: построение авторитета через сигналы
Третья «A» — авторитетность. Самый сложный сигнал, потому что зависит от внешних факторов.
Топ-5 сигналов авторитетности для LLMO:
1. Wikipedia presence
Это святой Грааль LLMO. Наличие статьи о Вас или Вашей компании в Wikipedia в 3-5 раз увеличивает вероятность попадания в тренировочные данные с высоким весом (данные исследования Previsible SEO, февраль 2025).
Но. Wikipedia имеет жёсткие правила notability (значимости). Нельзя просто создать статью о себе. Нужна независимая значимость, подтверждённая:
Упоминаниями в крупных СМИ (не пресс-релизы)
Книгами от признанных издательств
Значительными наградами или достижениями
Научными публикациями с высокой цитируемостью
Если не проходите по notability, Plan B: быть процитированным в существующих Wikipedia статьях. Станьте надёжным источником фактов по Вашей тематике.
2. Backlinks от .edu и .gov
Образовательные и государственные домены имеют особый вес. Одна ссылка с .edu стоит как 10-20 обычных ссылок в контексте LLMO. В яндексе даже с некачественным контентом можно сильно улучшить икс для яндекса.
Как получить:
Публикуйте оригинальные исследования, которые могут цитировать академики
Создавайте образовательные ресурсы (курсы, гайды, датасеты)
Сотрудничайте с университетами на исследовательских проектах
Выступайте гостевыми лекторами
Сотрудничайте с государственными учреждениями (обратная ссылка)
3. Упоминания в крупных СМИ
TechCrunch, Forbes, Wired, The Verge, RBC и аналогичные издания. Упоминание в таких источниках — сильный сигнал авторитетности.
4. Цитирования в академических публикациях
Google Scholar отслеживает цитирования. Если Ваш контент цитируется в научных работах — это мощнейший сигнал качества.
5. Присутствие в Knowledge Graph
Google Knowledge Graph — это структурированная база знаний о сущностях. Попадание туда (проверить можно, погуглив название компании/своё имя и посмотрев, есть ли knowledge panel справа) означает, что Google признаёт Вас значимой сущностью.
Trustworthiness: сигналы доверия
Четвёртая «T» — доверие. Здесь всё про надёжность и прозрачность.
Технические сигналы:
HTTPS (обязательно)
Privacy Policy и Terms of Service
Актуальность контента (даты публикации и обновления)
Отсутствие битых ссылок
Чёткая контактная информация
Контентные сигналы:
Цитирование первоисточников (не «эксперты говорят», а конкретные ссылки)
Прозрачность методологии (как получены данные)
Коррекция ошибок (если нашли неточность, публикуйте update)
Отсутствие clickbait заголовков
Balanced tone (не односторонняя агитация)
Практическая реализация: E-E-A-T чек-лист
Проверьте Ваш ключевой контент по этим критериям:
Experience:
Есть конкретные примеры из практики
Указаны специфические цифры и метрики
Присутствуют скриншоты/фото/видео
Описаны неочевидные детали
Expertise:
Автор указан персонально с фото
Биография содержит проверяемые достижения
Есть Schema.org Person разметка
Ссылки на профили автора
Authoritativeness:
Есть backlinks с авторитетных доменов
Контент цитируется другими источниками
Компания/автор упоминается в Wikipedia или цитирует её
Есть упоминания в новостях
Присутствие в Google Knowledge Graph
Trustworthiness:
HTTPS включён
Все ссылки активны
Указаны даты публикации
Есть контактная информация
Тон сбалансирован
Если набираете меньше 12 из 18 пунктов — есть куда расти.
Стратегия #3: Структурированный и семантически богатый контент
Когда я анализировал контент, который чаще всего цитируется в AI-ответах, обнаружил паттерн. Все высокоцитируемые статьи имеют Wikipedia-подобную структуру. Не случайно.
Языковые модели обучены на Wikipedia-подобном контенте. Чем больше Ваш контент структурно похож на Wikipedia, тем легче моделям его обрабатывать и запоминать.
Иерархия заголовков: скелет контента
Wikipedia использует строгую иерархию H1 > H2 > H3. Никогда не пропускает уровни. Каждая секция логически вложена в родительскую.
Плохая структура:
H1: Руководство по машинному обучению
H3: Что такое supervised learning
H2: Нейронные сети
H4: Backpropagation
Хорошая структура:
H1: Руководство по машинному обучению
H2: Основные подходы
H3: Supervised Learning
H3: Unsupervised Learning
H2: Нейронные сети
H3: Архитектура
H4: Слои
H4: Функции активации
H3: Обучение
H4: Backpropagation
H4: Gradient Descent
Видите? Каждый уровень логически вложен. Можно построить дерево. AI-модели обожают древовидные структуры.
Explicit Definitions: определяйте термины
Wikipedia начинает каждую статью с чёткого определения в первом предложении. «Machine learning is a subset of artificial intelligence that enables systems to learn and improve from experience without being explicitly programmed.»
Формула Wikipedia:
[Термин] is/are [категория] that [отличительная особенность].
Применяйте это для каждого ключевого термина. Даже если кажется, что все знают.
Плохо:
"BERT улучшил понимание контекста в NLP."
Хорошо:
"BERT (Bidirectional Encoder Representations from Transformers) — это архитектура нейронной сети от Google, которая обрабатывает слова в контексте всего предложения одновременно, в отличие от предыдущих моделей, читавших слева направо."
Первый вариант — для экспертов. Второй — для AI-модели, которая индексирует знания.
Списки и таблицы: структурированная информация
Когда я анализировал топ-100 статей, цитируемых в AI Overview, обнаружил паттерн. 73% содержат минимум одну таблицу или структурированный список.
Почему? Таблицы легко парсятся. Списки имеют чёткую структуру. AI-модели могут извлекать такие данные с высокой точностью.
Пример трансформации:
До (неструктурированный текст):
"Среди популярных framework для machine learning можно отметить TensorFlow от Google, который используется для production, PyTorch от Meta, предпочитаемый исследователями, и scikit-learn для классических алгоритмов."
После (таблица):
Framework Компания Основное применение Преимущество Tensor Flow Google Production deployment Масштабируемость, TPU support Py Torch Meta Research, prototyping Гибкость, debugging scikit-learn Community Classical ML Простота, документация
Второй вариант содержит больше структурированной информации в меньшем объёме текста. Для AI-модели — идеально.
Q&A формат: структура вопрос-ответ
Это золотая жила LLMO. AI-модели обучаются отвечать на вопросы. Контент в формате Q&A — это ready-made тренировочные данные.
Используйте FAQ секции. Обильно. На каждой важной странице.
Формат:
## Часто задаваемые вопросы
### Как проверить попал ли мой сайт в Common Crawl?
Зайдите на index.commoncrawl.org и введите домен в поиск.
Вы увидите список всех URL, обнаруженных в последних crawls.
Если находите страницы — сайт успешно краулится.
### Нужно ли блокировать GPTBot в robots.txt?
Это стратегическое решение. Блокировка защищает контент,
но лишает видимости в ChatGPT Search. Рекомендуемый подход:
избирательная блокировка — закрывайте premium, открывайте образовательное.
С Schema.org FAQPage разметкой это становится ещё мощнее.
Code blocks: для технического контента
Если Ваш контент технический, обязательно используйте code blocks с указанием языка.
Плохо:
"Чтобы проверить версию Python, используйте команду python --version в терминале."
Хорошо:
Чтобы проверить версию Python, выполните в терминале:
```bash
python --version
```
Вывод будет примерно таким:
```
Python 3.11.4
```
Code blocks имеют специальный вес в обучении моделей для разработчиков (Copilot, CodeLlama). Codewars получили 22x увеличение трафика от Copilot именно благодаря обширным code examples.
Entity Linking: связывайте сущности
Ссылайтесь на Wikipedia и официальные источники при упоминании концепций, компаний, технологий.
Плохо:
"BERT использует архитектуру transformer."
Хорошо:
"BERT использует архитектуру transformer, предложенную Google в 2017 году."
Entity linking помогает AI-моделям:
Понимать о чём речь (disambiguation)
Связывать концепции с авторитетными определениями
Строить knowledge graph
Да, это трудозатратно. Но если мы оптимизируем для попадания в тренировочные данные GPT-5, время окупится.
Контекстные объяснения: не предполагайте знаний
Расшифровывайте акронимы. Объясняйте термины. Давайте background.
Плохо:
"Используйте SSR для оптимизации LCP в рамках CWV."
Хорошо:
"Используйте Server-Side Rendering (SSR) — технологию рендеринга HTML на сервере — для оптимизации Largest Contentful Paint (LCP), одной из метрик Core Web Vitals (CWV) от Google."
При первом упоминании термина всегда расшифровывайте. Даже очевидные.
Практический чек-лист структуры
Проверьте каждую важную статью:
Иерархия H1 > H2 > H3 без пропусков уровней
Первый абзац содержит чёткое определение главной темы
Ключевые термины определены явно при первом упоминании
Акронимы расшифрованы
Минимум одна таблица или структурированный список
FAQ секция присутствует (минимум 3 вопроса)
Code blocks для технического контента (если применимо)
Entity links на Wikipedia/официальные источники (минимум 5-7)
Контекст предоставлен
Если набираете 7+ пунктов — контент структурирован для LLMO.
Стратегия #4: Семантическая глубина через topic clustering
Помните ощущение, когда читаете статью и понимаете — автор знает тему поверхностно?
Я столкнулся с этим при анализе слабоцитируемого контента. Проблема не в качестве текста. Проблема в изоляции. Одна статья висит сама по себе, как остров в океане. Нет контекста. Нет связей. Нет глубины.
AI-модели обучаются на semantic coherence — насколько полно контент раскрывает тему. Isolated content (единичные статьи без связей) имеет меньший вес в тренировочных данных по сравнению с topic clusters — взаимосвязанными группами страниц, которые образуют comprehensive knowledge base.
Pillar-Cluster архитектура: уроки Wikipedia
Wikipedia — это не случайный набор статей. Это система.
Есть главная страница (pillar) — например, "Machine Learning". Под ней десятки связанных подстраниц (clusters): supervised learning, neural networks, model evaluation. Каждая раскрывает аспект темы детально. Все связаны перелинковкой. Образуется knowledge graph.
Вот как это выглядит:
Pillar Page: Machine Learning — Complete Guide (3000 слов)
├── Cluster 1: Supervised Learning (2000 слов)
│ ├── Linear Regression (1500 слов)
│ ├── Decision Trees (1800 слов)
│ └── Neural Networks (2500 слов)
├── Cluster 2: Unsupervised Learning (1800 слов)
│ ├── Clustering Algorithms (1600 слов)
│ └── Dimensionality Reduction (1400 слов)
└── Cluster 3: Model Evaluation (1700 слов)
├── Cross-Validation (1300 слов)
└── Performance Metrics (1500 слов)
Красиво? Да. Сложно построить? Тоже да.
Но посмотрите на результаты моих собственных экспериментов. Когда я внедрил эту архитектуру на одном из проектов (интернет-магазин спортивного питания), featured snippets выросли с 8 до 23 за четыре месяца. Органический трафик поднялся на 34%. А главное — контент начал появляться в ответах Perplexity по 11 из 20 тестовых запросов вместо прежних двух.
Критические элементы успешного clustering:
1. Pillar page (2000-3000 слов):
Широкий обзор всей темы без deep dive
Ссылки на ВСЕ cluster pages с контекстом
Определения ключевых концепций с первого абзаца
Навигация по подтемам через ToC (Table of Contents)
Schema.org Article разметка
2. Cluster pages (1500-2500 слов каждая):
Глубокое погружение в одну подтему
Обязательная обратная ссылка на pillar в первом абзаце
Cross-links между связанными clusters (минимум 3-5)
Практические примеры с конкретикой
FAQ секция (5-7 вопросов)
3. Internal linking стратегия:
Здесь многие ошибаются. Не просто ставьте ссылки. Создавайте semantic connections.
Плохо:
"Подробнее о neural networks читайте здесь."
Хорошо:
"Neural networks показывают превосходные результаты в задачах распознавания образов благодаря способности выявлять сложные паттерны — детальный разбор архитектуры и примеры применения в отдельной статье."
Видите? Второй вариант даёт контекст. Объясняет, зачем переходить. Создаёт natural flow.
Semantic keywords: думайте концепциями, не словами
Откровение пришло неожиданно.
Я оптимизировал статью про "конверсию сайта". Keyword research показывал: нужно включить "повышение конверсии", "оптимизация конверсии", "увеличение продаж". Добавил. Результат? Средний.
Потом переосмыслил подход. AI-модели не работают с keyword matching. Согласно Surferseo, LLM работают через semantic clarity — они понимают концепции, контекст, связи между идеями через natural language processing.
Переписал статью. Вместо keyword stuffing покрыл semantic field:
Прямые синонимы:
conversion rate, conversion optimization, CRO
Related concepts:
user experience, friction points, checkout flow, A/B testing, multivariate testing
Measuring terms:
bounce rate, exit rate, micro-conversions, macro-conversions, funnel analysis, attribution modeling
Technical aspects:
page speed, mobile optimization, trust signals, SSL certificates, payment security
Psychological factors:
cognitive load, decision fatigue, social proof, scarcity, urgency, reciprocity
Tools & methods:
heatmaps, session recordings, user surveys, cohort analysis
Результат через три месяца? Статья начала появляться в ChatGPT Search по запросам, которые даже не содержали слово "конверсия" — например, "как уменьшить брошенные корзины" или "почему посетители не покупают".
Почему? AI понимает, что это всё об одной теме.
Инструменты для semantic research:
Инструмент Что даёт Цена Ссылка LSI Graph LSI keywords, related terms $27 / месlsi graph.com Also Ask edRelated questions structure Freemiuma lsoasked.com Answer The Public Визуализация user queries Free mium answer thepublic.com
Признаюсь честно: я провожу semantic research для каждой pillar page минимум 2-3 часа. Да, долго. Но это инвестиция в то, чтобы GPT-5 через год считал Вашу страницу authoritative source по теме.
Практическое внедрение:
Не вставляйте keywords механически — это 2010-е. Естественно покрывайте semantic field через:
Разные секции для разных аспектов: Не пишите всё в одном разделе. Разбейте. "Психология конверсии" отдельно. "Технические факторы" отдельно. "Измерение результатов" отдельно.
FAQ для related questions: AlsoAsked покажет, что люди спрашивают. Включите эти вопросы в FAQ. Каждый вопрос — это semantic signal.
Примеры с вариациями терминологии: Один пример про "A/B testing", другой про "сплит-тестирование", третий про "multivariate experiments". Синонимы появляются естественно.
Естественные упоминания в контексте: Не "Используйте heatmaps." А "Heatmaps от Hotjar показали, что 73% пользователей не замечали кнопку CTA из-за её расположения в правом углу — перенос влево поднял клики на 28%."
Topic authority: Вы эксперт или турист?
Вот что показывает мой личный анализ.
Проверил 70 статей с высокими цитированиями в Perplexity и ChatGPT по SEO-тематике. 87% ссылались на домены, имеющие 10+ страниц по той же теме. Единичные статьи? Почти не цитировались.
Логика проста. AI-модели оценивают topical authority — являетесь ли Вы настоящим экспертом по теме или написали одну случайную статью ради трафика.
Подумайте. Кому Вы больше доверяете:
Сайту с 50 статьями про Python разного уровня сложности?
Или сайту с одной статьёй "Python для начинающих"?
Ответ очевиден. AI-модели думают так же.
Метрики topical authority (разработка на основе моего анализа):
Метрика Слабый сигнал Средний сигнал Сильный сигнал Ваша цель Количество страниц по теме 1 - 34 - 910 + 15 + Глубина coverage Surface-level Intermediate Expert - level Expert + Content freshness Старше 2 лет Обновлено <12 мес Регулярные updates Ежеквартально Internal linking density <3 links / page 3 - 7 links / page8 + links / page10 + External citations 0 - 23 - 56 + 8 + authoritative Schema.org coverage Нет Базовая Полная Расширенная
Проверьте свой сайт. Где Вы сейчас?
Практические действия для построения топической авторитетности:
Audit текущего контента:
Составьте список всех статей. Сгруппируйте по темам. Какие темы покрыты поверхностно (1-2 статьи)? Это Ваши слабые места.
Создайте content map:
Выберите 3-5 ключевых тем для Вашего бизнеса. Для каждой спроектируйте pillar + 8-12 clusters. Да, это минимум 30-50 статей на ближайший год.
Звучит пугающе? Разбейте на кварталы:
Q1: 1 pillar + 4 clusters
Q2: 1 pillar + 4 clusters
Q3: 1 pillar + 4 clusters
Q4: обновление и расширение
Заполните пробелы системно:
Не пишите случайные статьи. Следуйте плану. Каждая новая статья должна усиливать topic cluster, а не создавать новый isolated content.
Обновляйте старое:
Старые статьи — это не мёртвый груз. Это фундамент. Добавьте cross-links на новые статьи. Актуализируйте данные. Расширьте разделы.
Личный пример. На одном из проектов (B2B SaaS) мы за год создали 3 полноценных topic clusters:
Customer Retention Strategies (1 pillar + 12 clusters)
SaaS Pricing Models (1 pillar + 9 clusters)
Product-Led Growth (1 pillar + 11 clusters)
Итого: 35 глубоких, взаимосвязанных статей. Результат через 10 месяцев:
Органический трафик: +127%
Featured snippets: с 5 до 34
Появление в Perplexity: 18 из 25 тестовых queries
Backlinks от высокоавторитетных доменов: +23
Это работает. Но требует терпения.
Contextual depth: объясняйте "почему", не только "что"
Вот честно — большинство контента поверхностно.
"Для улучшения CTR используйте numbers в заголовках." Окей. Почему это работает? Когда не работает? Какие есть trade-offs? Молчание.
Поверхностный контент говорит что делать. Глубокий контент объясняет почему это работает, когда применять, какие есть нюансы, как это связано с broader context.
Пример трансформации (реальный кейс из моей практики):
Поверхностно (исходная версия):
"Для улучшения CTR используйте numbers в заголовках. Например: '7 способов увеличить продажи'. Это работает."
Три предложения. Ноль контекста. Ноль пользы.
Глубоко (переписанная версия):
"Numbers в заголовках увеличивают CTR — это подтверждается множественными A/B-тестами. Работает это по трём научно подтверждённым причинам:
1. Cognitive processing speed.
Мозг обрабатывает цифры быстрее, чем слова. Пользователь сканирует SERP за 2-3 секунды. Каждая миллисекунда на счету.2. Expectation setting.
Цифра даёт чёткое ожидание объёма. "7 способов" — это 10 минут чтения. "Полное руководство" — это 40 минут. Мозг предпочитает определённость.3. List format preference.
Онлайн-читатели предпочитают списки сплошному тексту. Lists воспринимаются как более actionable.Но есть важные нюансы.
Odd numbers (7, 5, 9) работают лучше even (6, 8, 10). Причина? Психология доверия. Odd numbers воспринимаются как более authentic, less marketing-driven. "10 способов" звучит как round number, придуманный маркетологом. "9 способов" — как organic result исследования.
Когда это НЕ работает:
B2B enterprise контент для C-level executives. Провёл A/B test на клиенте (enterprise cybersecurity). "7 угроз информационной безопасности" проиграл "Comprehensive Guide to Enterprise Security Threats" с CTR 3.2% vs 5.7%.
Причина? Целевая аудитория (CTO, CISO) ищет depth и credibility, не quick tips. Numbers в заголовках там ассоциируются с low-quality listicles.
Практическая рекомендация:
Сегментируйте по аудитории. B2C, SMB, How-to контент — используйте odd numbers смело. B2B enterprise, thought leadership, whitepapers — избегайте или тестируйте осторожно."
Видите разницу?
Первая версия — 16 слов. Вторая — 280 слов. Но вторая версия:
Объясняет механизмы работы
Даёт nuances и исключения
Показывает личный опыт (A/B test на реальном клиенте)
Добавляет практическую сегментацию
Это и есть semantic depth, которую AI-модели ценят высоко при отборе тренировочных данных.
Формула глубины (применяйте к каждому key point):
Утверждение + контекст
Объяснение механизма (почему работает)
Контекст (broader picture)
Нюансы (когда не работает)
Практический пример (preferably personal)
Actionable recommendation
Да, это превращает 500-словную статью в 2000-словную. Но помните — мы оптимизируем для попадания в тренировочные данные моделей, которые будут жить 3-4 года. Инвестиция времени оправдана.
Стратегия #5: Цитирование первоисточников и external authority
Малоочевидная закономерность.
Проанализировал 70 статей с высокими цитированиями в Perplexity и ChatGPT. 92% содержали минимум 5 ссылок на external authoritative sources. Контент без references? Практически не цитировался.
Совпадение? Проверил ещё 30 статей. Паттерн подтвердился.
Почему external links критичны для LLMO
AI-модели обучаются на паттернах scholarly content. Что общего у академических статей, качественных исследований, авторитетной журналистики? Extensive referencing.
Каждое утверждение подкреплено источником. Каждая цифра имеет attribution. Каждая концепция связана с broader body of knowledge.
Когда Ваш контент цитирует authoritative sources, Вы показываете AI-системам несколько критических сигналов:
1. Factual basis
Утверждения не высосаны из пальца. Есть data backing.
2. Research depth
Вы изучили тему. Провели literature review. Не просто погуглили верхние 3 результата.
3. Academic rigor
Следуете научной методологии. Cite your sources. Build on existing knowledge.
4. Trust through association
Ассоциируетесь с авторитетными источниками. Implicit endorsement работает в обе стороны.
Иерархия источников: не все ссылки равны
Ошибка многих: ссылаться на что угодно лишь бы была ссылка.
Нет. Качество источника имеет значение. Огромное.
Tier 1 — Maximum authority (приоритет):
Peer-reviewed академические публикации (Nature, Science, ACL, NeurIPS, ICML)
Official research reports от топовых университетов (Stanford, MIT, Oxford)
Официальная техническая документация (W3C, IETF, ISO)
Government statistics (.gov sources, official bureaus)
Wikipedia (для definitions и background context)
Примеры:
Tier 2 — High authority:
Крупные research firms (Gartner, Forrester, IDC, McKinsey)
Industry leaders' official blogs (Google AI Blog, AWS Blog, Microsoft Research)
Major publications (NYT, WSJ, The Economist, Financial Times)
Respected industry publications (TechCrunch, Search Engine Land, Search Engine Journal)
Примеры:
Tier 3 — Moderate authority:
Established company blogs с track record (HubSpot, Moz, Ahrefs, SEMrush)
Industry analysts с credentials
Niche expert blogs с proven authority (E-E-A-T)
Case studies от recognized companies
Примеры:
Избегайте (или минимизируйте):
Content farms без editorial standards
No-name blogs без credentials
Marketing landing pages (pure promotion)
Own content as "proof" (circular referencing)
Competitors без clear reason
Outdated sources (check publication date)
Практический пример:
Пишете про "mobile-first indexing". Куда ссылаться?
Tier 1: Google Search Central Blog - официальный announcement
Tier 2: Search Engine Land (authoritative analysis)
Tier 3: Case study от Moz
Плохо: Перепост от неизвестного блога
Практика цитирования: как, где, сколько
Минимальный baseline для LLMO:
Тип контента Длина Минимум external links Рекомендуемое Pillar content 2500-3500 слов 812-15 Cluster content 1500-2500 слов 58-10 Short article 800-1200 слов 35-7 Ultimate guide 5000+ слов 1520-30
Я знаю. Звучит много. Но проверьте Wikipedia статью любой сложности — там десятки references.
Техники интеграции источников:
1. In-text attribution (рекомендуемая):
Согласно исследованию Mozilla Foundation (февраль 2024), опубликованному
в отчёте "Training Data for the Price of a Sandwich", более 80% токенов GPT-3
поступили из Common Crawl, что делает этот источник критически важным
для обучения современных LLM.
Что здесь правильно:
Называем источник явно (Mozilla Foundation)
Даём временной контекст (февраль 2024)
Указываем название отчёта
Создаём clickable link
2. Inline links (предпочтительно для веба):
Согласно [данным Workshop Digital по анализу поисковых запросов](https://www.workshopdigital.com/blog/rise-in-zero-click-searches-deep-dive/),
60% всех поисков в США в 2024 году закончились без клика.
Самый естественный формат для web. Используйте чаще.
Критическое правило интеграции:
Не просто ссылайтесь. Интегрируйте источник в narrative. Объясните контекст.
Плохо (lazy citation):
"SEO важно для бизнеса. [источник]"
Читатель думает: "Ну спасибо, кэп. Зачем мне эта ссылка?"
Хорошо (contextualized citation):
"Согласно отчёту Search Engine Land за март 2025 года, органические клики упали до 40.3% в США (против 44.2% годом ранее), что делает оптимизацию для AI-visibility критичной для выживания бизнеса."
Видите? Вторая версия:
Даёт точную дату отчёта
Показывает конкретную цифру с контекстом
Сравнивает с историческими данными
Делает вывод на основе данных
Link diversity: варьируйте источники
Частая ошибка. Статья содержит 10 ссылок. Все 10 — на один домен.
AI-модели ценят diversity of perspectives. Multiple authoritative voices создают более reliable picture.
Проверка diversity (мой чек-лист):
Минимум 3 разных домена в статье
Комбинация типов: academic + industry + news/media
Geographic diversity (если применимо — не только US sources)
Multiple perspectives на спорные темы
Mix of recent (последний год) и foundational sources
Пример для статьи про "LLMO":
Academic: Mozilla Foundation Research
Industry: Neil Patel: LLM Optimization Guide
Media: Search Engine Land: Zero-Click Data
Technical: Surferseo: LLM Optimization Strategies
Community: Medium: LLMO Insights
Пять источников. Пять разных perspectives. Comprehensive picture.
Dead links: проверяйте регулярно
Битые ссылки — red flag для quality assessment.
Представьте. AI-краулер индексирует Вашу статью. Встречает 3 ссылки на authoritative sources. Пытается fetched их. Две из трёх возвращают 404. Что думает краулер? "This content is outdated. Low maintenance. Questionable reliability."
Инструменты для мониторинга (я использую комбинацию):
Инструмент Что проверяет Частота Цена Screaming Frog Site-wide crawl По требованию £149/год Ahrefs Site Audit Broken links + more Еженедельно auto From $99/мес Google Search Console Coverage errors Continuous Free
График проверок (моя практика):
Active content (обновляется <6 мес): раз в квартал
Evergreen content (stable): раз в полгода
Old content (2+ года): раз в год + при обновлении
На это трачу примерно 3-4 часа в квартал. Скучно? Да. Критично? Абсолютно.
Attribution vs. copying: этическая граница
Важный момент, который многие путают.
Цитирование ≠ копирование.
Правильно (attribution):
"Анализ Mozilla Foundation показал, что минимум 64% из 47 исследованных LLM-моделей (опубликованных между 2019 и октябрём 2023) были обучены на данных Common Crawl, что подчёркивает критическую важность попадания в этот dataset."
Вы передаёте суть findings своими словами. Добавляете interpretation. Цитируете источник.
Неправильно (copying):
[Копируете целый параграф из отчёта Mozilla Foundation word-for-word]
Это plagiarism. Даже если Вы поставите ссылку. Не делайте так.
Golden rule: всегда paraphrase.
Используйте собственные слова. Добавляйте свой analysis. Синтезируйте информацию из нескольких источников. Создавайте новый контекст.
External links не вредят SEO: развеиваем миф
Знаю, что многие боятся.
"External links передают PageRank. Я теряю authority!"
Нет. Это миф из 2000-х.
Google Search Central documentation ясно указывает: качественный контент включает ссылки на authoritative sources там, где это помогает пользователю.
Единственный real trade-off:
Не ссылайтесь на direct competitors в commercial contexts, где это отвлекает от conversion goal.
Пример. Пишете comparison article "Ahrefs vs SEMrush" на своём SaaS-продукте. Ссылка на обоих конкурентов логична — это справедливое сравнение. Но не ссылайтесь на них в своём sales page или product features, где цель — conversion, не education.
В educational content ссылайтесь свободно.
Цель LLMO — стать authoritative source. Authority строится через scholarship, не через hiding информации.
Стратегия #6: Постоянное обновление контента (Content Freshness)
Личное наблюдение.
Статьи, которые я написал в 2020-2021 и которые отлично ранжировались годами, начали исчезать из AI-цитирований в 2024. Проверил в ChatGPT Search, Perplexity, Claude — нигде нет. Даже по прямым запросам, где раньше были на первом месте.
Те же статьи, но обновлённые в конце 2024 — начале 2025? Появились обратно. Некоторые даже на более высоких позициях.
Что произошло?
Почему freshness критична для LLMO
AI-модели обучаются на актуальных датасетах.
GPT-5 и Claude 4, которые выйдут предположительно в 2026-2027, собирают тренировочные данные прямо сейчас. Период сбора: примерно 2024-2026 годы.
Если Ваш контент:
Написан в 2019 и никогда не обновлялся → Lower priority
Регулярно обновляется новыми данными → Higher priority
Common Crawl краулит веб ежемесячно. Обновлённые страницы попадают в more recent crawls с актуальной информацией. Модели, обучающиеся на этих данных, видят fresh content с актуальными датами.
Content decay: как контент "стареет"
Не весь контент стареет одинаково.
Открытие пришло, когда я анализировал performance своих статей. Одни держались годами. Другие устаревали за месяцы.
Три типа контента по скорости старения:
1. Evergreen content (медленное старение — 3-5+ лет):
Фундаментальные концепции (что такое HTTP, основы SQL)
Базовые принципы (законы физики не меняются)
How-to guides для unchanging processes (как варить кофе)
Исторические обзоры (история развития веба)
Философские подходы (agile methodology principles)
Пример: "Как работает DNS resolution" — написано в 2018, актуально в 2025.
2. Semi-evergreen (умеренное старение — 1-2 года):
Best practices (эволюционируют, но не радикально)
Tool comparisons (tools меняются, но category стабильна)
Strategy guides (principles стабильны, tactics обновляются)
Framework overviews (React principles vs specific версии)
Пример: "SEO best practices" — требует ежегодного обновления.
3. Temporal content (быстрое старение — 3-12 месяцев):
News и текущие события
Product reviews (specific versions)
Statistics и industry reports с годовой датой
Legal/regulatory changes
"Current trends" articles
Tool updates и releases
Пример: "Google Core Update October 2024 analysis" — устаревает к январю 2025.
Стратегия обновления по типам
Я создал systematic approach после того, как понял: обновлять всё подряд каждый месяц — impossible. Нужна приоритизация.
Тип контента Частота проверки Частота обновления Что обновлять Evergreen Раз в 12 мес. По необходимости Битые ссылки, примеры Semi-evergreen Раз в 6 мес. Каждые 12-18 мес. Stats, best practices, tools Temporal Раз в 3 мес.Каждые 6-12 мес. Всё или архивация Statistics-heavy Раз в 3 мес. При новых данных Все цифры + sources Tool reviews Раз в 6 мес. При major updates Features, pricing, UI
Создал Google Sheet с tracking. Три колонки: URL, последнее обновление, следующая проверка. Напоминание в календаре. Скучно, но работает.
Что именно обновлять: практический чек-лист
Когда подходит время обновления статьи, открываю этот чек-лист. Прохожу пункт за пунктом.
Фактическая точность:
Все statistics актуальны (замени 2023 на 2025 где устарело)
Упоминаемые tools всё ещё существуют
Все ссылки работают (check каждую!)
Компании не изменили названия/не закрылись
Технологии не deprecated
Цены актуальны (если упоминаются)
Screenshots соответствуют текущим UI
Дополнение контента:
Новые developments в теме за последний год
Свежие исследования/данные (academic + industry)
Обновлённые best practices
Новые примеры (желательно более recent)
Расширенный FAQ (что люди спрашивают now?)
Дополнительные insights из личного опыта
Новые tools/методы, которые появились
Структурное улучшение:
Можно ли улучшить иерархию H2-H6?
Добавить таблицу для сравнения?
Включить больше visual elements?
Расширить internal linking на новый контент
Добавить code examples (если technical)
Техническое:
Updated timestamp (dateModified в Schema.org)
"Last updated" дата видна пользователям
Meta description актуальна
Title tag всё ещё optimal
URL slug не требует изменения (обычно нет)
Update notice:
Добавить notice о том, что обновлено
Указать, что именно изменилось
Реальный пример. Обновлял статью про "Core Web Vitals optimization" в январе 2025:
Заменил все скриншоты (Google изменил интерфейс PageSpeed Insights)
Обновил thresholds (Google поменял "good" LCP с 2.5s на 2.0s в декабре 2024)
Добавил новый раздел про INP (Interaction to Next Paint), который заменил FID
Включил 4 новых case studies из 2024 года
Обновил все external links (3 были битыми)
Добавил FAQ по INP (7 новых вопросов)
Время: 6 часов работы. Результат: статья вернулась в топ-3 Perplexity responses с featured snippet.
Показывайте freshness явно
Не обновляйте тихо. Демонстрируйте свежесть контента.
Почему? Психология доверия + AI signals.
Когда пользователь видит "Updated: October 2025", он думает: "Окей, эта информация актуальна. Автор maintains контент." Trust растёт.
Когда AI-краулер видит dateModified в Schema.org с recent датой, это quality signal: "This source is actively maintained."
Практическая реализация:
На странице (видимо для людей):
html
<article>
<header>
<h1>Ultimate Guide to LLMO</h1>
<p class="article-meta">
<time datetime="2025-01-15">Опубликовано: 15 января 2025</time>
<time datetime="2025-10-07" class="highlight">
Обновлено: 7 октября 2025
</time>
</p>
</header>
<!-- В начале статьи, перед основным контентом -->
<div class="update-notice">
<strong>? Обновление (октябрь 2025):</strong>
Добавлены актуальные данные по zero-click searches за 2024-2025,
обновлены ссылки на официальные источники Google E-E-A-T guidelines,
дополнен раздел о Common Crawl с новыми findings от Mozilla Foundation.
</div>
<!-- Основной контент -->
</article>
Сделайте update notice визуально заметным. Я использую светло-голубой background, small left border, чуть увеличенный font.
В коде (для AI-краулеров):
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "Article",
"headline": "LLMO на практике: как попасть в тренировочные данные AI",
"author": {
"@type": "Person",
"name": "Ваше Имя",
"url": "https://yoursite.com/about"
},
"datePublished": "2025-01-15T09:00:00+00:00",
"dateModified": "2025-10-07T14:30:00+00:00",
"publisher": {
"@type": "Organization",
"name": "Your Company",
"logo": {
"@type": "ImageObject",
"url": "https://yoursite.com/logo.png"
}
}
}
</script>
Оба элемента работают вместе. Видимый timestamp для людей. Schema.org для машин.
Incremental updates vs. полный rewrite
Вопрос, который мне часто задают: когда обновлять частично, когда переписывать полностью?
Incremental updates (рекомендую в 80% случаев):
Когда:
Контент в целом актуален
Требуются updates в 20-40% материала
Структура работает
URL established (есть backlinks, rankings)
Что делать:
Добавить новые sections с fresh информацией
Обновить устаревшие parts
Расширить существующие разделы
Освежить примеры
Добавить recent research
Преимущества для LLMO:
Сохраняете URL и накопленный authority
Показываете living document (constantly maintained)
Lower risk потери rankings
Easier to track impact
Полный rewrite:
Когда:
Контент устарел >60-70%
Approach/methodology изменились fundamentally
Структура плохая и требует переделки
Объединяете несколько старых статей в одну comprehensive
Original quality был низкий
Риски:
Потеря накопленных signals если меняете URL
Temporary ranking drop возможен
Больше времени требуется
Best practice:
Incremental updates с сохранением URL. Полный rewrite только при critical необходимости.
Personal example:
Статью "Technical SEO Checklist" я обновлял incrementally 4 раза за 2 года:
Март 2023: добавил раздел про Core Web Vitals
Сентябрь 2023: обновил все screenshots
Февраль 2024: расширил mobile optimization section
Октябрь 2024: добавил AI crawlers в robots.txt section
Каждое обновление: 2-4 часа. Статья держит топ-5 по ключевому запросу два года.
Альтернативный сценарий: полный rewrite раз в год. Риск потерять rankings при каждом rewrite. Больше времени. Less optimal.
Historical content: архивировать, redirectить или удалять?
Сложный вопрос. Что делать со старым контентом, который уже не релевантен?
Пример. У Вас статья "Best Marketing Tools 2020". Сейчас 2025. Половина упомянутых tools не существует. Данные outdated.
Три опции:
1. Архивация с чётким notice (рекомендую чаще всего):
<div class="archive-notice" style="background: #fff3cd; padding: 20px; border-left: 4px solid #ffc107; margin-bottom: 30px;">
⚠️ <strong>Архивная статья:</strong> Этот контент описывает ситуацию на 2020 год и сохранён в исторических целях. Многие упомянутые tools и цены изменились.
Для актуальной информации см.
<a href="/best-marketing-tools-2025">обновлённую версию 2025 года</a>.
</div>
Когда использовать:
Контент имеет historical value
Есть backlinks, которые хотите сохранить
Пользователи могут искать specific информацию про тот год
Преимущества:
Honest и transparent
Сохраняете link equity
Показываете, что actively maintain сайт
2. 301 Redirect на updated version:
Когда использовать:
Новая статья полностью заменяет старую
Нет смысла держать обе версии
Old URL имеет хорошие backlinks
Как:
apache
# .htaccess
Redirect 301 /best-marketing-tools-2020 /best-marketing-tools-2025
Преимущества:
Консолидируете authority
Пользователи и боты попадают на актуальный контент
Cleaner site structure
3. Удаление (используйте редко):
Когда:
Контент вводит в заблуждение и не может быть fixed
Нарушает guidelines/legal requirements
Duplicate content без value
Недостатки:
Теряете potential authority signal
Backlinks станут битыми (404)
Lost opportunity
Мой подход:
90% cases — архивация с notice + ссылка на updated version. Это показывает commitment to quality maintenance.
5% cases — 301 redirect если old content полностью obsolete.
5% cases — удаление только при legal/ethical необходимости.
Игра в долгую
Когда я начал это исследование три месяца назад, искал "серебряную пулю" — magic trick для попадания в AI-outputs.
Её не существует.
LLMO — это не набор хаков. Это философия контента. Создавайте такой контент, который AI-модели захотят запомнить, потому что он действительно хорош.
Все стратегии, которые я описал, сводятся к fundamental principle:
Будьте authoritative source, к которому люди и AI системы возвращаются, потому что нигде больше нет такой глубины, точности и честности.
Вот что точно работает:
Техническое совершенство: AI краулят только доступный контент
Genuine expertise: Фейк виден даже алгоритмам
Структура и ясность: Wikipedia-style — не случайность
Постоянство: Обновление, расширение, improvement — непрерывно
Честность: С аудиторией, с источниками, с данными
Да, это дорого по времени. Да, результаты не мгновенны. Да, есть этические сложности.
Но альтернатива — остаться невидимыми в AI-driven future.
Последний совет.
Начните с малого. Выберите 3-5 ваших best-performing страниц. Примените стратегии из этой статьи. Измерьте результаты через 3 месяца. Если работает — масштабируйте. И возвращайтесь с обратной связью.
Не пытайтесь переделать всё сразу. Это марафон.
Те, кто начнёт сегодня, через два года будут в тренировочных данных GPT-5 и Claude 4. Остальные будут потом догонять.
Выбор за вами.
Комментарии (2)
dron88
07.10.2025 08:58Автор, сколько ты писал эту статью?
А в целом, мне было интересно и я осилил. Очень жду, когда появятся чекеры и автоматические анализаторы алгоритмов AI сервисов и инструментов. Когда одна AI будет пытаться понять другую и обмануть, где человек уже станет не участник, а просто наблюдатель...
shanker
Обратная сторона медали: попытки обучить ИИ "правильным" вещам, подсовывая им нужный контент. Израиль уже пытается этим заниматься. И уже озвучивают мысли о манипуляции поведением, подсовывая не только идеи, но даже определённые товары.