24 мая 2024 года произошла утечка определенных алгоритмов ранжирования Google, что представляет собой значительное преимущество для всех, стремящихся увеличить поисковый трафик из Google в различных странах. Этот материал окажется ценным для маркетологов, бизнес-лидеров и SEO-экспертов.

Про авторитетность сайта

Не смотря на предыдущие заявления Google о том, что параметр "Авторитетность сайта" не используется, на самом деле он применяется в их алгоритмах. Это подтверждает существование такого показателя, как траст домена, который, по моим наблюдениям, играет ключевую роль в успехе SEO-стратегий в течение последних 3-4 лет.

Про поведенческие факторы

Google активно интегрирует поведенческие факторы в свои механизмы ранжирования. Из анализа документации становится очевидным, что Google анализирует действия пользователей не только в поиске, но и в других своих сервисах, таких как Google Chrome, Google Карты, YouTube и прочих. Эти данные имеют важное значение для определения ранжирования сайтов.

Некоторые ключевые поведенческие факторы, влияющие на ранжирование, включают:

  • CTR (коэффициент кликабельности) вашего сайта в поиске. Низкий CTR может отрицательно сказаться на ранжировании.

  • Продолжительность взаимодействия с контентом сайта после клика (длинные клики). Время пребывания на сайте может различаться в зависимости от конкретной ниши, подчеркивая значение качества контента.

  • Негативным фактором является быстрое возвращение пользователя обратно в поиск после посещения вашего сайта, что может привести к понижению позиций в поисковой выдаче.

  • Влияние кликов из поиска на ранжирование может варьироваться; некоторые клики могут иметь большее значение, чем другие.

  • В документации также упоминается специальный алгоритм защиты от клик-спама, который разделяет пользователей на доверенных, с активной историей в Google Chrome, и на недоверенных, у которых такой истории нет. Это делает сложнее манипуляции с поведенческими факторами.

Отдельное внимание в документации заслуживает алгоритм NevaBoost, который, судя по всему, играет значительную роль в определении ранжирования, предоставляя новые подходы к оценке пользовательского опыта и взаимодействия.

Про ссылки

Документ содержит обширную информацию о роли ссылок в ранжировании сайтов, подчеркивая их значимость как стабильный и эффективный сигнал для поисковых систем. Вот ключевые выводы из этой информации:

  • Ссылки продолжают оставаться критически важным элементом для ранжирования сайтов, и данные указывают на то, что их роль не уменьшается. Это означает, что инвестиции в качественное ссылочное окружение остаются актуальными.

  • Качество ссылок оценивается на основе доверия к главной странице сайта-донора. Следовательно, нет смысла наращивать большое количество низкокачественных ссылок с сайтов сомнительного содержания.

  • Эффективность ссылки также зависит от кликов и трафика генерируемого сайтом-донором, что делает бесполезными дешевые покупки ссылок с неактивных ресурсов.

  • Google активно борется с ссылочным спамом, классифицируя анкоры на спамные и неспамные. Сайты с высоким процентом спамных анкоров в анкор листе могут подвергнуться санкциям, хотя умеренное количество спамных ссылок еще допускается.

  • Поисковая система отслеживает скорость нарастания ссылочной массы и может наказать за слишком быстрое и массовое появление новых ссылок.

  • Исключение сделано для новых сайтов, которые защищены от негативного воздействия большого числа первоначальных ссылок, предполагая, что это может быть результатом активных PR-компаний.

  • Ссылки с авторитетных СМИ по умолчанию считаются качественными.

  • Для сайтов с высоким уровнем доверия даже спамные анкоры могут трактоваться как не спамные, что указывает на определенный дисбаланс в восприятии авторитетности ресурсов.

Таким образом, стратегия построения ссылок остается важной частью SEO, требующей внимания к качеству и источнику ссылок, а также к модерации их прироста.

Про контент

Метатеги, включая заголовки и описания страниц, сохраняют свою значимость и не должны упускаться из виду. Согласно документу, Google применяет продвинутые технологии обработки естественного языка (NLP) для анализа тем и подтем текста, а также для оценки полноты покрытия статьей всех необходимых аспектов поискового запроса.

Поисковик также способен распознавать оригинальный контент в статье, включая уникальные мысли и мнения автора, отличая их от простого переписывания уже существующих текстов. К тому же, Google отслеживает время последнего обновления страницы и может определить, были ли внесены значимые изменения в контент или же была произведена лишь поверхностная корректировка даты обновления.

В алгоритме Google множество факторов ранжирования, направленных на оценку качества контента, подчеркивающих важность его актуальности и уникальности для достижения высоких позиций в поисковой выдаче.

Как только получится более детально изучить документ, я обязательно поделюсь другими важными аспектами, которые Google учитывает при ранжировании контента.

Если будут вопросы, то я, Иван Жданович, жду ваших вопросов здесь в комментариях и на моем проекте Seo House.

Комментарии (0)