Всем привет! Меня зовут Артем Первухин, я — продакшн-директор performance-агентства Кинетика. В компании мы уже более 15 лет помогаем бизнесам успешно продвигаться в сети — причем разным направлениям. Но сегодня хочу копнуть в медицинскую нишу. 

По заголовку вы уже поняли, в чем суть этого материала :) Про факторы EEAT написаны десятки статей. Если у вас медицинский сайт, вы точно их читали, а может даже строили на этом SEO-стратегию. 

Я же решил порушить скрепы и рассказать, что EEAT — играют вовсе не ключевую роль в продвижении ресурса о здоровье. Есть более важные вещи, о которых часто забывают. 

Слышали понятие комплексная терапия? Это когда лекарства работают только совместно. Можно выпить сколько угодно кальция, но он не усвоится без витамина D.

Так же и с EEAT — пока на сайте есть типовые технические ошибки, он будет плохо ранжироваться, даже если загрузить 20 сертификатов. 

В статье расскажу, с чем «принимать» EEAT, чтобы получить максимальную пользу для сайта. И покажу, как это работает на наших кейсах.

Прокачали EEAT, но не получили «вау-эффекта»? Рассказываем почему

E-A-T — это факторы, по которым Google оценивает ресурсы тематики Your Money — Your Life. То есть все, которые касаются жизни, здоровья и благополучия человека: сайты о медицине, деньгах, законах, e-commerce. 

Впервые аббревиатуру использовали в 2014 году в инструкции Google по проверке сайтов. В ней подробно расписаны факторы, которые влияют на ранжирование. 

В 2022 году к аббревиатуре добавили еще одну букву E-E-A-T — опыт (Experience), экспертность (Expertise), авторитетность (Authoritativeness) и достоверность (Trust).

Когда Google опубликовал эти критерии, вокруг них появился культ. Произошло это потому, что правила оптимизации ресурсов всегда были размытые: без четких критериев и чек-листов. И вдруг появились EEAT, про которые в руководстве Google написан целый раздел.

Такой сгусток информации не мог остаться без внимания. И все побежали писать статьи про EEAT и строить на них стратегию продвижения. Но это не дает эффекта — и сейчас расскажу почему.

Работа факторов по большей части построена на оценке асессоров. В теории должно быть так: асессор Google заходит на сайт медицинской клиники и чекает, соответствует ли он критериям EEAT:

  • есть ли сертификаты и лицензии;

  • подтверждены ли опыт и квалификация врачей;

  • есть ли отзывы пациентов; 

  • не противоречит ли контент общепринятому мнению;

  • ссылаются ли на него другие площадки. 

Сайты, где соблюдаются все пункты, получают более высокую оценку и продвигаются в поиске. Логично? Логично. Но!

Асессоров в рунете и раньше было мало. Кто и как теперь проверяет сайты, после расторжения договора сотрудничества с резидентами из России, одному Брину известно. 

При этом я не призываю полностью игнорировать EEAT. Частично они вшиты в алгоритм. Но это даёт лишь общее понимание, что поисковый робот будет искать конкретные пунктики на страницах той же медицинской тематики, и огорчится, если не найдет.

К EEAT надо относиться, как одной из десятков рекомендаций поисковых систем. Вот что в руководстве Google сказано о качестве сайта:

  • делайте экспертный контент;

  • работайте над репутацией ресурса;

  • стройте качественный ссылочный профиль.

А вот несколько характеристик некачественной страницы:

  • шокирующий заголовок;

  • навязчивая реклама;

  • отрицательная репутация;

  • недостоверная информация.

Теперь, внимание, вопрос. Чем это отличается от стандартных рекомендаций любого поисковика по работе над качеством ресурса? Правильно, ничем.

Получается, EEAT — это общие правила, но далеко не залог успеха.

А теперь покажу на примерах, что надо оптимизировать на сайтах, прежде чем приниматься за EEAT. 

Бот видит одно, пользователи — другое. Разбираем проблему

Мы с командой всегда начинаем проекты с технических настроек. Чтобы сайт продвинулся в поиске, его должны хорошо видеть роботы. Это база, без которой все остальные улучшения бессмысленны. 

Как это работает, покажем на примере нашего клиента — аптечной сети известного бренда. Когда компания пришла к нам на продвижение, у нее уже был хороший трафик — больше 2 тысяч посещений в день. Но хотелось еще круче. 

Увидели, что большинство пользователей приходили по брендовым запросам. Если в поиске забивали название сети или просто искали аптеку, сайт выходил одним из первых. А если гуглили капли для глаз — в выдачу не попадал. Здесь и терялись потенциальные лиды. 

При этом контент сайта уже был оптимизирован: размещены и экспертные статьи от врачей, и сертификаты. Но в Google — ничего, кроме брендовых запросов.

Сняли позиции и заметили, что по большинству запросов поисковые системы определяют как релевантную только главную страницу. В отчетах поисковиков увидели массу непроиндексированных страниц.

Большинство страниц были помечены как «неудобные для мобильных» и открывались как HTML-шаблон. То есть вот как сайт выглядел на самом деле. 

А вот как его видел робот.

Бот считывал только болванку с хедером и футером, которая на 99% похожа на любую другую страницу. А раз так — страница отправлялась в топку. 

Это головная боль всех сайтов с JavaScript. Роботы плохо умеют их сканировать и постоянно помечают устаревшими или не адаптированными для мобильных. Поисковики заверяют, что с 2015 года поддерживают индексацию SPA сайтов и страниц с частичным использованием JavaScript. Но в реальности таким сайтам просто не достается трафик. 

«Лечится» это настройкой SSR. Сняли обязанности рендера с ботов и отдали эту работу серверу. Это сильно снизило вероятность ошибки во время рендеринга, так как все элементы JavaScript стали загружаться в исходном HTML. Поисковый робот смог увидеть страницу целиком и ранжировать ее. 

Сразу после настройки число проиндексированных страниц выросло в 4 раза.

Сайт стал показываться не только по брендовым запросам. 

С отрисовкой страниц разобрались. Теперь нужно сделать так, чтобы они попали в индекс.

Поисковик не подозревает о существовании страниц. Выводим их из тени

Как люди ищут лекарства? Чаще всего целенаправленно. В поисковике забивают конкретное название, дозировку и форму выпуска. Поэтому для аптеки важно, чтобы в индексе был полный список товаров. 

Такую проблему мы решили для еще одной аптеки. Компания обратилась к нам из-за низкого трафика. Причину мы диагностировали сразу — примерно 7000 товаров были не в индексе. Поисковая система просто не знала об их существовании.

Надо было сделать так, чтобы робот зашел и проиндексировал эти страницы. 

А как он вообще понимает, где искать? Например, так: попадает на одну из страниц сайта и считывает все ссылки, которые там находятся. Бот добавляет их в очередь на сканирование и потом обрабатывает. Чем больше ссылок, тем заметнее страницы для поисковиков.

У нашего клиента в карточках уже были блоки «С этим товаром покупают» и «Вы смотрели» со ссылками на другие товары. Почему же этого не хватило? Причин две:

  • блоки выводились динамически, то есть при помощи JavaScript;. 

  • данные формировались на основе товаров, которые пользователь смотрел раньше. Но бот заходит с чистыми cookie, а значит в этот блок товары для него не подтягиваются.

Мы поменяли способ вывода данных и улучшили перелинковку. Добавили в карточки ссылки на такой же товар в другой форме, с другим объемом и вкусом. И прикрутили блок аналогов.

Блок «С этим товаром покупают» добавили в исходный HTML.

В результате через неделю количество ежедневно сканируемых страниц выросло в 2,5 раза.

А вместе с новыми проиндексированными страницами увеличился и трафик.

Результат неплохой, но важно не просто поднять трафик, но и удерживать его долгое время. Для этого надо следить, насколько стабильно работает сайт и какие ответы дает индексирующим ботам. 

Сайт теряет позиции в выдаче. Решаем задачку со звездочкой

Продолжим на примере той же аптеки. Через некоторое время после настройки перелинковки мы заметили, что выросло число прямых заходов с высоким показателем отказов. 

Видимых причин для этого не было. Сайт быстро грузился, корректно отображался на мобильных и не выдавал ошибки. Чтобы исключить поведенческую накрутку, поставили облачную защиту. 

Но через три недели после установки сайт стал терять позиции. Сначала опустился в пределах топ-3 по высокочастотным запросам, через 7 дней — в топ-5, а еще через неделю совсем выпал с первой страницы. И так в обеих поисковых системах.

Никаких сигналов о проблемах от поисковиков не было. При проверке страниц роботы получали к ним доступ и отображали нормально. Статистика обходов в GSC и вебмастере тоже не изменилась. То есть внешне все было нормально. 

Обратились в техподдержку «Яндекса», но тоже мимо. Нам ответили, что сайт работает нормально и ранжируется на свою релевантность. 

Поняли, что перед нами задачка со звездочкой ;) 

В итоге помог анализ серверных логов. По ним увидели, что в какой-то момент боты перестали получать контент страниц при GET запросе, хотя сервер отвечал, что запрос выполнен успешно. 

Покопались и выяснили, что проблема в редиректах. Они не отображались ни в одной статистике. Несмотря на white list для поисковых систем, при попытке посещения сайта через http ботов редиректило на хост проверки. Поисковику это не нравилось.

Решается проблема просто — надо скорректировать обработку обращений ботов, чтобы доступ к сайту был напрямую. Как только сделали это, сайт восстановил позиции в поисковиках.

Только когда все это сделано, можно переходить к EEAT. Напоследок еще один кейс, в котором мы прокачивали экспертность.

Трафик не приносит продажи. Превращаем посетителей сайта в лидов

Пройдем по пути пациента. Куда обратится человек, которому нужен врач? Правильно, к знакомым. Если посоветуют проверенного, пойдет к нему. Ценник не играет роли, главное — хороший специалист.

Если не найдет через знакомых, отправится в интернет. Будет читать статьи, изучать форумы, смотреть ролики на YouTube и в Дзене. Здесь и происходит лидген в клинику. 

Поэтому важно обеспечить максимальное присутствие врачей под брендом медицинского центра на всех площадках. Информационные статьи, ролики, комментарии по ТВ, личные блоги врачей, офлайн реклама. Ничего не напоминает? Правильно — критерий экспертности в EEAT.

Присутствие клиники в информационном поле формирует кредит доверия у потенциального пациента. Такие лиды уже максимально разогреты и несут деньги сами, им не нужно ничего продавать.

И здесь всплывает главный затык — на экспертный контент нужно много времени и ресурсов. Мало написать статьи, их надо грамотно оформить и разместить, чтобы превратить читателей в лидов. 

Такой кейс мы решили для стоматологии. 66% трафика приходилось на информационные статьи типа «Какие протезы ставить». Люди получали полезную информацию, но не переходили на страницы услуг. 

Что же было не так? Все просто — в тексте не было ни одной ссылки на услуги. Пользователи не знали, где искать «помощь», и возвращались в поисковик. Там они делали новый запрос, уже по конкретной услуге, и скорее всего попадали на сайты других клиник.

Получается, наш клиент прогревал потенциальных лидов и отпускал к конкурентам. Обидно? Обидно. 

Чтобы помочь, сначала дополнили список статей. По каждой теме создали семантические коконы, чтобы охватить все возможные запросы по конкретной теме. После разместили в статьях конверсионные блоки — таблицы с ценами, ссылки на запись и скидки за подписку на рассылку, анкорные ссылки на услуги.

В результате увеличилось количество лидов, которые приходят с информационных статей. 

Важный момент — чтобы поисковик лучше ранжировал сайт, ссылки в текст нужно вставлять грамотно. Вот несколько правил хорошего анкора: 

  • содержит ключевые слова;

  • естественно вписан в предложение;

  • из текста понятно, куда ведет ссылка.


Надеюсь, этот материал для вас был полезен. А если хотите больше опыта и наработок из сферы digital — подписывайтесь на мой ТГ-канал ;)

Комментарии (0)