Времена, когда обновления поисковых алгоритмов Google выкатывались крупными кластерами и носили любовно подобранные зоологические имена, остались позади. Осенью один из представителей компании небрежно заметил, что сейчас алгоритмы корректируются по несколько раз на дню и широкую публику оповещают только о незначительной части этих изменений. Этого стоило ожидать — по мере того, как искусственный интеллект набирает силу, развитие системы ранжирования и ускоряется, и становится менее дискретным.



Но для рядового владельца сайта отделять зерна от плевел с таким подходом становится сложнее. Чтобы чувствовать себя увереннее, я решил провести краткую ревизию нововведений и укрепляющихся тенденций, которые будут влиять на поисковую оптимизацию в 2018 году, а также рекомендаций, которых имеет смысл придерживаться в их контексте. Под катом вы найдете пять основных трендов.

Быстро и надолго


О важности быстрой загрузки наперебой пишут UX-руководства, но, как выясняется, она имеет значение не только для нетерпеливых пользователей. Буквально на днях на блоге Google появилась информация, что они намерены принимать данный параметр в расчет начиная с июля этого года. Официальное заявление успокаивает пользователей, заверяя, что репрессии затронут только самых нерадивых, но у сообщества есть подозрения, что требования будут весьма жесткими. Так, если средний посетитель, согласно статистике, уйдет с подвисшей страницы на шестой секунде, для Google, по словам одного из представителей, оптимальная скорость загрузки — две-три секунды. Проверить, как у вашего сайта обстоят дела на этом фронте, официальные источники рекомендуют с помощью таких инструментов, как Chrome User Experience Report, Lighthouse и PageSpeed Insights. Многие вебмастеры делают выбор в пользу AMP, которое существенно ускоряет дело, но, прежде чем следовать их примеру, стоит обдумать и негативные стороны такого решения.

Другой временной показатель, на который, по официальному заявлению Ника Фроста в сентябре, обращает пристальное внимание RankBrain — длительность сессии на сайте. Закономерность здесь прозрачна: чем дольше пользователь остается на сайте, тем более релевантна его запросу представленная там информация и тем выше сайт следует размещать в результатах поиска. Согласно статистике SearchMetrics, средняя продолжительность сессии для страниц из первой десятки в выдаче — три минуты десять секунд. Пожалуй, при таких показателях неудивительно, что место в поисковой выдаче коррелирует также и с объемом текста: наилучших результатов добиваются те страницы, которые содержат более 2000 слов.

Запросы «с голоса»


Сейчас около 40% пользователей ежедневно общаются с Google через динамики телефонов: распознавание речи дошло до такого уровня точности, что действительно экономит время и упрощает дело и мало-помалу становится полноценной альтернативой клавиатуры. Эксперты предрекают, что в ближайшие три года число голосовых и печатных запросов может сравняться — соответственно, начинать перестраиваться можно уже сейчас. Есть, впрочем, и хорошие новости: перестройка здесь пока что требуется не такая уж радикальная, достаточно, чтобы ключевые запросы укладывались в каноны живой разговорной речи. Если зачитывая их вслух, вы не чувствуете себя роботом-эпилептиком («фильмы hd 1080 качество скачать бесплатно торрент») — скорее всего, все не так уж плохо.



Пример расширенного отрывка

То, что при таком раскладе будут расти в популярности запросы, сформулированные как вопрос («что такое транзакция», «как сделать скриншот»), само собой разумеется; естественно также, что выдача по ним будет содержать Featured Snippets (особым образом оформленные расширенные описания), которые робот будет зачитывать в первую очередь. Как следствие, ценность этого микроформата повышается еще сильнее. Точной инструкции, как попасть в круг счастливцев, отобранных Google для расширенных описаний, нет, но, по мнению специалистов, шансы повышают следующие характеристики:

  • четко структутированный текст с выраженными смысловыми блоками;
  • ёмкость, информационная насыщенность контента;
  • прямое вхождение вопросительного запроса.

Персонализация выдачи


Курс на адаптацию выдачи под интересы конкретного пользователя можно считать константой в развитии поисковых сервисов, и Google здесь не исключение. В своем стремлении угадать, что именно хотел увидеть человек, вводя запрос, компания собирает, бережно хранит и скармливает RankingBrain любую информацию о нем и его действиях — что указано в его профиле, что он искал раньше, на каких страницах задерживался, с какого девайса осуществляет поиск. Основная цель обработки всей этой мешанины данных — выявить намерение пользователя, поместить его в контекст установленных привычек и предпочтений и отобрать наиболее соответствующие этой картинке результаты из выдачи.

Достигается все перечисленное за счет углубленного семантического анализа контента страницы. Это значит, что простые времена, когда достаточно было добавить пару-тройку прямых вхождений КЗ и отрегулировать уровень тошноты, отходят в прошлое. Сейчас RankingBrain разбирает весь текст, чтобы убедиться по лексическому составу, что источник действительно знает о чем говорит — то есть что ключи не стоят особняком, а окружены контекстом из слов, которые алгоритм ассоциирует с соответствующей тематикой.

Помимо релевантности контента алгоритм проверяет, подходит ли то, что предлагает сайт под базовое намерение пользователя — узнать, купить, скачать, рассчитать. В общем и целом, это играет владельцам на руку: страницам, которые дают посетителям разные типы ценности (например, сайту для фанатов скалолазнья и интернет-магазину снаряжения) можно не беспокоиться о том, что они будут составлять друг другу конкуренцию за место в выдаче. По идее, робот должен разводить их по разным категориям самостоятельно, но для верности можно сделать упор на ключи, называющие целевое действие посетителя.

Наконец, скрупулезное изучение бэкграунда вкупе с растущим мобильным трафиком приводит к тому, что называют гиперлокализацией — формированию выдачи с сильной опорой на геолокацию пользователя. Соответсвенно, компании, сервисы которых имеют хоть какую-то географическую привязку, не прогадают, если начнут делать акцент на нее в семантическом ядре.

Мобильные версии в приоритете


Разговоры о том, что Google будет уделять больше внимания мобильным версиям, ходили еще в 2016 году, но, судя по заявленным срокам, в скором времени они наконец станут реальностью. Здесь нужно внести ясность: состояние мобильных сайтов не просто будет учитываться при оценке — оно займет место определяющего параметра, даже если пользователь производит поиск с компьютера. Мобильная версия сайта отныне рассматривается как основная.

Так что же делать? Прежде всего, конечно, должным образом адаптировать сайт для телефонов. Google подчеркивает, что лучше уж вообще не иметь никакой мобильной версии (в этом случае робот спокойно перейдет к анализу десктопной — на нет и суда нет), чем сделать ее как придется. Помимо технических характеристик, роль в ранжировании будет играть также соответствие страницы принципам UX и, в первую очередь, вменяемся разметка. Кроме того, эксперты советуют проследить, чтобы контент на десктопной и мобильной версиях совпадал — от тщательно оптимизированных текстов будет мало толку, если они обрезаны, чтобы сэкономить место на маленьком экране.

Ссылочная масса: от количества к качеству


Биржи ссылок, агрегаторы, массовая закупка — это целая эпоха в SEO, но в 2018 году она, вероятно, после длительного затухания наконец придет к финалу. Гэри Иллис пролил свет на позицию Google относительно ссылочного вопроса в сентябре прошлого года в таком вот непринужденном высказывании:

«Короче, если вы публикуете контент высокого качества и его активно цитируют в Интернете — я сейчас не только про ссылки, но и про упоминания в соцсетях или просто обсуждения бренда и всякую такую хрень — то у вас все здорово».

Иными словами, дело не в том, что ссылочная масса потеряла вес как фактор ранжирования (по словам официальных представителей, она остается ведущим параметром наравне с контентом) — просто упоминания без ссылок постепенно выходят на сопоставимый уровень значимости. Те же алгоритмы, которые Google использует для семантического анализа контента на релевантность, позволяют ему отслеживать, говорят ли о вашей компании на других источниках и если да, то в каком ключе. Соответственно, плохую репутацию в Сети сложнее будет уравновесить большим количеством «голых» ссылок и, напротив, компании, которые обсуждают с энтузиазмом, особенно на авторитетных площадках, могут заработать немало очков, даже если никто не указывает ссылку на официальный сайт. Таким образом SEO здесь начинает смыкаться со старым добрым пиаром. Рекомендации здесь, по сути, сводятся к тому, чтобы отслеживать упоминания и стараться сделать так, чтобы о вас говорили больше хорошего.

К слову, обсуждения стоит стимулировать не только на сторонних ресурсах, но и на своем собственном сайте, хотя многие и считают поле для комментариев пережитком прошлого. Оказывается, Google любит их даже больше, чем активность в соцсетях.

Итак, в целом в 2018 году нас, казалось бы, не ждет ничего шокирующего — хороший контент по-прежнему в цене, черные и серые методы продвижения по-прежнему встречают отпор. Однако эффективность технологий, которые стоят за этими правилами, неукоснительно растет, и традиционная игра в кошки-мышки все больше теряет смысл — соблюдать правила выгоднее, чем пытаться их обойти. Мобильная направленность, быстрая загрузка, более конкретные и детальные поисковые запросы и соблюдение базовых требований к контенту и репутации бренда — вот то, на что стоит настраиваться SEO сообществу в ближайшем будущем.

Комментарии (0)