Привет, Хабрахабр!

При продвижении сайтов в Google в среде веб-мастеров возникли и утвердились несколько SEO – мифов и заблуждений.

Причины — отсутствие информации или подтверждений от первоисточника (Google); невнимательное прочтение или неправильное понимание справочной информации.


1. Существование «Песочницы»


Бытует мнение, что Google применяет к молодым сайтам некий алгоритм, влияющий на их ранжирование.

Webeffector в своей Wiki энциклопедии написал:
«Внешне помещение сайта в песочницу выглядит так. С ресурсом, кажется, всё в порядке, он находится в кэше Google, никаких претензий к нему не высказывается. Однако на странице выдачи ресурс не только не появляется при наборе в поисковой строке уникальных для этого сайта ключевых запросов, но даже не стоит в первой строчке выдачи при наборе в поисковой строке сетевого адреса сайта! Ресурса словно не существует для поисковой машины. Если это так, то будьте уверены – сайт в песочнице Google. Срок действия фильтра составляет от 6 месяцев до 1 года».

Что происходит на самом деле?

Нет «песочницы», — рассказывает сотрудник Google Андрей Липатцев, — пару-тройку месяцев мы собираем о сайте все данные, и в этот срок он ранжируется по тем, что есть, а потом может начать ранжироваться как выше, так и ниже.

То же самое, но другими словами, написано в часто задаваемых вопросах Google:
«В первое время страницы нового сайта могут ранжироваться без учёта некоторых факторов [например, гео-зависимость контента — прим.авт.], которые для этого сайта ещё не выяснены. Могут быть не сразу определены полные и нечёткие дубликаты страниц, контент, скопированный с других сайтов, слабо наполненные страницы, некачественные тексты и другие недостатки сайта. Но в дальнейшем они скажутся, и сайт потеряет первоначальные позиции».

2. «Сопли» Google


Наверно, каждый веб-мастер слышал о таком понятии, как supplemental index (дополнительный индекс) или его сленговом названии «сопли». Принято считать, что получить список страниц сайта, которые находятся в основном индексе, можно используя оператор site:yoursite.ua/&. Соответственно, список страниц из дополнительного индекса якобы можно получить используя комбинацию site:yoursite.ua -site:yoursite.ua/&.

Основания считать, что дополнительный индекс Google существовал действительно были. О нём была публикация в Google Webmaster Central Blog от 31 июля 2007 года.

С момента публикации прошло почти 8 лет, и все поменялось.

«Если ввести в адресную строку site:pdapps.ru/ — то весь индекс страниц, а если ввести site:pdapps.ru/& — это основной индекс, который по идее должен быть в поиске. Поправьте, если я ошибаюсь» — спросили Андрея Липатцева на справочном форуме для веб-мастеров.

Действительно, ошибаетесь, — ответил он. — Никакой полезной информации добавление & к запросу Вам не даёт.

Специалист Google, к которому мы обратились за разъяснением ситуации, сообщил, что существование supplemental index – это устаревшая информация.

3. «Фильтры» Google


Фильтр – сленговый термин, используемый веб-мастерами, который подразумевает обработку данных сайта и влияние на ражирование и индексирование.

Google не использует никакие фильтры. Использование подобного сленга приводит к искажению смысла сообщений, поскольку до конца неясно, что именно тот или иной веб-мастер в данный момент времени понимает под словом фильтр.

Если вы обсуждаете или публикуете какую-то информацию, связанную с Google, желательно использовать точную терминологию.

Поисковая система Google представляет в упрощённом виде некое подобие часового механизма, где все «детали» являются постоянно взаимодействующими друг с другом алгоритмами. Поэтому, если вы столкнулись с понижением рейтинга сайта в SERP, исключением из индекса и так далее, лучше использовать термин «алгоритм [название]» или меры, принятые вручную.

Нигде в официальных справках или публикациях Google для веб-мастеров, в том числе в интервью, слово фильтр не используется.

4. Влияние поведенческих факторов на ранжирование


Ещё один SEO – миф состоит в том, что Google учитывает влияние поведенческих факторов для целей ранжирования. На эту тему веб-мастера массово пишут статьи и ведут обсуждения на форумах.

Google не использует поведенческие факторы и социальные сигналы в ранжировании сайтов. Об этом на конференции CyberMarketing-2014 рассказал специалист службы качества поиска Google Андрей Липатцев[1].

После этого заявления почти на всех конференциях его обязательно спрашивают об этом. Ну, не верят веб-мастера в якобы очевидное, и всё тут.

Позже Андрей Липатцев подтвердил ранее высказанную точку зрения:
«Мы не учитываем данные, предоставляемые через Google Analytics при ранжировании. «Накликивание» на ссылки в выдаче через псевдо-сервисы, подобные юзератору и иже с ним, — бесполезная трата ресурсов для веб-мастеров, которые могли бы с большей пользой употребить их другим образом». «Мэтт Катс — такие показатели, как CTR и показатель отказов не принимаются во внимание в алгоритме ранжирования».

Для понимания общего подхода приводим цитаты еще двух сотрудников Google.

John Mueller сказал: «я не предполагаю, что [поведение пользователей] это то, что #Google будет использовать как фактор ранжирования.[2]

Использование кликов напрямую в ранжировании не будет иметь смысла из-за шума,— сказал Gary Illyes[3].

5. До первой звезды нельзя


Помните этот слоган в одной из реклам известного бренда? Среди веб-мастеров бытует мнение, что достаточно добавить в код страниц соответствующую валидную разметку, и в результатах поисковой выдачи появятся расширенные сниппеты.

Суть в том, что сама по себе разметка даже трижды валидная не является гарантией появления расширенного сниппета. Рекомендуем очень внимательно изучить и обдумать ответ Андрея Липатцева.
«…я бы рекомендовал Вам заняться удалением ведущих на сайт покупных ссылок, так как при их наличии показ расширенных описаний может быть отключён автоматически, и простого их отклонения может оказаться недостаточно. После очередной регулярной переоценки сайта он оказался несколько ниже того порога, над которым для страниц сайтов отображаются расширенные описания. Такие переоценки происходят постоянно и для всех сайтов. Учитывая, что показ расширенных описаний ни в коем случае не гарантируется, я бы просто продолжал работать над сайтом, как и раньше, предоставив Google производить свои оценки и принимать соответствующие решения.
Замечу, что по запросу site: расширенные описания могут и отображаться, так как для него действуют особые критерии».

6. Все страницы сайта должны быть в индексе


Можно открыть любой SEO-форум и найти там тему «Почему Google не индексирует страницу...». Миф основан на том, что якобы абсолютно все страницы сайта должны быть в индексе.

Индекс не резиновый, — сказал на одной из конференций инженер Google Ринат Сафин.

Google-бот периодически сканирует сайт и передает соответствующую информацию алгоритмам, которые отвечают за оценку качества сайта, ранжирование и индексирование страниц.

Допустим, на сайте есть две страницы с примерно одинаковым содержанием, но одна из них содержит более качественный контент, чем вторая. Ресурсы Google тоже не безграничны, потому в нашем примере в индекс будет добавлена только одна страница — с более качественным и информативным контентом.

Отдельные страницы сайта могут быть исключены из индекса. Дополнительно читайте нашу статью на Хабрахабр — У вашего сайта проблемы с Google?

Точное количество проиндексированных страниц можно узнать только в Google Search Console.

7. Важность ошибки 404 для SEO


В среде веб-мастеров распространено заблуждение, что наличие на сайте страниц, отдающих 404 ошибку (Error 404 или Not Found стандартный код ответа HTTP), может негативно сказаться на индексировании или ранжировании сайта. Многие веб-мастера считают, что алгоритм Panda учитывает эту информацию при оценке качества сайта.

Webmaster Trends Analyst Google Gary Illyes предельно чётко пояснил позицию Google: «Мнение, что ошибки 404 влекут за собой какие-либо наказания для сайта, в корне неверно».

Веб изменчив, старые ссылки могут вести в никуда. Гуглоботу такие ссылки безразличны [читай, не влияют ни на какие показатели — прим.авт.]. Если вдруг вы найдете битые ссылки, то просто исправьте их, чтобы посетители могли нормально пользоваться сайтом, — говорил на одной из видеоконференций John Mueller. — Я бы не рассматривал эту проблему, как что-то важное с точки зрения SEO. Это просто часть работы по поддержке сайта — следить, чтобы ссылки были в актуальном состоянии.

404 ошибка на неправильном URL не навредит индексации вашего сайта или его ранжированию в любом случае. Даже если таких ошибок 100 или 10 миллионов, они не повредят рейтингу вашего сайта, — пишет John Mueller на своей странице в Google плюс.

Одиннадцатого августа 2015 года в Twitter обсуждался вопрос, влияет ли 404 ошибка на то, как алгоритм Panda воздействует на рейтинг сайта.

На этот вопрос Gary Illyes дал отрицательный ответ.

8. Вернись, я всё прощу


Не секрет, что большинство сайтов использовали или используют для продвижения покупные (неестественные) ссылки.

Google умеет распознавать такие ссылки и, как Виктор Марьяныч из кинофильма «Наша Раша», – жестоко наказывает. Получив меры, принятые вручную, за покупные ссылки, сайт может потерять рейтинг и видимость в результатах поиска.

Добившись отмены мер, веб-мастера зачастую недоумевают и спрашивают, почему не возвращаются позиции сайта. Они забывают, что ранее достигнутые позиции сайт получил обманным путём.

Анализируя один из таких сайтов на Справочном форуме для веб-мастеров, Андрей Липатцев ответил:
«Вы полностью упустили из виду, что для «оптимизации» сайта кто-то занимался покупкой ссылок. Эффект этого допинга рано или поздно должен был прекратиться, что и произошло. На данный момент ваш сайт ранжируется так, как и должен, без учёта покупных ссылок».

9. Я всё отклонил


В продолжение описанного в пункте восемь заблуждения рассмотрим другой миф — «Сайт получил меры за покупные ссылки? Отклоняйте покупные (некачественные) ссылки и будет вам счастье».

Это не совсем так. Действительно, добавление таких ссылок в инструмент disavow tool, — это важная процедура «излечения» пострадавшего сайта. Но этого явно недостаточно.

Согласно официальной документации веб-мастер сначала должен удалить проблемные ссылки. Затем крайне желательно в запросе на повторную проверку разместить ссылку на доказательства осуществления этого процесса. Требование Google о физическом удалении проблемных ссылок отчасти обусловлено тем, что удаление ранее отклонённых ссылок из файла disavow восстанавливает статус этого ссылочного.

Неестественные ссылки, которые не смогли удалить, добавляются в disavow tool.

Читаем документацию:
Добавление всех обратных ссылок в файл отклонения не считается решением проблемы, и вам не удастся пройти проверку.
В нём [в запросе на повторную проверку – прим.авт.] подробно описываются действия, предпринятые для устранения проблем.
В нём [в запросе на повторную проверку – прим.авт.] приведены все результаты ваших действий.

10. Отклонение ссылок и Search Console


Некоторые веб-мастера считают, что отправив в disavow tool ссылку из Google Search Console, она должна через время пропасть из раздела «ссылки на ваш сайт».

Это разные инструменты. На справочном форуме был задан вопрос – «… есть версия, что в панели веб-мастера отображаются только физически размещённые обратные ссылки и инструмент disavow никак не влияет на данный список?». На что Андрей Липатцев (Google) ответил: «Правильная версия».

Ссылки, добавленные в disavow tool, не удалены физически и потому логично, что исчезнуть из Search Consol они не могут.

Мы надеемся, что изложенная в статье информация будет полезна для веб-мастеров.

Примечания


1. searchengines.ru. Поисковые системы. Google не использует в ранжировании социальные и поведенческие сигналы.
2. @SeoTelegraph. Twitter журнал о SEO. Твит от 12 авг. 2015.
3. Блоgгер. Поисковая оптимизация — Как Google определяет качество контента?

Комментарии (31)


  1. cnupm
    27.01.2016 15:54
    -10

    сеошник хуже пидораса


    1. myrrec
      27.01.2016 16:01
      +3

      Странно, если это так, откуда тогда на Хабре взялся хаб «Поисковые технологии»?


      1. cnupm
        27.01.2016 17:00
        -2

        Анекдот про шлюх на корабле напомнить?
        Вот, объединяют вас, ущербов и пользователей searchengines.ru в одном месте.


        1. myrrec
          27.01.2016 17:30

          Очень, очень толсто. Увы, не пройдёт.


          1. cnupm
            27.01.2016 17:35

            Обосрался — назови оппонента троллем. Я же говорю — сеошник хуже пидораса.


  1. lanseg
    27.01.2016 16:06

    А разве поисковики не выпускают списки рекомендаций и требований к сайтам? Что негативно влияет на позицию сайта, а что негативно, а за что и вовсе забанить могут. Наверняка же можно вбить урл своего сайта и узнать, что по его поводу думает поисковик.
    Или это какие-то секретные данные?


    1. exelens
      27.01.2016 16:44

      Не выпускает. У поисковиков есть справочная информация на этот счёт. Например у Яндекса тут yandex.ru/support/webmaster/for-webmasters/contents.xml

      Но программисты не читают и делают так как им проще.

      Автоматические сервисы для анализа конечно есть но они сторонние и реально полезной информации дают не много. (Да и всё, что дают можно самостоятельно проверить методом перебора при обладании определённых знаний).


    1. nooze
      27.01.2016 18:26
      +4

      Поисковики никогда четко не пишут своих критерий оценки сайтов т.к. это мгновенно приводит к злоупотреблению со стороны СЕО оптимизаторов.


      1. blogopoisk
        28.01.2016 10:28

        Добрый день, nooze. Абсолютно с вами согласен. Дело в том, что критерии оценки, нюансы работы алгоритмов — это коммерческая тайна. Если её раскрыть, на второй день появятся тысячи новых подобных поисковиков.
        Но не всё так грустно. Есть «замочная скважина» в которую можно посмотреть. Я имею в виду патенты Google.
        Конечно никто вам не подтвердит, что именно этот патент применяется на практике, но проанализировав его содержание и сравнив с доступной вам статистикой можно сделать выводы.
        С уважением,


        1. nooze
          28.01.2016 16:04

          «тысячи» поисковиков вряд ли появятся, т.к. не секрет что поисковик это не только алгоритм ранжирования, а еще и огромные серверные мощности, обслуживающий и разрабатывающий персонал и маркетинговые издержки. Даже если гугл раскроет свой движок целиком — появится разве что пару десятков «гуглов» с многократно меньшим индексом и плохой экосистемой. Даже с многомиллионными инвистициями особо ничего не сделать.

          А вот то что на все факты ранжирования накинуться СЕОшники это факт — стоит гуглу сказать что «оптимальным он считает наличие на странице 3 видео, 6 картинок, текста с вхождением стольких то слов и длинной столько-то символов» как через неделю 90% рунета будет состоять из страниц-близнецов полностью подогнанных под идеальные требования поисковой системы, наплевав на контент и юзабилити для реальных посетителей.


    1. blogopoisk
      28.01.2016 10:42

      У Google действительно есть рекомендации, учебные центры, справочные материалы и онлайн-инструмены, которыми могут пользоваться веб-мастера.
      Часть информации действительно засекречена. Какие-то нюансы, можно узнать от спикеров Google, которые перечислены в статье.
      С уважением,


  1. xytop
    27.01.2016 19:22
    +1

    Вот интересно, если для какого-то rising start-up (конкурирующего) умышленно закупить кучу ссылок с целью утопить его в поисковиках? Хозяин сайта не сможет такие ссылки удалить, так как не размещал их, а Гугл не будет возвращать позиции сайту пока ссылки не удалены.


    1. Flector
      27.01.2016 20:22
      +3

      так и делают. и для гугла и для яндекса. просто прогоняют хрумером сайт конкурента. когда у того появляется 10-20 тысяч мусорных ссылок — он автоматом получает пингвина и вылетает из топа. в конкурентных тематиках война хрумеров весьма распространена. завалить конкурента стоит копейки — $15-25. раньше была мантра — «за внешнее не банят», теперь же за внешнее банят, даже если это не ваше внешнее. хороший поисковик мог бы просто не учитывать плохие или покупные ссылки (поисковики же сами заявляют, что все покупные ссылки вычисляются ими автоматом) — но на деле они до сих пор не могут понять, где ссылка куплена, а где размещена бесплатно — вот и страдают от этого вебмастера.


      1. aldous
        27.01.2016 23:57
        +1

        На официальном форуме были такие утверждения. Одно время мода прямо появилась валить свои недачи на хрумер и конкурентов. В предоставленных примерах закупленные ссылки конкурентами оказались некчёмными и не на что не влияющими, то есть вообще мимо кассы, а люди потратили дофига времени на разбор этих примеров. Поскольку за два года никто не смог ни одного нормального примера привести, что вот мол смотрите, у меня крутые покупные ссылки, это не мои, я схватил пингвина, гуглеры перестали реагировать на подобные эпистолы. Начинаешь ковырять такой сайт, оказывается, что и сам он себе достаточно покупал, контент уг, техчасть хромает и всё в таком духе. Вот довольно примитивная матчасть на пальцах, почему невероятно трудно завалить конкурента. Есть куда более действенные методы, чем сотрясание воздухов.
        Я даже песню слышал, что в Форбсе ссылку конкурент купил. Но когда долго ручные меры не снимают, клиент начинает петь соловьём и оформлять явку с повинной задним числом :-). Это неизбежность, не все рождаются партизанами. А вот склонность к самообману — очень частая черта характера у сеошников.
        Но чтобы демагогия не оставалась демагогией, есть одно простое действие. Приходим на форум и пишем: «вот сайт, конкуренты накупили ссылок, чё делать». Гуглеры вообще будут счастливы, если кто принесёт хоть один настоящий пример, а не фейки.
        Как-то так :-).


        1. Flector
          28.01.2016 00:15

          контент уг и тд и тп — за это пингвин не накладывают. его накладывают только за ссылки. пора бы это уже знать. выбить сайт из топа хрумером — как 2 пальца. особенно если сайт относительно новый и не успел еще набрать траста. но даже старые сайты можно выбить из топа без больших проблем.
          и да — какой такой форум гугла то? у гугла тех. поддержка невероятно тормозная. их собственные форумы и группы набиты сотнями тысяч вопросов без ответов. никто с вами не будет разбираться. первый же пример «адекватной» причины наложения пингвина — у вас мол платные ссылки и в качестве примера приводят сайт яндекс.каталога.


          1. aldous
            28.01.2016 00:49
            +1

            контент уг и тд и тп — за это пингвин не накладывают. его накладывают только за ссылки. пора бы это уже знать.

            Пингвин — часть алгоритма определения кач-ва сайта. Его не накладывают :-). То, что сваливают на пингвин, резкое понижение, может оказаться запаздалой реоценкой сайта из-за слабого контента. Неправильно поставленный диагноз. Вот о чём речь.

            выбить сайт из топа хрумером — как 2 пальца. особенно если сайт относительно новый и не успел еще набрать траста. но даже старые сайты можно выбить из топа без больших проблем.

            Сэр, даже на серче начали аргументировать. Это из разряда, говорят, что кур доят? Я могу с таким же успехом утверждать, что в Яндекс набирают в Платоны сугубо афроамериканцев… разве нет?

            и да — какой такой форум гугла то? у гугла тех. поддержка невероятно тормозная.

            У Гугла нет техподдержки. Но есть люди, которые собирают баги. Вот что интересно Гуглу, а не нытьё «мой сайт упал, памагите». Приходите и докажите, что произошёл баг в оценке ссылочного. Я вот такие баги лично видел, но к прогону от конкурентов они, увы, не имеют отношения. Если нет желания, времени или нет сайта :-), о чём тогда можно говорить? Гуглеры проводят встречи. Спрашивают: «есть вопросы?» Это тот самый момент, когда вся бравада доказать, что Гугл плохой (кто вообще сказал, что он хороший?) куда-то улетучивается. Изначально надо исходить из принципа, что Магомет пойдёт к горе и окажется умнее своих соплеменников, героев слога и клавиатуры.

            платные ссылки и в качестве примера приводят сайт яндекс.каталога
            .
            Во-первых, ссылка из Яндекс Каталога в 99% случаев платная. Сможете помочь с бесплатным размещением? Есть варианты?
            Я считаю, что вот из-за таких каталогов и подобий, гс с приличным финансированием создаёт ситуацию под названием нечестная конкуренция. Никогда не поверю, что посетители сайта сами добавили сайт в каталог :-). Но Гугл, прислав пару примеров (и то только при ручных мерах), посмотрел на реакцию и больше к этой теме не возвращался.

            у вас мол платные ссылки и в качестве примера приводят сайт яндекс.каталога

            В пример приводится не ссылка Яндекс каталога, а то, что показывает сервис «друзей», например, Ахрефс или Мажестик и т.п. Они доступны всем, если нет коммерческого акка — не беда, можно попросить выгрузку, никто еще никогда не отказывал.


            1. Flector
              28.01.2016 00:52
              -5

              пингвин накладывают только за ссылки.
              по контенту накладывают панду.
              в общем понятно, что вы в теме не шарите, поэтому из дальнейшей дискуссии я устраняюсь.


              1. aldous
                28.01.2016 01:17
                +2

                Предложение начинается всегда с большой буквы.

                пингвин накладывают только за ссылки.
                по контенту накладывают панду.

                «Фильтра за неуникальные текста» и «наклали на меня фильтр» :-) в коллекцию. Прямо в духе сео-блогов 2010-2012.

                За неграмотность и отсутствие аргументации, кроме «ты дурак», незачёт. Без обид, но уважение к языку, хотя тоже ляпаю ошибок солидно, привито со школьной парты.


              1. HabrAndrey
                29.01.2016 03:36

                Flector, так ка на всякий случай, aldous прав :) Это каноническая точка зрения. На неё со всех остальных можно ставить 301-й редирект.


                1. Flector
                  29.01.2016 10:59

                  как пострадавший от пингвина именно за ссылки — я согласиться не могу.


  1. bubuq
    27.01.2016 19:33

    Не секрет, что большинство сайтов использовали или используют для продвижения покупные (неестественные) ссылки.

    Секрет или не секрет, но утверждение смелое.


    1. Flector
      27.01.2016 20:38

      если добавить слово «коммерческие», то выйдет действительно большинство.


  1. MTonly
    27.01.2016 20:31

    У вас JPEG.


  1. prolis
    27.01.2016 23:55
    +1

    Про отсутствие влияния ПФ и социгналов написали специально, что бы не мешать СЕО-специалистам подготовиться к ЕГЭ.


  1. Blumfontein
    28.01.2016 08:42
    +1

    А кто такие John Mueller и Gary Illyes? Теперь буду давать ссылку на этот пост в ответ на очередные истерики по поводу 404.


    1. blogopoisk
      28.01.2016 10:16
      +2

      Добрый день, Blumfontein.
      John Mueller и Gary Illyes — это сотрудники Google.
      В Рунете за информационное освещение отвечают А.Липатцев и М.Моева. В Буржунете (назовём это так) за это же отвечает John Mueller. Именно от этих людей можно узнать то, что не написано в Справке Google.
      С уважением,


  1. Scf
    28.01.2016 09:34

    Вот про песочницу — не верю. Без разницы, как это называть — «песочница» или «мы еще не собрали о сайте все данные», но факт — сайт набирает свой вес в поисковой выдаче минимум несколько месяцев.


    1. blogopoisk
      28.01.2016 10:20
      +2

      но факт — сайт набирает свой вес в поисковой выдаче минимум несколько месяцев.


      Всё логично. Вино в первый день его разлива, еще не вино. Так и сайт.
      За счёт чего новому сайту на второй день существования набрать вес?


      1. aldous
        28.01.2016 22:28

        Можете провести эксперимент (я провёл его). Нашёл низкоконкурентную тематику, на сайте (1 неделя) написал «статью» в 4 строчки и одну 1 картинку, но точно под запрос, более расширенно описал эту ссылку в вк (благо эта сеть имеет большие шансы попасть в индекс) и Google+, который пропиарил более раскаченным аккаунтом. Вуаля, топ 10, а потом топ1. В данном случае сыграл точный ответ на запрос и быстрое предоставление сведений о сайте, которые сам сайт предоставить не может в силу возраста и отсутствия контента. То есть заработали внешние сигналы. Ну а топ, потому что конкуренция слабая и проиграет свежему адаптивному сайту. Разумеется, для каких-то серьёзных действий нужен явно не недельный сайт. Как сейчас практика показывает — от трёх месяцев. Раньше от полугода и года.