Эксперимент: влияет ли на ранжирование скрытие контента от индексации через JS

В последние пару недель я разбираюсь в своих старых проектах: решаю, какие нужно  безжалостно прибить, а каким дать новую жизнь. Среди этого зоопарка есть несколько ресурсов, на которых ставил эксперименты по SEO. Поскольку сайты скоро будут выселены с сервера, а их домены – оставлены без оплаты, имеет смысл записать результаты и сформулировать выводы. 

Вокруг вопроса “а не стоит ли закрыть меню от индексации?” по-прежнему ломается много копий.

Аргументы “за” достаточно очевидны: сохраняем вес для других ссылок на странице, увеличиваем уникальность текста на странице и так далее. Аргументы “против” тоже вполне закономерны: незачем путать поисковики, усложнять реализацию, мешать естественному распределению веса; да и вообще какие ваши доказательства, что будет эффект?

Года три назад  и меня тоже серьезно волновал этот вопрос.

Суть эксперимента

На сайте legalfoto.ru я создал 2 страницы, слегка оптимизированные под запрос “фото для свободного использования”:

  • http://legalfoto.ru/dlya-svobodnogo-ispolzovaniya-sovety/
  • http://legalfoto.ru/dlya-svobodnogo-ispolzovaniya-obzor/

На странице “Обзор законов” боковая колонка и футер (что составляет 4 ссылки и довольно значительный текстовый фрагмент), загружаются из подключаемых через jQuery файлов. Их содержимое не попадает в исходный код (чтобы разобраться в технических деталях, см. файл vv.js, подключаемый в header страницы).

Текст на обеих страницах уникален, но написан и оптимизирован по одному шаблону, примерно одного размера. Обе были выложены одновременно. Страницы не участвуют во внутренней перелинковке, добавлены в индекс напрямую через addurl (как я показал на прошлой неделе, это весьма эффективный способ).

Все это было сделано, чтобы снизить влияние посторонних факторов, поставить страницы в равные условия, но при этом не дать поисковикам считать их дублями.

Поясню: например, в случае размещения внутренних ссылок добавились бы определенные поведенческие метрики; да и просто есть вероятность, что внутренние ссылки передают разный вес в зависимости от положения в документе. С передачей анкорного веса все еще серьезнее. В общем, сделать 2 одинаковые внутренние ссылки невозможно, так что чистота эксперимента неминуемо бы пострадала.

Что наблюдалось?

Прежде всего, скрытие контента оказалось вполне действенным: ни Яндекс, ни Google “не видят” на странице текст из сайтбара.

Яндекс:

Google:

Страницы достаточно быстро вошли в индекс поисковых систем. В первые 3 месяца они периодически менялись местами по запросу, явного лидерства установить не удавалось.

Затем выдача устоялась.

Страница “Важные советы” – та, на которой не применялось никаких тактик по скрытию контента – стабильно опережает страницу “Обзор законов” в Яндекса и Google c ограничением по домену (оператор site:). Что более важно, страница “Советы” постоянно показывается в ТОП-10 Яндекса и Google, а в Mail даже в ТОП-1. Это весьма удачно, так как результаты поиска с ограничением по конкретному домену вряд ли можно свободно экстраполировать на основную выдачу.

Выводы

  • Закрытие [части] меню и сквозного текстового фрагмента от индексации не дает серьезных преимуществ при ранжировании, а возможно, и вредит продвижению страницы.
  • Текстовая релевантность – по-прежнему крайне важный фактор ранжирования (факт устойчивого нахождения страницы в ТОП, невзирая на скромные хостовые и нулевые ссылочные факторы)
  • По всей видимости, текстовая релевантность имеет для Mail.ru большее значение, чем для других поисковых систем.
  • “Единодушие” поисковых систем – свидетельство в пользу того, что выводы являются относительно заслуживающими доверия, несмотря на отсутствие статистической достоверности.

Необходимые замечания

Буду откровенен. Хотя этот эксперимент на фоне большинства обобщений по SEO выглядит образцом следования идеалам Фрэнсиса Бэкона, я сам отношусь к нему довольно скептически. Дело даже не в том, что для адекватного результата нужна куда более серьезная выборка (делать выводы по одной паре страниц конечно же не комильфо).

Просто сам подход “а давайте найдем однозначный ответ, который внесем в чек-лист и будем везде применять” сейчас кажется мне глубоко ущербным. В практике оптимизации нужно учитывать особенности сайта и принимать конкретное решение по конкретному проекту. А в ходе исследования требуются проверки куда более сложных и точно сформулированных гипотез. Впрочем, это уже совсем другая история…

p.s. Кому-нибудь нужен сайт и домен legalfoto.ru? Вообще-то тема перспективная – посмотрите ветки на Серче об исках из-за нарушения копирайта. Вебмастера постепенно осознают необходимость работать с легальными картинками. Самому что-то с ним делать – лень и нет времени. Собираюсь не продлевать регистрацию, но если кому нужен – продам не очень дорого. Пишите если что.

5 комментариев

    • На самом деле, я бы не сказал, что этот кейс убивает миф (см. последний раздел). Но для себя определился, что это как минимум менее важно чем текстовая оптимизация, причем в ее нюансах.

  1. Интересно. Только на 1 сайте реализовывал вывод через js или через ajax, уже не помню..помню только что долго с этим мучился. Эффекта заметного не увидел..

Оставить ответ