Кейс: изучаем динамику трафика с Яндекса и Google после 50 дней недоступности сайта

Довольно очевидно, что простой в работе сайта не особо полезен для позиций в выдаче поисковых систем (не говоря уж о том, что когда ресурс «лежит», он не приносит прибыли). Поэтому детальных наблюдений в этой области не так много — кто же будет гробить работающий проект. Сходу вспоминается только история Сергея Кокшарова о технических проблемах с SEO-словарем. Попробую заполнить информационный вакуум в теме, тем более что данные достаточно показательны.

Чем интересен объект наблюдений

Изучаемый проект представляет собой «два в одном», состоит из обособленных домена и поддомена. Контент на них резко отличается, по сути это два разных сайта:

  1. Интернет-магазин с обширным ассортиментом (много наименований).
  2. Статейный каталог (публикации под информационные запросы).

В течение 50 дней в начале года наблюдались технические проблемы, затем они были устранены. Восстановленная версия очень близка к исходному состоянию; брендовых запросов нет.

Что это нам дает? Много чего:

  • Можно оценить, есть ли разница в отношении поисковиков к простою для коммерческих и информационных сайтов.
  • Выпадение произошло в довольно «ровный» сезон (если бы сайт вернулся к работе, например, в Новый год, интерпретация данных была бы затруднена).
  • Благодаря отсутствию изменений на сайте у нас меньшее количество искажающих факторов — и более достоверные выводы.

Итак, объект весьма удобен для изучения. Что же демонстрирует его статистика?

Общая картина: индексация и трафик

График посещаемости не несет особых неожиданностей:

posehyaemost

После решения технических проблем трафик полностью не вернулся, однако начал постепенный рост.

Ситуация с индексом также довольно предсказуемая. Вот данные для магазина:

stranicy-v-indekse

Падение/рост числа страниц в индексе происходит синхронно с изменением статуса доступности сайта, с задержкой в пару недель. Интересно, что хотя количество страниц в индексе не восстановилось полностью, оно находится на довольно приличном уровне, выше, чем в начале отображаемого периода (не столь уж длинного). В то же время, заметно, что Яндекс начал «выплевывать» страницы, хотя до этого динамика была строго положительной.

Теперь — чуть детальнее. Посмотрим, сколько трафика давала каждая из основных поисковых систем на разные разделы. Стрелками на скриншотах отмечены недели, выбранные в качестве примеров для более тщательного сравнения (см. таблицу в конце).

Динамика трафика с Яндекса

Вот так себя чувствовала статейная часть:

Аналогичный отчет для интернет-магазина:

Скриншоты кликабельны, но даже в на небольшом размере легко заметить, что статейный раздел оправился куда лучше магазина.

Динамика трафика с Google

Контентный домен:

google-statejny

Магазин:

google-magazin

Для примера сравним трафик на 25.01 — 31.01 и 18.04 — 24.04. Вот сводная таблица (показатель — посетители с поисковых систем):

До (январь) После (апрель)
Яндекс, статейный раздел 915 417
Google, статейный раздел 894 524
Яндекс, интернет-магазин 1256 240
Google, интернет-магазин 46 10

И наконец диаграмма с процентом падения трафика по тем же четырем направлениям:

image

Промежуточные выводы

  • Длительная недоступность сайта приводит к серьезному снижению поискового трафика и с Google и с Яндекса.
  • Яндекс относится к простою строже, чем Google и демонстрирует более значительную просадку.
  • Проекты в нише e-commerce особенно чувствительны к перебоям в работе (потеря порядка 80% трафика с обеих поисковых систем).

В принципе, все это довольно предсказуемо. Поразмыслим теперь над самым интересным вопросом:

Почему магазин потерял большую часть трафика?

Для ответа нам потребуются еще кое-какие данные.

Во-первых, посещаемость магазина и до и после простоя полностью завязана на самые низкочастотные запросы. Ключевиков, приносящих хотя бы 10 человек в день просто нет. Трафик равномерно «размазан» по всей массе страниц. На этом скриншоте — отчет по визитам на странницы категорий, связанные с наиболее частотными запросами:
tolko-kategorii

Видим, что посещения эпизодические.

Во-вторых, Яндекс сохранил дату первоначальной индексации для большого количества страниц. Основная масса документов при запросе с «&how=tm» (сортировка по дате, с некоторыми оговорками может использоваться для определения возраста страницы с точки зрения поисковика) демонстрирует даты до начала технических проблем.

В-третьих, замечаем, что количество страниц в индексе Яндекса на данный момент составляет примерно 60% от максимума (не факт, что данные в Вебмастере на 100% точные, но по крайней мере соотношение они показывают).

Итак, почему же произошло столь значительное падение трафика?

Скорее всего:

  • Оно вызвано не только с выпадением страниц из индекса. С учетом равномерного распределения посещений по всей массе страниц, можно было бы ожидать просадку на 40 процентов, но не на 80!
  • Вряд ли «отвалился» какой-то хостовый фактор (возраст ведь сохранился!).

То есть.

Простой в работе сайта действует как самостоятельный фактор ранжирования. Возможно, Яндекс здесь руководствуется той же логикой, что и при введении коммерческих факторов: серьезная организация, предоставляющая качественный сервис, вряд ли допустит длительную неработосопособность ресурса. Еще одно свидетельство в пользу этой точки зрения — значительно меньшая просадка трафика на статейном разделе.

Конечно, все это только предположения. Для полной уверенности полезно было бы провести наблюдения над более значительной выборкой. С другой стороны, практические выводы вполне разумны и с других позиций:

  1. При работе с коммерческими сайтами нужно особо тщательно следить за стабильностью работы сайта. Вполне вероятно, что даже короткие перебои могут приводить к ухудшению позиций.
  2. Нельзя допускать технических проблем в ходе разработки: «черная метка» от недоступности сайта сохраняется надолго и может повредить запуску. Лучше всего вообще скрывать от поисковых роботов тестовую версию.
  3. Перед приобретением сайта или началом работ по SEO на заказ полезно убедиться, что в последние полгода проект стабильно работал. Иначе в ходе продвижения можно нарваться на неприятный сюрприз.

p.s. И еще один полезный совет, на всякий случай:

Бэкапов много не бывает!

Поделиться
Отправить
Плюсануть

Читайте также
  • seoonly.ru
    26.04.2016

    Поэтому DDOS в плане устранения конкурентов вне конкуренции-)

    Ответить
    • Алексей Трудов
      26.04.2016

      Тсс! 🙂

      Ответить
    • Сергей
      27.04.2016

      Вот так взял и спалил сходу!

      Ответить
    • Марк
      28.04.2016

      а проксирующая оболочка тогда на что?)

      Ответить
  • SEOinSoul
    27.04.2016

    Интересно было бы посмотреть результаты наоборот при мелких сбоях. Все-таки ты правильно заметил, что для коммерческих проектов такие простои — это скорее исключение. А вот небольшие перебои — ситуация уже более частая, и такое исследование было бы более полезным для практикующих специалистов.

    Также стоит смотреть в сторону поведенческих факторов — очевидно, что они изменились. Поэтому простой — это не отдельный фактор, а скорее результат изменения именно ПФ как хостовых, так и постраничных

    Ответить
    • Алексей Трудов
      27.04.2016

      Илья, привет!

      А вот небольшие перебои — ситуация уже более частая, и такое исследование было бы более полезным для практикующих специалистов.

      Согласен. Только проблема в том, что отследить влияние небольших сбоев сложнее. Когда простой долгий это явно самый мощный фактор. А вот эффект сравнительно небольших проблем может сглаживаться другими факторами; в итоге данные будут недостоверны.

      Поэтому простой — это не отдельный фактор, а скорее результат изменения именно ПФ как хостовых, так и постраничных

      Да, возможно, что он связан как раз с поведенческими (нет трафика на страницах -> негативный сигнал). Но практических отличий между такой схемой и непосредственным влиянием простоя нет, в любом случае результат один. Или я не так тебя понял?

      Ответить
  • Gandalf White
    27.04.2016

    Да отличный эксперимент 🙂
    Теперь ясно что коммерческим сайтам сложней прийти в себя после такого простоя.

    Ответить
  • Семён
    27.04.2016

    Стесняюсь задать банальный вопрос, а вы пробовали обратиться к Платону? С гуглойдами всё понятно. Ну а там могли бы прокомментировать ситуацию, может как-то «повлиять» на нее?

    Ответить
    • Алексей Трудов
      27.04.2016

      Семен, правильная мысль.
      Не обращался, т.к. я не работаю с этим сайтом (там долгая история :))
      p.s. Заглянул на ваш сайт. Да мы ведь теперь земляки!

      Ответить
  • Евгений
    28.04.2016

    Даже небольшие сбои отрицательно влияют. Поэтому выбирайте хостинг очень серьезно, и всегда отслеживайте недоступные страницы. Был у меня случай CMS сайта рухнула и внутренние страницы стали недоступны, после недели такого простоя на сайт наложили санкции(такие же как и после отсутствия в индексе), трафик упал на 40% и не возвратился (С Яндекса). С гуглом и так была печаль.

    Ответить
    • Алексей Трудов
      28.04.2016

      Евгений, спасибо, что поделились опытом!

      Ответить
  • Rulsmart.com
    25.06.2016

    Отличная статья, но вы не упомянули, что сейчас многие перешли на CDN + пользуются cloudflare, чтобы компенсировать частично недоступность и ускорить загрузку.

    Ответить
    • Алексей Трудов
      25.06.2016

      Спасибо за дополнение. Тема необъятная на самом деле)

      Ответить

Добавить комментарий

 

Публикуя комментарий, вы соглашаетесь с правилами http://alexeytrudov.com/terms/