Чуть больше месяца назад я опубликовал статью с первыми выводами об апдейте Яндекса, после которого многие статейные сайты потеряли значительную часть трафика и дохода. Сегодня расскажу о завершающем этапе исследования и о том, что все это значит для практики.
Какие новые данные появились за месяц?
Во-первых, увеличилась выборка проблемных проектов. Многие владельцы инфосайтов после предыдущего поста написали мне и предложили новые проекты для анализа. Они пригодились для перепроверки сделанных в первой части исследования выводов.
Особенно меня интересовало, правильно ли предположение о том, что позиции и трафик падают на уровне хоста. Напомню, что было всего 4 проекта, где удалось посмотреть достоверную динамику трафика на молодых документах. Сейчас добавилось еще три. Графики везде выглядят похоже, примерно так:
Поэтому первоначальные выводы остаются в силе.
Во-вторых, ряд пострадавших 30 января проектов были задеты еще одним апдейтом – в самом конце февраля. В большинстве случаев трафик частично вернулся. Типичный пример:
Важно отметить, что проблемы с мобильным трафиком наблюдается далеко не на всех пострадавших в январе. Поэтому считать вторую просадку прямым продолжением первой (“раскатыванием” алгоритма на мобильные) – нельзя.
Рабочая гипотеза: почему дело именно в поведенческих факторах?
Многие скептически восприняли мой вывод о том, что причина просадки – слабые поведенческие факторы. Скептицизм – это прекрасно! См. мой давний пост на эту тему. Однако адекватную альтернативу своей гипотезе из обсуждений выловить не удалось.
Наиболее внятные аргументы против роли поведенческих:
- Можно найти сайт с хорошими ПФ, который тоже попал под раздачу.
- Яндекс не станет считать кликстрим (историю действий пользователя) ради того, чтобы забанить сколько-то статейников, это слишком дорого для такой мелкой задачи.
По первому пункту есть два контраргумента:
- Хорошие ПФ или нет – знает только Яндекс. Часто приходится слышать формальные критерии типа “отказов должно быть не больше 20%” или “глубина просмотра от 3 – это отлично”. Конечно же, они имеют очень косвенное отношение к реальным ПФ. Об этом ниже.
- Пока мне никто не показал сайт с высокой лояльностью новых посетителей с поисковых систем, который просел 30 января. Если покажут (желательно не один, а десяток, чтобы было похоже на выборку) – с удовольствием изучу и без проблем признаю что был не прав.
По второму все еще проще. Достоверно известно, что Яндекс накапливает и хранит данные о пользовательском поведении по некоммерческим запросам. Иначе он бы не смог реализовать алгоритмы Палех и Королев. Цитирую:
Например, одна из моделей предсказывала, останется ли пользователь на сайте или уйдет. Другая – насколько долго он задержится на сайте. Как оказалось, можно заметно улучшить результаты, если оптимизировать такую целевую метрику, которая свидетельствует о том, что пользователь нашёл то, что ему было нужно.
https://habrahabr.ru/company/yandex/blog/314222/
То есть: Яндекс вряд ли ставил целью порезать трафик у неугодных сайтов (в выдаче всплыли очень похожие проекты). Но накоплением и анализом пользовательских данных яндексоиды занимаются давно, а применяют их для самых разных задач.
Все дело в обилии рекламы, тизерах и офферах внутри статьи?
Самая популярная гипотеза в обсуждениях – идея, что пострадали сайты, злоупотреблявшие рекламой. Мысль абсолютно логичная, ее подкрепляют разные факты:
- Почти одновременно с апдейтом популярные браузеры начали блокировать навязчивую рекламу.
- В Яндекс.Толоке есть задания на определение зарекламленности сайтов.
Многие проекты в моей выборке действительно монетизируются весьма агрессивно. Но есть и проекты, размещающие только скромный контекст (причем в первом экране он занимает меньше трети площади). А еще есть сайты, снявшие почти всю рекламу сразу после просадки (то есть полтора месяца назад) – но посещаемость до сих пор не вернулась. Поэтому непохоже, что мы имеем дело с бинарным признаком (есть “плохая реклама/нет плохой рекламы”).
А вот если предположить, что сайты просели из-за ПФ, то все встает на свои места. И тут нет никакого противоречия с гипотезой о роли рекламы. Смотрите:
- Много рекламных блоков – труднее доступ к контенту, пользователи в среднем менее лояльны и активны.
- Постепенно у Яндекса накапливается статистика взаимодействия посетителей с сайтом.
- Хлоп – и подкрутили алгоритм, который (например) придает статистике ПФ больший вес, чем раньше. Зарекламленные сайты (и не только они) попадали в выдаче.
- Расстроенный владелец снял все тизеры и ждет, когда вернутся позиции. А они не возвращаются – потому что накопленные данные по-прежнему играют против него. Новая же статистика собирается медленно (трафик-то упал!).
Разбираться в этих нюансах я стал не только из академического интереса. Для практики нам нужен объективный измеримый критерий. Если мы будем считать, что реклама влияет напрямую, то как понять, что у нас на сайте слишком много рекламы? Или слишком мало (и можно добавить еще, увеличив заработок)? На глазок?
Кстати, не всегда реклама раздражает пользователей. Она может быть и полезной: прочитал статью, разобрался с особенностями товара или услуги – и можно сразу кликнуть по релевантному предложению, не тратя время на переход обратно в выдачу.
Даже если не было всех веских свидетельств в пользу роли ПФ, я бы стал изучать их в поисках рабочего критерия для определения степени зарекламленности. Потому что первично именно впечатление людей от сайта, их удовлетворенность содержимым, включая рекламу. Вряд ли этот базовый принцип поменяется в ближайшие годы.
Ну вот, с идеологией покончили, переходим к статистике.
Чем отличаются сайты, на которых упал трафик от тех, кто не пострадал?
Сразу хочу расстроить любителей простых подходов типа “глубина просмотра больше трех”. Вполне очевидно, что “правильная” глубина/показатель отказов/время на сайте сильно варьируются в зависимости от ниши и конкретной информационной потребности пользователя. Когда мне надо найти номер такси, я провожу на хорошем сайте 5 секунд, а на плохом, где этот номер прячут – 30. Хорошую профессиональную статью читаю 15 минут, плохую – 10 секунд. Понимаете разницу?
Поэтому было бы совсем наивно ждать от выборок просевших и устоявших сайтов (то и другое – сборная солянка из разных тематик) не только статистически значимых, но и полезных различий по базовым поведенческим метрикам. Однако для очистки совести я все-таки посчитал медианные значения по выборкам:
Просевшие | С нормальной динамикой |
---|---|
6,5% отказов | 12% отказов |
1.16 глубина просмотра | 2,08 глубина просмотра |
75 секунд длительность визита | 135 секунд длительность визита |
Данные различаются, это очевидно. Но что с ними делать? Не стараться же увеличить в два раза показатель отказов? Как-то это немного странно, правда? Табличка нам ничего не дает, только еще больше запутывает.
Что нужно, чтобы получить более полезные данные? Да просто брать показатели, которые можно сравнивать. Различие между которыми что-то нам скажет о реальных посетителях сайта. И такие показатели есть.
Отчет “Блокировщики рекламы” в Яндекс.Метрике
Посмотрите на сравнение поведенческих метрик для пользователей с включенной и отключенной блокировкой рекламы по одному из пострадавших сайтов:
С блокировщиком отказов в два раза меньше! Какое самое простое объяснение? Правильно: без рекламы сайт нравится людям значительно больше.
Это был единичный пример. Как обстоят дела по всей выборке? А вот как:
Разница в базовых поведенческих метриках у пострадавших сайтов ощутимо выше, чем у проектов со стабильным трафиком.
Например, показатель отказов на “нормальных” сайтах для пользователей с блокировщиком ниже всего на 0,1% (медиана). Пострадавшие проекты демонстрируют разницу в 0,25%. Тоже совсем немного, так ведь? Но если брать в выборку только сайты с относительно большим объемом трафика, для которого было определено наличие блокировщика, или взять статистику за более длительный период, разница стремительно растет, доходя до 2-4% (см. ниже объяснение, почему так происходит).
Аналогично для длительности визита. На нормальных сайтах – различия в продолжительности сессий измеряются долями секунды. На пострадавших медианная разница – 16 секунд (не в пользу версии без блокировщика).
Дополнительная проверка с использованием технологий Яндекса
Выявленные различия совсем не означают, что Яндекс ориентируется именно на них. Это только часть общей картины, которая есть у поисковой системы. Для практики же нам важно другое – может ли сравнение сегментов по блокировщикам рекламы стать полезным сигналом для работы над сайтом?
Отвлеченный пример для понимания. Анализ крови дает массу информации о состоянии здоровья. Показатели в нем – это полезный сигнал о проблемах с организмом. Но лечат обычно не для подгонки анализов под идеальные показатели, а чтобы привести в норму тот или иной орган.
Как можно проверить, насколько полезным будет изучение отчета по блокировщикам для коррекции стратегии? Следите за руками:
- Берем данные о поведенческих метриках по сегментам “блокировщик есть” и “блокировщика нет”.
- Обучаем на их основе классификатор сайтов (просадка есть/просадки нет).
- Тестируем его на специально отложенной части выборки.
- Если модель справляется лучше, чем константный алгоритм, значит, наш набор данных содержит необходимую информацию и эти данные можно использовать.
Я решил, что будет правильным для изучения алгоритма Яндекса воспользоваться инструментами самого Яндекса – молодой, но перспективной библиотекой машинного обучения Catboost.
Основной проблемой тут стала сильная несбалансированность выборки: у меня сколько угодно примеров нормальных сайтов со стабильным трафиком и меньше сотни проблемных проектов (очень неплохая выборка для SEO-исследования, но совершенно недостаточно для адекватного классификатора). К счастью, в методах Catboost есть встроенные параметры для борьбы с несбалансированной выборкой, очень удобно.
Нельзя было выделить для тестовой выборки сколько-нибудь приличное число объектов, не обедняя обучающую. Поэтому корректно подсчитать точность и полноту не получилось. Однако и без них очевидно, что модель работает не вхолостую. Я сделал 3 захода: оставлял в тестовой выборке 95 нормальных и 5 пострадавших сайтов и обучал бинарный классификатор на оставшихся примерах.
Результаты такие:
- Во всех случаях алгоритм корректно определил все 95 сайтов со стабильным трафиком.
- Не было ни одного ложного срабатывания, то есть ситуации, когда “здоровый” сайт был определен как проблемный.
- В первом тесте не было найдено 2 пострадавших сайта из 5, во втором – 3, в третьем снова 2.
Итоги не позволяют использовать алгоритм в боевых условиях (велик шанс пропустить проблему), но он явно справляется гораздо лучше чем константный. То есть изначальная гипотеза подтвердилась – в наборе данных есть необходимая нам информация! Или ее часть, как минимум.
Конечно, можно было заморочиться с настоящей кросс-валидацией и тонким подбором параметров. Но лично у меня полно других дел. На главный вопрос ответ я получил, другого же от модели и не требовалось.
Практические рекомендации
Подчеркну важный момент. Не надо привязываться к конкретным цифрам. Я специально не стал публиковать полные данные, полученные из сравнения статистики (чтобы не получилось как в прошлый раз с Баден-Баденом). Важна именно разница между тем, как люди воспринимают две версии сайта – с рекламой и без. Если разница существенна – значит реклама мешает. Если разницы нет – не мешают.
Особенно важно это понимать, так как отчет по блокировщикам несовершенен.
- Сумма визитов с блокировщиком и без блокировщика обычно значительно меньше, чем общий объем визитов. Определить наличие/отсутствие Adblock удается далеко не всегда.
- Поведенческие метрики в отчете по блокировщикам сильно отличаются от средних по сайту. Как правило, глубина просмотра для визитов, где удалось определить наличие/отсутствие блокировщика выше. Думаю, чем больше страниц просмотрел посетитель, тем проще Метрике разобраться с технологиями его браузера.
- В конце концов, блокировщики устраняют далеко не всю рекламу и считать, что люди с Adblock видят “чистый” сайт мы можем лишь условно.
Все остальное – просто и очевидно.
Как понять, что сайту грозит понижение в выдаче из-за рекламы?
Если вы владелец сайта, который монетизируется по рекламной модели, имеет смысл регулярно изучать отчет по блокировщикам:
Не забудьте выбрать довольно длительный период для отчета, чтобы он был более статистически достоверным (конечно, если меняли дизайн или размещение рекламных блоков, то начало периода должно быть не раньше даты изменений). Стоит также указать фильтр “Тип источника – поисковые системы”, может оказаться полезной и сегментация по устройствам.
Не забывайте, однако, что каждый дополнительный сегмент уменьшает объем выборки пользователей, для которых рассчитываются показатели. По моему опыту, для выборок менее 5000 визитов различия очень часто стираются.
Если разница в поведенческих метриках ощутима, то ваш сайт в зоне риска. Если вы видите, что разница сильно выросла по сравнению, например, с прошлым месяцем – то пора что-то поменять.
Если большой разницы нет и вы хотите добавить еще рекламы – добавьте ее сначала на часть страниц и отследите, не изменятся ли на них поведение пользователей без блокировщиков.
Что делать, если сайт уже просел?
Очевидно – постараться нарастить “хорошую” статистику по пользовательскому поведению для всего сайта. Действовать нужно комплексно:
- Снизить количество рекламы.
- Проработать контент на собирающих трафик страницах так, чтобы он лучше соответствовал пользовательским интересам (в том числе тем, что не подразумевались при создании статьи). Опять же берем нашу любимую Метрику, смотрим поисковые запросы, по которым приходят/приходили люди на конкретную статью, ищем темы, плохо раскрытые в контенте. Для облегчения процесса используем инструмент дооптимизации важных страниц. Обратите внимание на кейс оживления заброшенного сайта с помощью сервиса (см. ближе к концу, где приводится статистика по изменению доли отказов).
- Проработать подборки публикаций так, чтобы облегчить пользователю их восприятие, сделать страницы категорий более логичными и структурированными.
- Добавить новые качественные материалы по темам, для которых в нише нет адекватного контента (везде будут плохие ПФ, а у нас – хорошие).
- Доработать страницы с максимальным количеством отказов и наибольшей разницей в поведении для пользователей с блокировщиком и без.
Разумеется, нужно оценивать рентабельность всех этих действий. Если сайт не имеет мало-мальски приличной структуры, то его переработка может обойтись дороже, чем создание нового проекта.
Как узнать больше об улучшении ПФ и эффективной монетизации статейников?
Предвижу много вопросов к этим рекомендациям. Однако подробное руководство по улучшению ПФ на статейниках и их монетизации с максимальным доходом и минимальным риском тянет еще на одну здоровенную статью (и 10 – 15 часов работы). В принципе я готов ее написать, хотя тема мне уже немного надоела. Поэтому для начала хочу понять, насколько вообще это интересно читателям, имеет ли смысл тратить время.
Сделаем так. Если вас интересует инструкция:
- Поделитесь ссылкой в соцсети, блоге или Telegram-канале на этот пост.
- Пришлите мне адрес записи со ссылкой через Google-форму.
- Оставьте там же свой e-mail.
Если наберется 100 или больше желающих – я напишу руководство и разошлю его по указанным ящикам. А потом, спустя 2-3 месяца – опубликую в основной рассылке блога.
В заключение
Главные выводы:
- Падение посещаемости на статейниках после апдейта 30 января связано с поведенческими факторами, в первую очередь с негативной реакцией пользователей на обилие рекламы. Это подтверждается динамикой трафика на проектах, снявших рекламу, значительными различиями в ПФ по выборкам, классификатором на основе Catboost.
- Полезный критерий для анализа поведения – отчет по блокировщикам рекламы. Разница даже в базовых метриках может быть весьма информативной. Конечно, никто не запрещает использовать и более сложные показатели, например, долю “длинных кликов” или показатели конверсии. Изучение различий в поведении между пользователями с блокировщиком и без него стоит использовать в процессе принятия решений о размещении рекламных блоков.
- Для возврата посещаемости требуется комплексная работа, направленная на улучшение ПФ. Весьма вероятно, что просто снять часть рекламы будет недостаточно. Хотя бы потому, что то же самое сделают и пострадавшие конкуренты.
P.S. Большое спасибо всем, кто давал сайты на анализ! Они весьма помогли. Если буду писать руководство – обязательно вышлю его вам (делиться ссылкой необязательно).
Также планирую написать пост с краткими замечаниями и советами по предоставленным проектам – без указания url, только с id Метрики (по ней вы сможете понять что это ваш сайт – а другие нет). Рассылать советы в переписке было бы слишком долго, да и некоторые проблемы сходны, так что все разом описать гораздо удобнее. Если не хотите, чтобы сайт попал в такой обзор – просто удалите мой доступ к нему.
UPDATE 17.03.2018
Получаю много комментариев со скриншотами отчета по блокировщикам, где показатели не вписываются в описанную картину. Кажется, тут есть глобальное недопонимание. Объясняю еще раз, по пунктам:
- Разница в поведенческих метриках в отчете по блокировщикам выявлена на достаточно значительной выборке. Это типичная, медианная картина. Но вовсе не факт, что на вашем конкретном сайте она будет такой же. По статистике курилщики живут меньше. Но кто-то курит с пятого класса и бодрячок в 90 лет.
- Отчет по блокировщикам несовершенен. Это не святой Грааль, а дополнительный способ посмотреть на свой проект, узнать о нем что-то новое. У кого-то он сработает, у кого-то нет. Ждете 1-2 универсальные циферки, которые дадут ответ по любой проблеме? У меня для вас плохие новости: на дворе 2018-й год.
- Я считаю, что обвал трафика произошел из за низких ПФ, одной из причин которых может являться реклама. Ее влияние мы часто можем отследить в статистике. Остальные факторы – не можем. Хорошо, что есть хоть что-то.
Наконец, прежде чем делать любые выводы с отчетом по блокировщикам:
- Задайте сегмент по одному типу устройств. Если у вас смешаны в кучу десктопы и мобильные – толку от отчета не будет.
- Задайте сегмент по источнику трафика. Нас интересует поисковый трафик.
- Задайте сегмент по новизне посетителя. Старые пользователи могли привыкнуть к рекламе.
- Убедитесь, что набирается хотя бы 5000 визитов с блокировщиками.
В противном случае у вас будет не статистика, а информационный шум.
Алеша, большое спасибо вам за работу, осталось только разобраться со своим сайтом. Мне кажется, что у меня проблема из-за того, что реклама Гугла стоит в самом начале статьи, еще до текста. Оттого и ПФ теряются. Попробую переставить через несколько абзацев вниз и посмотрю, что будет. Та, что в сайтбарах вряд ли мешает, и внизу статьи никого не напрягает, думаю.
Руководство хотелось бы почитать, если пришлете – буду благодарна.
Галина, если напишу, то вам отправлю в первую очередь 🙂
Я тоже отправила запрос на руководство и доступ оставила открытым в яндекс-метрике. Очень много интересного нашла там.
Алексей, только не бейте. Все-равно не могу понять. У меня с блокировшиком и без него цифры практически одинаковые – у глубины, времени на сайте и % отказов.
Не буду 🙂
У вас действительно странная картина по блокировщику и без, заметил это еще когда изучал. Но разница есть и в последнее время отказы для пользователей без блокировщика подросли (обратите внимание на сегментацию): https://yadi.sk/i/FOSj2H3E3TNUQB
Это еще один сигнал, что не все упирается в рекламу.
Привет!
У мысль такая, что если видимость баннеров гугла станет меньше, то и кликабельность их упадет, не смотря на то, что количество посещений страницы, возможно, увеличится. То на то и выйдет, смысл дергаться?
Спасибо за исследование.
Руководство будет как нельзя кстати.
По поводу лояльности пользователей на просевших сайтах. Пример единичный, но он есть – 1000.menu
По поводу разницы в % отказов с адблоком и без – так на выживших сайтах ровно та же картина. Попахивает ошибкой выжившего? Или я ошибаюсь?
Да нет. Скорее всего Яндекс не смотрит на разницу в поведении. Он смотрит на то, как люди себя ведут на выдаче. Но у нас этих данных нет, приходится изворачиваться. Отчет по блокировщикам помогает закрыть одну из проблем – анализ зарекламленности. Но не более того. Печально, но для практики я пока ничего лучшего не придумал.
Алексей, огромное спасибо. Очень ждали все статью. Я заглянула в отчёты, с блокировщиком и без, пришла в ужас. Резкий скачок вверх (блокировщик используется). Причём в один день, с 24 февраля. Я в этот день установила новый шаблон. Теперь вот думаю, надо наверное старый обратно вернуть? Увеличение идёт раз в 8.
Насколько я вижу по вашей статистике, отказы действительно подросли, хотя и не так критично. Возможно, дело не в шаблоне как таковом, а в отдельных страницах, которым он не подходит. Стоит проверить, не поехала ли верстка в важных статьях.
Очень полезно, спасибо за проделанную работу:) Ждем руководство 😉
Со статистикой по блокировщикам нужно быть очень осторожным. Вот кейс по одному просевшему сайту: https://yadi.sk/d/A2auPEqi3TMLSi. В среднем отказов с блокировщиком в 2 раза меньше, казалось бы всё понятно. Но по каждому типу устройств картина обратная – что на ПК, что на мобилах отказов с блокировщиком даже немного больше :). А всё потому, что получается сильный перекос по распределению блокировщиков по устройствам. Алексей, вы как-то учитывали это?
Да, разумеется, я смотрел только на показатели для десктопа. Смешивать все в одну кучу это неправильно (в идеале было бы вообще просегментировать по размеру экрана, но для этого выборки слишком маленькие, так как наличие-отсутствие блокировщика определяется слишком редко).
У меня с рекламой больше времени проводят на сайте 🙂 http://prntscr.com/iqzo92
Это в порядке вещей (уже писал об этом, отвечая на другой комментарий). Плюс у вас довольно мало визитов с блокировщиком, цифры могут плясать на такой маленькой выборке.
У тебя было 7 забаненных и 95 незабаненных в выборке , верно ? На скольки из этих 7 ты обучался в итоге , и сколько ушло в тест ? (у тебя в тексте фигурирует 5 в тесте , что странно.)
Конечно же не 7 в выборке 😀
7 штук – это на которых есть достаточно много молодых страниц с трафиком (чтобы можно было отследить, упали они или нет после 30-го). В обучении использовал 63 сайта. Рассматривал больше, но часть выкинул из-за малого объема статистики или наличия проблем в Google.
Алексей, у меня до 30.01.18 на пострадавшем сайте отказы посетителей с блокировщиками были больше, чем отказы посетителей без блокировщиков. После 30.01.18 эти показатели сравнялись. Как это можно объяснить?
А статистики достаточно накопилось? Визитов с блокировщиком больше 5000 после 30-го?
Да, визитов больше 5000. Трафик на сайте после падения 3000 уник/сут.
Не берусь угадать тогда 🙂
Возможно реклама не так уж мешает и проблемы в данном случае не из-за нее.
Как всегда отличное исследование Алексей ) А с чем по вашему мнению был связан откат? Несколько моих проектов просели, но позднее трафик вернулся в полном объеме
Спасибо!
Ну, если пальцем в небо: Яндекс собрал статистику на сайтах конкурентов, увидел что они не лучше и вернул ваш. Но могли и просто свой баг откатить.
Благодарю! Море проделанной работы! И щедро ею поделились…
Попробую следовать инструкции, но я решила все-таки перейти на Гугл и забить на Яшку.
Приветствую. Отличный материал, поделился в твиттере и своей группе ВК.
Вот данные по одному контентному проекту по метрике блокировщика за вчера:
Отказы без блокировщика 13%
Отказы с блокировщиком 2.6%
Всего учтено 1840 посетителей.
Однако, всего вчера было около 12000 с поисковых систем. Получается остальные просто не учтены и возможно если корректно учесть весь трафик, то разница в статистике отказов выровняется.
Если брать последний квартал, то данные по отказам примерно схожи: без блокировщика 13.3% с блокировщиком 4%. Сайт под фильтры не попал. Но опять же – учтено 20% от всего трафика с поисковиков. Если взять средние отказы по сайту, то они около 8%, что далеко от 13.3%.
Реклама расставлена достаточно агрессивно, но только рся и adsense.
То есть данный фактор можно учитывать, но вкупе с остальными. Например, на этот сайт с толоки было очень много заходов в декабре, январе – судя по вебвизору оценивали явно качество рекламы. И что примечательно, с февраля такая сильная активность с толоки упала практически до нуля. То есть можно сделать вывод, что если сайт был в зоне риска исходя из отчетов по блокировщику, но видимо по оценкам толокеров он оказался в норме.
Да, увы. Раньше думал, что там ситуация получше, но определяет со скрипом.
100% верно! Святых Граалей в SEO нет.
Спасибо за полезную информацию, буду разбираться дальше. Но вот посмотрела в Яндекс-Метрике и обнаружила, что с блокировщиком рекламы посетители проводят даже меньше времени на сайте, чем с блокировкой http://prntscr.com/ir0i2w. Я правильно поняла, что в моем случае реклама не при чем? Подписалась на вашу рассылку.
Совсем не факт. Обратите внимание на разницу в отказах. Больше времени на сайте как раз может быть из-за рекламы. Человек пришел, стукнулся о баннер, кликнул, провел на сайте рекламодателя 30 секунд, вернулся, продолжил чтение. Но это кто-то стукнулся, а кто-то сразу ушел.
Вроде бы все выводы логичные и разумные, но если проблема действительно в ПФ и рекламе (как причине плохих ПФ), возникает 2 вопроса:
1. Почему из огромного количества сайтов с примерно одинаковыми ПФ, пострадала лишь очень небольшая часть, а не все?
2. Если проблема в рекламе, то почему ее снятие, не дает ощутимого роста ПФ (например, снижения отказов). Экспериментировал на 2 пострадавших сайтах – убрал всю агрессивную рекламу (оставил только 3 блока – 1 в тексте, 1 после текста и 1 в сайдбаре), но показатель отказов от этого практически не поменялся (например, был 13,3%, стал – 12,7%). Т.е. влияние рекламы на него было минимально. Хотя в отчете с блокировщиком/без разница примерно в полтора раза.
Эмиль как раз об этом я и пишу, спасибо за вопросы, они иллюстрируют суть:
1. Потому что настоящие ПФ знает только Яндекс. Практически уверен, что поведение на выдаче (возвраты в поиск с сайта, например) гораздо важнее любой информации в Метрике. Я только чуть-чуть подсмотрел в щелочку один-единственный (хотя и важный для статейника) аспект – насчет зарекламленности. Добавьте к этому разный объем статистики, накопленной по каждому сайту и неявную комбинацию с другими факторами.
2. Именно поэтому я советую работать комплексно. Реклама – это на поверхности, а на реальные ПФ влияет много факторов.
Алексей,
Огромный респект за оригинальное использование отчета о блокировщика. Просто и элегантно ))
Есть ряд вопросов по статье и моим наблюдениям:
1) А в твоей выборке “пострадавших” сайтов были ли ресурсы НЕ женских тематик?
2) Не обратил ли ты внимание что вылетают только ВЧ запросы?
У меня если сортирануть анализатор позиций по частотке, то после какой-то отсечки (100-150-200-250 по WS “”) в анализатор позиций всё до и после 30.01 осталось “зеленым”… Прямо чудеса какие-то))
3) Если падение по причине плохих ПФ, то почему падение пока только на десктопах? Ведь они менее зависимы от заспамленности рекламой и скорости загрузки страницы нежели мобилки. Логичнее было бы менять алгоритмы по ПФ с мобилок или сразу с двух устройств)
Спасибо за высокую оценку!
1. Да, были. IT, литература, ремонт – это навскидку, были и другие.
2. По моим наблюдениям, вылетает практически все. Но такая ситуация как описал тоже возможна – по мене частотным может быть слабая конкуренция, так что сайт даже со “штрафом” нормально ранжируется.
3. Это как раз говорит в пользу ПФ. Если бы были санкции например за текст, то не было бы смысла делать разное ранжирование. А тут разные устройства, разный пользовательский опыт – разная выдача. Все логично.
зашел в метрике в пункт который указывается в статье:
“Стандартные отчеты – Технологии – Наличие блокировщиков”
на сайте с 1к уников в сутки – там показывается полная хрень. якобы у меня за год -на сайте было 300 уников всего…
Да, отчет несовершенен, я писал об этом в посте. Увы. Работаем с тем что есть.
Спасибо за интересный материал, попробую на нескольких своих сайтах под фильтрами.
А что можете сказать по поводу просадки позиций и трафик с Google после 6 марта? Тему уже обговаривают на серче и других форумах.
Толком не смотрел, у меня среди клиентов нет пострадавших, пока никто не обращался.
У меня на пострадавшем сайте отказы без блокировщика больше в полтора раза, хотя реклама им не резалась (адблоком точно) – всё на своих доменах, уникальной разметке.
Спасибо за исследование.
Проверил у себя все, и к сожалению, есть ощущение не соответствие найденной корелляции
Пул упавшей медицины – разница в отказах адблок/без – 2%
Пул не упавшей медицина – разница – в три раза.
Получается полностью наоборот, там где косвенно определяется зарекламленность – сайты не упали, а там где ее косвенно нет – упали и очень сильно
Алексей, нужно понимать, что этот отчет – это как Page Speed. Не меряет реальную скорость, а показывает, стало лучше или хуже и можно ли улучшить. Нет смысла сравнивать отдельные сайты по этому показателю, нужно сравнивать разные периоды для одного сайта. Ну и конечно все ситуации этим отчетом не охватить (где-то недостаточно статистики, например)
Интересный разбор.
Как думаете имеет ли смысл улучшать старую страницу сайта с некачественным устаревшим контентом и большим объёмом напопленных ПФ. А так-же большим количеством беклинков ?
Или лучше создать новую страницу на новом URL с улучшенным контентом под те же ключи что и старая страница? А старую страницу удалить или поставить 301 редирект на новую страницу.
Данный вопрос применительно к информационным и коммерческим сайтам, к гуглу и яндексу.
Думаю, да, стоит.
асессоры не дремлют…
Алексей, а как отслеживать результаты, если доля посетителей с блокировщиками всего 5% от общего числа посетителей? Конечно, процент отказов с блокировщиками в 2 раза меньше, а остальные показатели практически не изменились. Выборку взяла большую, за год. Но честно, не поняла ничего.
Да, это проблема отчета. Но тем не менее, можно и на него ориентироваться (главное, чтобы абсолютное число визитов для которых рассчитываются показатели было приличным). Делают же соцопросы и по ним судят о всех. И более-менее угадывают. Это нормально.
1.
Но, вот что интересно: вскоре такая статистика станет неактуальной, потому что уже сейчас активно используются блокировщики блокировщиков рекламы. И тогда, скажем, те же показатели отказов станут выравниваться для пользователей с Адблоком и без него.
2.
А какое ваше мнение будет на этот счет: использование припаркованных белых доменов для рекламы все же оберегает сайт от падения (это утверждение и реальность). Я думаю, что есть некий черный список офферных и тизерных сетей для Я.Браузера и Адблока. И сверка с этим списком дает свой тот или иной эффект.
3.
Тут на днях был один новый и неприятный момент. Что было: вставил тизерный код (припаркованный домен) через плагин монетизации, а его заблочил Адблок. Взял этот же код и вживил прямо в статью – опа и реклама показывается. Вывод: Адблок стал блокировать уже на уровне плагина монетизации.
1. Надо смотреть по своему сайт, разумеется. Если юзается антиблокировщик – то в отчете ловить нечего, конечно.
2. Да, это может помочь если работать с не слишком белыми темами. Думаю, аллергия на конкретные рекламные сети у Яндекса есть.
В итоге что мы имеем? Хостовый фильтр? Подокументный? Позапросный?
Вообще не фильтр. Фильтр это все-таки скорее жесткие санкции (обычно с уведомлением в Вебмастере). Но если не придираться к терминологии – то хостовый.
Алексей, ждем с нетерпением вашего руководства!
Мне очень нравится подача информации в вашем блоге, так же с удовольствием использую ваш сервис.
Так что с удовольствием поделилась ссылкой на пост в своем телеграмм канале – https://t.me/chymovaya_89/56
Спасибо Вам, Алексей, за статью, я то думала это мой личный блоговый апокалипсис) не представляла что делать…
Среди множества прочитанного ценными оказались статьи только лишь Максима Довженко (откуда, собственно я и пришла)) и Ваша.
Наталья, рад что пригодилось!
Добрый день. Не понятно, почему на основе результатов только 7 сайтов делается глобальный вывод о причинно-следственной связи.
Еще не ясно, почему причина именно в поведенческих? Других причин нет? Вам же девушка в верху пишет, что ваши выводы не коррелируют с её сайтами.
Я не вижу на скринах сравнение год к году? Может есть сезонность?
И еще… А кто-то проверял корректность работы кода метрики? 🙂
Опять про 7 сайтов.
7 сайтов – это те, для которых есть достоверная статистика по молодым страницам. Это (а также распределение трафика до и после апдейта по другим страницам на всех сайтах выборки) вместе позволяет сделать вывод, что алгоритм работает на уровне хоста.
Всего в выборке было 70 с лишним проблемных сайтов. Для разных этапов исследования привлекались также выборки в 1500 сайтов со стабильным трафиком и 22 с выросшим. Остальное мне комментировать лень, честно говоря. Какой смысл пересказывать статьи? Прочитайте внимательно для начала.
Дело не в 7 сайтах.
“Многие скептически восприняли мой вывод о том, что причина просадки — слабые поведенческие факторы.
Источник: http://alexeytrudov.com/web-marketing/seo/kontentnyie-saytyi-i-yandeks-pf.html#comment-2780”
Значит я не один, кто сомневается в вашей рабочей гипотезе. Проблема в том, что не рассмотрены альтернативные гипотезы и не сопоставлены их результаты.
И что единственная общая черта, сайтов, потерявших трафик – плохие поведенческие? Еще вопрос, а где установлены пределы “хорошие”, “плохие” поведенческие?
Дело именно в них. Это показатель, что вы весьма поверхностно познакомились с материалом, так что в дискуссии нет смысла.
Алексей, вот у меня замкнутый круг получается. Вот посмотрите:
1) если просел дескоп, то значит поведенческие у него хуже , чем у мобильной версии. Т.е. получается, что сейчас (в связи с новым алгоритмом) необходимо рассматривать позиции сайта отдельно: мобильную и дескопную. Правильно? 2)Если у меня один и тот же запрос в дескопе на позиции 100, а в мобильной на позиции 2, то как мне его улучшать и переделывать? Ведь с мобильников сейчас заходов на порядок больше. Я ведь могу так улучшить, что и в мобильной версии упасть в выдаче.
3) как улучшать поведенческие факторы в дескопной версии, если не дают шансов. Позиции на столько низко в выдаче, что до них никто не доберется, вы хоть “бисером вышивайте” в статье.
4) если фильтр хостовый, то получается какую новую статью не писал бы, как бы хорошо она не была оптимизирована… все равно шансов в выдаче у нее нет. Возвращается к нашим баранам…надо улучшать поведенческие. Но как же Яндекс заметит, что поведенческие улучшены и когда? Через месяц или год?
Извините за сумбурный комментарий. Надеюсь, вы уловили мою основную мысль.
2 – Хорошее замечание, как раз хотел это упомянуть в руководстве. Правильно рассуждаете, нужно принимать во внимание позиции в мобильной выдаче и стараться их не поломать.
Мысль уловил. Да, ситуация сложная. Но что делать? Работаем с тем что есть. Или берем и делаем новый проект.
@Екатерина Чеснакова,
Я бы вам рекомендовал почитать ответы Елены Першиной (представитель поиска Яндекс) в публикациях к алгоритму Баден-Баден. В одном из них четко сказано, что алгоритмы поисковиков давно ушли далеко вперед. Т.е. поведенческие факторы, хоть и важны, но кроме них есть много других важных сигналов. Посмотрите, что она пишет о полезности контента. И вот что получается. Если контент не совсем релевантен запросу и не полностью удовлетворяет информационные запросы пользователей, то никакие поведенческие его не спасут.
С уважением,
Ради интереса решил у себя посмотреть и… вот он http://prntscr.com/irahye тот забавный момент, когда показатель отказов ВЫШЕ с включенным блокировщиком!
Т.е. страстные ненавистники рекламы, оказываются менее удовлетворены сайтом, чем те, кто видят рекламу 🙂
Все бывает) Но на скрине совсем непоказательно, потому что разделены устройства и не задан сегмент на новых пользователей.
Поделюсь своей ситуацией.
Когда у людей упал траф с десктопов, у меня упал и десктоп и мобильный. Иногда в течение дня траф на статью возвращался, потом снова падал. Убрал из текста немного ключевых слов, позиции вернулись. Странно, подумал я, ведь анализ текста конкурентов не показал мою переоптимизированность (а текстовых метрик у меня 25, часть из которых считает Без-бубна).
Проверил страницы на “текстовый пост-фильтр “Переоптимизация”. И опа, все просевшие страницы были под фильтром! Убрал наобум ключи, позиции стали возвращаться.
“Иногда в течение дня траф на статью возвращался, потом снова падал.
Источник: http://alexeytrudov.com/web-marketing/seo/kontentnyie-saytyi-i-yandeks-pf.html#comment-2781”
Изменения (статистика) за несколько дней статистически не значима – это статистический шум. Делать какие-либо серьезные выводы на данных за очень короткий период времени не целесообразно.
Интересный кейс! А можно поподробнее?
1. Каким инструментом проверяли наличие «текстового пост-фильтра «Переоптимизация»?
2. “Позиции стали возвращаться”. Работали над всеми документами на сайте или только над частью?
Алексей, спаибо! На блоге ссылочку оставил 🙂
Появился вопрос!
А что если разница в отказах и других метриках у юзеров с блокировщиками рекламы и без них – глюк метрики?
Посмотрите, пожалуйста, что показывает метрика по этому поводу на каком-нибудь посещаемом коммерческом сайте (на котором, естественно, нет никакой рекламы). Вдруг там будет та же картина?!
ps
Вот что у меня показывает Я Метрика на моем интернет-магазине! А рекламы на нем отродясь не бывало. С блокировщиком или без – сайт выглядит одинаково.
https://yadi.sk/i/fga9ya8Y3TPh2i
Это ставит под сомнение всю надежду на то, что есть какая-то реальная зависимость от данной метрики 🙂
Но у меня очень не большая статистика. Можно сказать, что не репрезентативная выборка.
Может быть у вас она больше по подобным проектам! Проверьте, пожалуйста!
Значимых различий пока не встречал, но все может быть конечно. Буду смотреть.
Спасибо)
Да, глюки тоже возможны. Поэтому нужно сравнивать только когда накопится достаточно много визитов и с блокировщиком и без. На коммерческих тоже по идее возможна разница (например, из-за разной аудитории – все-таки люди с блокировщиками обычно более продвинуты в IT). Так что берем во внимание только сильные различия.
Я так понимаю, тем, чьи проекты пока еще не порезало, нужно срочно снимать с сайта Метрику! Чем меньше информации у Яндекса о поведении посетителей на сайте, тем меньше шанс словить штраф за плохие поведенческие. )))
Алексей, как вы думаете, включение вебвизора в Метрике дает Яндексу дополнительную информацию или только визуализирует ее для вебмастера?
Среди пострадавших сайтов есть сайты без включенного Вебвизора?
Думаю дает, иначе вроде бы нет технической возможности это отследить. Но у него и без Вебвизора полно информации.
Алексей, здравствуйте.
поясните, пожалуйста, цифры, что они означают, можно просто пример привести показателей.
————————–
Например, показатель отказов на «нормальных» сайтах для пользователей с блокировщиком ниже всего на 0,1% (медиана). Пострадавшие проекты демонстрируют разницу в 0,25%. Тоже совсем немного, так ведь? Но если брать в выборку только сайты с относительно большим объемом трафика, для которого было определено наличие блокировщика, или взять статистику за более длительный период, разница стремительно растет, доходя до 2-4%
————————–
И второй момент. У меня сайт просевший несколько не вписывается в описанную картину:
1. после второго падения мобильного трафика, он не вернулся.
2. 18 февраля была снята вся реклама(кроме блока в сайдбаре), но при этом метрики с блокировщиком и без блокировщика практически не изменились
Буду благодарен, если обратите на это внимание.
И еще один момент:
——————–
Поведенческие метрики в отчете по блокировщикам сильно отличаются от средних по сайту. Как правило, глубина просмотра для визитов, где удалось определить наличие/отсутствие блокировщика выше. Думаю, чем больше страниц просмотрел посетитель, тем проще Метрике разобраться с технологиями его браузера.
——————–
1. глубина просмотров бывает меньше двух страниц, значит что иногда блокировщик определяется с первой страницы
2. всегда время на сайте в этой метрике значительно выше чем в среднем по сайту – логично предположить что блокировщик определяется не по нескольким страницам а по времени проведенном на сайте. ( реклама часто грузится дольше)
3. если блокировщик определяется по большому времени или большой глубине просмотра, то процент отказов был бы 0 . потому что отказы это посещения меньше 15 секунд.
вот скрин с коммерческого сайта за год https://pp.userapi.com/c845016/v845016106/481c/_dVG_4Wlqg0.jpg
Спасибо за наблюдения, да, логично.
p.s. Добавил еще пару пояснений в пост.
У меня отказы с блокировщиком точно такие же, как и без него. Мое мнение, произошедшее изменение связано с толокой. Возможно именно “специалисты” , за 5 рублей оценивающие сайты, сравнивающие: внешний вид сайта, контент, соответствует ли статья запросу и пр. отдавали предпочтение более примитивному контенту и внешнему виду сайта (яркие картинки на весь экран и пр.). Что можно ожидать от людей, которые, как правило, не имеют высшего образования, нормальной работы, не знают как заработать, большинство из которых с низким уровнем интеллекта. Поэтому в топе сейчас группы ВКонтакте, примитивные тексты, рассчитанные на эту прослойку общества. Под этим как раз сейчас и получается – что это ПФ. Только не в рекламе дело, точнее не только в ней.
Заглянул в метрику для одного сайта: http://ibb.co/miufVH
Попробуйте объяснить 🙂
Для начала непонятно, какой это трафик (нет условий сегментации). Плюс статистики слишком мало.
Пропадейтил пост, почитайте в конце.
Алексей, с интересом прочёл обе крайние статьи, постоянно пользуюсь Мутагеном – спасибо за большой и полезный материал!
У меня с 2000 года вообще никогда не было и нет рекламы ни на старом сайте, ни на новом блоге.
Тем не менее ЯД сначала в 2013 закрыл мастерскую для бесплатных сайтов, потом поднял цену на рекламу в Директ.
Теперь – с января вижу просадку на всех статейных блогах в том числе и на своём.
В тоже время на каналах «YouТube» от Гугла – статистика не пострадала.
Алексей, не находите что-то радикально меняющееся по отношению к блогерам именно только на ЯД?
Пожалуйста, только не понял, причем здесь Мутаген)
Не думаю, скорее зацепило заодно.
Алексей, полагал Мутаген Ваше детище …
Нет)
Спасибо за Ваши труды, Алексей.
Очень интересно Ваше мнение, касаемо одного вопроса по ПФ. Буду очень благодарен за ответ.
Вот есть у меня статейник на 100 статей, предположим. Для их ПФа я сделал максимум – написали легко, корректоры, юзабилити тесты и прочее-прочее. Сделали максимум.
Есть мысль прикрутить на сайт форум. Именно в форуме я не нуждаюсь (это минусовая затея по деньгам), но я надеюсь, что а) это убережет сайт хотя бы от части фильтров – при автоматической или ручной проверке. Мол, это не безликий статейник, живой форум есть, не будем его фильтровать. Такое может быть или мои фантазии? б) живой форум хорошо увеличит ПФ сайта в целом. Грубо говоря, было 1.3 минуты и 1.4 шага на человека без форума, с форумом станет 3 минуты и 6 шагов по сайту. Можно ли рассчитывать на то, что поднимутся из-за улучшения ПФ сайта в выдаче статьи? Или мухи (форум) отдельно, котлеты (статьи) отдельно?
Сомневаюсь что убережет, так как позапросные ПФ это не улучшит. Может и будет позитивный эффект (если удастся сделать действительно живой форум, что сложно), но все-таки мне больше нравится
Если форум, это скорей всего поддомен, ПФ на сайт не прокатят. Знакомый добавлял как то социальную сеть вместо форума. Вроде не жаловался и с ней легче работать. Опять же таки, проще добавить кастомные записи, типа рубрика вопрос – ответ и туда гнать низкочастотники. Так сейчас все и делают.
Как раз не поддомен хочу, а в папку, ибо сугубо для улучшения ПФа сайта в целом. Я понимаю, что плаваю в вопросе фильтров, их вагон и маленькая тележка. Но “с дивана” и со стороны логики: первый сайт – просто статейник со стандартными 1.2 минутами и 1.3 шага на посетителя и второй, статьи которого имеют +- такие же поведенческие, но допом есть форум, который а) улучшает ПФ сайта в целом в разы б) добавляет ништяков в виде ядра пользователей, брендовых запросы и интайп траффик. Явно ж второй заслужил больше ништяков, полезней людям. Значит его “обижать” нельзя и траффика даже можно подлить.
А вопросы-ответы есть, активный раздел. Но особых вистов по ПФу не дает.
За статью спасибо, нового для меня не открылось ничего, только подтверждение. Проверяйте каждую статью на наличие фильтра через Пиксель Тулс. 80% проблемы сидит там.
Только результаты нужно интерпретировать осторожно, т.к. сервис основан на методике попарного сравнения, к которой очень много вопросов.
Да, в целом хватает сокращение количества ключей, под которые точим статью и обязательно обращать внимание на заголовки h2 и h3. Если есть перебор с ключами там. тоже сокращаем. Допустим пишет на статью пост фильтр и стоит она на 80 позиции. Куда уже хуже))) ключ, под который точим статью указывается в статье на 13 000 символов 54 раза. Жесть! Нужно сокращать.
Алексей, не заметили ли вы, писал может уже кто наблюдается просадка трафика с 29 марта как с десктоп, так и с мобильной и в этот момент у яндекса много Апов замечено. Смотрю в яндекс вебмастера инструмент ТРЕНДЫ показывает снижение у конкурентов то же. Делаю вывод что к моему сайту претензий нет, либо сезонность включилась, либо яндекс что-то тестирует. Есть наблюдения в этот период?
Нет, в последние дни толком не изучал.
У меня на паре сайтов есть такое. А может и не такое, судя по тренду, у конкурентов все путем. Но что поделать!?
Спасибо, за информацию Алексей. Не знал даже, где нужно копать, пока Вашу статью не нашел. Сегодня десктопный трафик восстановился
http://prntscr.com/j62ufy
Владимир, подскажите, а после каких действий десктопный трафик у вас восстановился?
1. Убрал тизерную рекламу сверху. (как показалось, упал трафик после толоке)
2. Проверил кеш плагин, к удивлению он у меня был отключен, после обновления WordPress.
3. Добавил всплывающее окно снизу на самый популярную статью, это увеличило время и глубину.
Владимир, да, пожалуйста, поделитесь. Мы сидим без трафика.
Владимир, а чем выводили всплывающее окно?
Сделал свой плагин под шаблон. Выводить его не сразу , спустя 6 секунд, тогда кликабельность выше.
3. Добавил всплывающее окно снизу на самый популярную статью, это увеличило время и глубину.
– можно по подробнее ?
Заходит посетитель, проходит 6 секунд, снизу подымается окно, предложение зайти на статью (я выбрал самую популярную). Посетитель заходит, глубина растет, время пребывания на сайте растет.
Алексей. Приветствую!
Может быть не в тему поста спрошу (А может быть и в самую тему )
Вообщем что думаешь по поводу последней (от 20 апреля) волны фильтра “Малополезный контент” в вебмастере? Очень много вебмастеров пострадало….
Ситуация повторяется (ноябрь 2017 года)?
Сейчас многие грешат на рекламу (особенно на блоки adsense ссылок в первом экране). Но не у всех, кто получил метку в вебмастере стояли эти блоки.
Верю что твое экспертное мнение и видение ситуации – прояснит ситуацию..
спасибо!
Борис, я пока не изучал толком ситуацию. Думаю, периодически запускают масштабную волну санкций, смотрят на ПФ пользователя в новой выдаче и если есть улучшение – то пессимизация остается. Если видят что пользователи не находят того, что надо – подкручивают обратно и часть сайтов возвращает позиции. Надо также понимать, что конкуренция нарастает и поэтому Яндексу все с большей вероятностью найдется чем заменить наказанных.
Причины же фильтра обычно достаточно очевидны – плохая структура и контент, избыток рекламы (может быть что-то одно из перечисленного, может и все сразу). Исключения, когда страдают действительно качественные сайты, редки.
А может не париться и тупо удалить страницы с худшими ПФ?
“Тупо удалить” – не лучшая идея в большинстве случаев. Для начала непонятно, какие именно это страницы 🙂 Всю раскладку по ПФ знает только поисковик.
А вообще, действительно нечего париться: сайт просел, страницы с плохими ПФ просели еще больше, соответственно остались страницы с лучшими ПФ и в целом постепенно сайт накопит лучшую статистику ПФ. Спасибо Яндексу))
Далеко не факт. Просели те, где по совокупности факторов не стали дотягивать до топа. То есть все это зависит от конкуренции, текстовой оптимизации, ссылочного на страницу и т.д.
Здравствуйте, Алексей! Вчера задала вопрос Першиной, а сегодня получила ответ. Из ее ответа у меня вытек новый вопрос. Не могли бы вы мне помочь разобраться.
Я спрашивала: “Если в контрольной группе статей были произведены изменения, которые ни к чему не привели, означает ли это, что причина в этих статьях так и не была устранена? Или же не стоит ждать возврата позиций, пока не будет наведен порядок на ВСЕМ сайте. Меток и санкций в вебмастере нет.”
Мне ответили: “Если у вас нарушение, то порядок нужно наводить на всем сайте.”
Означают ли слова Елены, что сейчас на моем сайте плохо ранжируются даже те статьи, с которыми все в порядке (нет спама, переоптимизации, рекламы, хорошие ПФ и т.д.), а причина – наличие статей, к которым есть претензии?
Уточню: впервые мой сайт просел вместе с баден-баденом, а с конца января этого года спад продолжился.
Наталия, может быть множество причин и разные ситуации. Но в принципе, если просадка была именно в конце января, то велик шанс, что хорошим материалам мешают другие части сайта. Заметьте, я не говорю “статьи, к которым есть претензии”. Проблема может быть, например, в неэффективной навигации. Или технических недочетах. В чем угодно. Так что ответ Елены вполне уместен, на мой взгляд.
Спасибо за возможные причины! А мой вариант о вреде именно других статей допустим или невозможен?
Да, тоже вполне допустим.
У меня статейник по интерьерам, сайту 1,5 года, был постоянный рост трафика, постепенный. Но 25-30 августа 2018 трафик с Яндекса снизился почти в 2 раза, равномерно с ПК и смарфонов, даже с ПК чуть сильнее упал. По страницам входа тоже равномерно. Позиции упали от 2-3 пунктов (по страницам в топ-5) до 20 (по страницам топ-20).
Алексей, как думаете, это Баден-Баден, переспам ключей, или что-то другое?
Может быть много причин, без детального изучения статистики сказать невозможно.
помоги с сайтом пожалуйста, если можешь глянь хотя 5-10 минут и на вскидку скажи что не так! реально деньги ушли а роста проекта нет!
буду благодарен!
За 10 минут ничего толкового насмотреть нельзя. В каждый сайт нужно тщательно вникать, это минимум 7-8 часов.
Приходи на SmartConf, доклад в том числе в развитие темы у меня будет.
А может не париться и тупо удалить страницы с худшими ПФ?
Источник: https://alexeytrudov.com/web-marketing/seo/kontentnyie-saytyi-i-yandeks-pf.html
Не думаю что это выход. Страницы часто трафиковые. Даже после падения.