Практическое руководство по оптимизации сайта под новый алгоритм Google

Хотите получать поисковый трафик в 2018 году?

Тогда надо обеспечить сайту высокий показатель качества в глазах алгоритма Google Fred. Иначе дорога в ТОП по самым "вкусным" запросам для вас закрыта.

В этой PDF-книге я подробно описал, как повысить качество ресурса с минимальными затратами.

Что будет в рассылке?

  • Новые статьи блога alexeytrudov.com.
  • Обновления книги.
  • Другие полезные руководства.
  • Промокоды для SEO-сервисов.

Дополнительная информация о Google Fred - в моем докладе на SEMPRO и статье об осеннем апдейте.

Отзывы экспертов

Алексей проделал большую работу. Это лучшая инструкция, которую я встречал по данному вопросу.

В книге нет никакой воды, вся информация изложена понятно и по делу. Есть поясняющие скриншоты и приводятся ссылки на необходимые инструменты и справочные материалы. Одним словом, есть все, что нужно.

Михаил Шакин, автор блога shakin.ru

Очень правильная методика, которая актуальна будет не только в 2018 году.
В книге дано, по сути, пошаговое руководство - как находить "плохие" страницы, как при этом не перепутать их с потенциально "хорошими", как не забыть страницы, которые "интересны" не только Google. Разобраны все нюансы, детали, подводные камни и много дополнительного материала и полезных инструментов.
Прочитал книгу и пошел внедрять. Все. Больше ничего не нужно. В этом ее самая большая ценность!

Илья Русаков, основатель сервиса SEO-reports.ru и руководитель SEO-студии impulse.guru

Я изучал вопрос борьбы с Google Fred и могу сказать, что данное руководство содержит всю доступную информацию из СНГ и западных источников. Отлично структурировано, приправлено собственным опытом Алексея и нужными отсылками.

Даны конкретные пошаговые сценарии для избавления от Fred.
Минимум воды.

На самом деле, руководство Алексея будет полезно не только тем, кто столкнулся с Fred, но и всем, кто хочет провести ревизию на сайте: избавиться от мало полезных документов и улучшить хорошие страницы для получения большего трафика из поисковых систем.

Благодарю Алексею и рекомендую к изучению.

Игорь Рудник, руководитель системы крауд-маркетинга Referr.ru

Инструкция написана с позицией «не навреди» — как вернуть трафик не потеряв уже имеющийся. Это очень важно, т.к. часто возвращая одно, можно потерять другое. Подробно прописан каждый шаг — бери и делай. Это единственная инструкция по выводу сайта из-под фильтра Фред. Спасибо Лёше за проделанную работу!

Евгений Аралов, тимлид Siteclinic, автор блога aralov.me

Инструкций по борьбе с Google Fred в рунете не встречал, но в целом это руководство стоит воспринимать как методику аудита контента на сайте, опирающуюся на данные аналитики.

Если у вас просел или не растет трафик из Яндекс, можно работать по такой же схеме. В целом инструкция отражает подход Лёши к исследованиям и другим мануалам в блоге: пошагово, с упором на аналитику, с обоснованием действий.

В руководстве минимум теории, она дана ссылками на другие статьи. Пошагово разбирается как найти некачественные страницы и страницы с потенциалом. В особенности подойдет владельцам статейников. Только главное не остановиться на этапе анализа, а внедрить.

Антон Шабан, частный SEO-консультант, автор блога weareweb.ru

Проделана большая работа по изучению Google Fred. В рунете я пока не встречал ни одного толкового руководства по работе с Фредом.
Алексей собрал весь свой опыт и наблюдения в одном файле и делится с сообществом, что похвально.
Указанные в руководстве методы анализа подходят не только для Google Fred, но и для диагности просадки трафика по другим причинам. Получилось универсальное руководство поиска причин просадки трафика. После прочтения, взял на вооружение пару методик и уже успешно внедрил в рабочий процесс.

Спасибо Алексею за большой труд и рекомендую руководство к изучению.

Александр Арсёнкин, Основатель SEO-инструментов ARSENKIN Tools


Поделиться
Отправить
Плюсануть

22 комментария

  1. Алексей, пока я не прочитала книгу, мне нравились Ваши исследования. Теперь я думаю, что не стоит тратить на них время – лучше пишите больше таких инструкций 🙂
    Спасибо за столь полезный материал!

  2. ну вот Алексей, я как то говорил что тебе нужен магнит для подписчиков) теперь подписываюсь в твою рассылку! очень интересно, что ты написал в мануале.

  3. Здравствуйте, есть ли смысл все равно искать и работать над “плохими” статьями, если в марте не было падения трафика? Есть шанс, что после такой процедуры вырастет трафик из Гугла?

    • Илья, да, смысл есть. На мой взгляд, в марте-феврале поменялся скорее подход к классификации страниц (то есть раньше страница считалась “хорошей”, а теперь считается “плохой”). А общее правило “плохие могут топить хороших” действует уже давно. Поэтому, если нет более срочных задач, то вполне разумно провести аудит контента и сделать доработки на его основе.

  4. Спасибо за руководство! Интересует один момент: почему вы рекомендуете закрывать “плохие” страницы в ноиндекс, а не редиректить, к примеру, на главную? Вот спорим с коллегами. Чем первое решение лучше второго, на ваш взгляд? Спасибо!

    • Владимир, редиректить тоже можно, но noindex более мягкое и универсальное решение:
      – позволяет сохранить страницу для Яндекса
      – позволяет сохранить страницу для пользователей
      – в случае необходимости можно быстро вернуть страницу в индекс (есть шанс, что сохранятся некоторые факторы ранжирования).
      Но если для конкретного проекта более уместным кажется редирект – можно использовать и его, никаких проблем.

  5. Здравствуйте! После добавления метатега meta name=”googlebot” content=”noindex,follow” из карты сайты sitemap нужно этот урл убрать?

    • Если вы используете отдельные карты для Google и Яндекса – да, в идеале стоит убрать. Но не критично, если и останется. Нужно оптимизировать не только сайты, но и усилия по работе над ними 🙂

      • Убрал из карты урлы, надеюсь яндексу карта не сильно нужна :). Алексей, у вас получалось добавлением метатега noindex,follow вывести сайт из под гугл Фред?

      • Да, есть пара кейсов, где удалось чисто настройками индексации улучшить трафик. Но в большинстве случаев я работал по трем направлениям: закрытие от индекса/доработка/создание новых посадочных.

  6. Добрый день!
    Алексей, при определении “хороших” страниц ищем те, на которых был трафик из Google за последние 3 месяца, согласно руководству.
    Те, на которых был за этот период всего 1 визит (а если 2,3…5…10 при наличии большего поискового спроса), тоже считаем хорошими?

    • Михаил, для большинства сайтов да, считаем “хорошими”. Они могут быть “плохими”, но с меньшей вероятностью, чем те, где трафика нет. Суть в том, чтобы сначала сделать самые массовые доработки. Если не помогает – ну тогда приходится браться за точечную проработку. Но не раньше.

  7. Алексей, добрый день!
    Спасибо вам за проделанную работу. Очень полезное и интересное руководство. Скажите, пожалуйста, если несколько статей объединяются в одну или есть неполные (смысловые) дубли статей, то предпочтительнее все же использовать rel=canonical? Или 301 редирект? После внесенных изменений лучше самому отправить в Гугл на переиндексацию или просто подождать? По вашим наблюдениям, как быстро после внесенных изменений возвращается лояльность Гугла?

    • Александр, рад, что пригодилось.
      1. Я бы использовал редирект. Только убедившись сначала, что весь полезный контент сосредоточен на адресе – цели редиректа.
      2. Изменения сказываются небыстро (потому что нужно пересчитать рейтинг всего сайта), от нескольких недель. Если сайт небольшой – то можно просто подождать, существенно ускорить процесс не получится. Если проект крупный – то надо ускорять обязательно. Хороший вопрос кстати, надо будет добавить в руководство.

      • Алексей, спасибо за ответ))
        Еще хочется услышать ваше мнение по возможным причинам Fredа в моей ситуации. Изначально, трафик стал падать еще в ноябре 2016г, что совпало с фильтрами unnamed. Затем было снижение, скорее всего, в связи с Fredом. Насколько я понял, вы больше склоняетесь к тому, что unnamed – это фильтр за переоптимизацию статей. Переоптимизация привела к понижению позиций и, соответственно, приличная часть статей у Гугла сменили свой статус с хорошей на плохую. Соотношение хороший/плохой поменялось и, уже после этого, добавился фильтр Fred. Как вы считаете, в правильном направлении мои размышления?

      • Насколько я понял, вы больше склоняетесь к тому, что unnamed — это фильтр за переоптимизацию статей.

        Не совсем так. Понижение за переоптимизацию – это один конкретный unnamed в сентябре 2017. Про 2016 ничего не могу сказать, не изучал то обновление.

        Переоптимизация привела к понижению позиций и, соответственно, приличная часть статей у Гугла сменили свой статус с хорошей на плохую.

        Да, такое может быть.

  8. Автор, спасибо за статью, помогла реально! Со вчерашнего дня позиции и трафик стали постепенно восстанавливаться

  9. спасибо! отличный мануал! было бы здорово если бы написал другие мануалы по всем поисковым санкциям для яндекса и гугла.
    алгоритм определения и вывода.

    • Рад, что понравилось. По другим мануалам – может когда-нибудь и соберусь, хотя конечно времени это требует космического.

Оставить ответ