Хотите получать поисковый трафик в 2018 году?
Тогда надо обеспечить сайту высокий показатель качества в глазах алгоритма Google Fred. Иначе дорога в ТОП по самым "вкусным" запросам для вас закрыта.
В этой PDF-книге я подробно описал, как повысить качество ресурса с минимальными затратами.
Что будет в рассылке?
- Новые статьи блога alexeytrudov.com.
- Обновления книги.
- Другие полезные руководства.
- Промокоды для SEO-сервисов.
Дополнительная информация о Google Fred - в моем докладе на SEMPRO и статье об осеннем апдейте.
Отзывы экспертов
Алексей проделал большую работу. Это лучшая инструкция, которую я встречал по данному вопросу.
В книге нет никакой воды, вся информация изложена понятно и по делу. Есть поясняющие скриншоты и приводятся ссылки на необходимые инструменты и справочные материалы. Одним словом, есть все, что нужно.
Михаил Шакин, автор блога shakin.ru
Очень правильная методика, которая актуальна будет не только в 2018 году.
В книге дано, по сути, пошаговое руководство - как находить "плохие" страницы, как при этом не перепутать их с потенциально "хорошими", как не забыть страницы, которые "интересны" не только Google. Разобраны все нюансы, детали, подводные камни и много дополнительного материала и полезных инструментов.
Прочитал книгу и пошел внедрять. Все. Больше ничего не нужно. В этом ее самая большая ценность!
Илья Русаков, основатель сервиса SEO-reports.ru и руководитель SEO-студии impulse.guru
Я изучал вопрос борьбы с Google Fred и могу сказать, что данное руководство содержит всю доступную информацию из СНГ и западных источников. Отлично структурировано, приправлено собственным опытом Алексея и нужными отсылками.
Даны конкретные пошаговые сценарии для избавления от Fred.
Минимум воды.На самом деле, руководство Алексея будет полезно не только тем, кто столкнулся с Fred, но и всем, кто хочет провести ревизию на сайте: избавиться от мало полезных документов и улучшить хорошие страницы для получения большего трафика из поисковых систем.
Благодарю Алексею и рекомендую к изучению.
Игорь Рудник, руководитель системы крауд-маркетинга Referr.ru
Инструкция написана с позицией «не навреди» — как вернуть трафик не потеряв уже имеющийся. Это очень важно, т.к. часто возвращая одно, можно потерять другое. Подробно прописан каждый шаг — бери и делай. Это единственная инструкция по выводу сайта из-под фильтра Фред. Спасибо Лёше за проделанную работу!
Евгений Аралов, тимлид Siteclinic, автор блога aralov.me
Инструкций по борьбе с Google Fred в рунете не встречал, но в целом это руководство стоит воспринимать как методику аудита контента на сайте, опирающуюся на данные аналитики.
Если у вас просел или не растет трафик из Яндекс, можно работать по такой же схеме. В целом инструкция отражает подход Лёши к исследованиям и другим мануалам в блоге: пошагово, с упором на аналитику, с обоснованием действий.
В руководстве минимум теории, она дана ссылками на другие статьи. Пошагово разбирается как найти некачественные страницы и страницы с потенциалом. В особенности подойдет владельцам статейников. Только главное не остановиться на этапе анализа, а внедрить.
Антон Шабан, частный SEO-консультант, автор блога weareweb.ru
Проделана большая работа по изучению Google Fred. В рунете я пока не встречал ни одного толкового руководства по работе с Фредом.
Алексей собрал весь свой опыт и наблюдения в одном файле и делится с сообществом, что похвально.
Указанные в руководстве методы анализа подходят не только для Google Fred, но и для диагности просадки трафика по другим причинам. Получилось универсальное руководство поиска причин просадки трафика. После прочтения, взял на вооружение пару методик и уже успешно внедрил в рабочий процесс.Спасибо Алексею за большой труд и рекомендую руководство к изучению.
Александр Арсёнкин, Основатель SEO-инструментов ARSENKIN Tools
Алексей, пока я не прочитала книгу, мне нравились Ваши исследования. Теперь я думаю, что не стоит тратить на них время – лучше пишите больше таких инструкций 🙂
Спасибо за столь полезный материал!
Спасибо за теплые слова, исследования мне самому все-таки ближе. 🙂
ну вот Алексей, я как то говорил что тебе нужен магнит для подписчиков) теперь подписываюсь в твою рассылку! очень интересно, что ты написал в мануале.
Да, собрался в конце концов 🙂
Здравствуйте, есть ли смысл все равно искать и работать над “плохими” статьями, если в марте не было падения трафика? Есть шанс, что после такой процедуры вырастет трафик из Гугла?
Илья, да, смысл есть. На мой взгляд, в марте-феврале поменялся скорее подход к классификации страниц (то есть раньше страница считалась “хорошей”, а теперь считается “плохой”). А общее правило “плохие могут топить хороших” действует уже давно. Поэтому, если нет более срочных задач, то вполне разумно провести аудит контента и сделать доработки на его основе.
Спасибо за руководство! Интересует один момент: почему вы рекомендуете закрывать “плохие” страницы в ноиндекс, а не редиректить, к примеру, на главную? Вот спорим с коллегами. Чем первое решение лучше второго, на ваш взгляд? Спасибо!
Владимир, редиректить тоже можно, но noindex более мягкое и универсальное решение:
– позволяет сохранить страницу для Яндекса
– позволяет сохранить страницу для пользователей
– в случае необходимости можно быстро вернуть страницу в индекс (есть шанс, что сохранятся некоторые факторы ранжирования).
Но если для конкретного проекта более уместным кажется редирект – можно использовать и его, никаких проблем.
Здравствуйте! После добавления метатега meta name=”googlebot” content=”noindex,follow” из карты сайты sitemap нужно этот урл убрать?
Если вы используете отдельные карты для Google и Яндекса – да, в идеале стоит убрать. Но не критично, если и останется. Нужно оптимизировать не только сайты, но и усилия по работе над ними 🙂
Убрал из карты урлы, надеюсь яндексу карта не сильно нужна :). Алексей, у вас получалось добавлением метатега noindex,follow вывести сайт из под гугл Фред?
Да, есть пара кейсов, где удалось чисто настройками индексации улучшить трафик. Но в большинстве случаев я работал по трем направлениям: закрытие от индекса/доработка/создание новых посадочных.
Добрый день!
Алексей, при определении “хороших” страниц ищем те, на которых был трафик из Google за последние 3 месяца, согласно руководству.
Те, на которых был за этот период всего 1 визит (а если 2,3…5…10 при наличии большего поискового спроса), тоже считаем хорошими?
Михаил, для большинства сайтов да, считаем “хорошими”. Они могут быть “плохими”, но с меньшей вероятностью, чем те, где трафика нет. Суть в том, чтобы сначала сделать самые массовые доработки. Если не помогает – ну тогда приходится браться за точечную проработку. Но не раньше.
Алексей, добрый день!
Спасибо вам за проделанную работу. Очень полезное и интересное руководство. Скажите, пожалуйста, если несколько статей объединяются в одну или есть неполные (смысловые) дубли статей, то предпочтительнее все же использовать rel=canonical? Или 301 редирект? После внесенных изменений лучше самому отправить в Гугл на переиндексацию или просто подождать? По вашим наблюдениям, как быстро после внесенных изменений возвращается лояльность Гугла?
Александр, рад, что пригодилось.
1. Я бы использовал редирект. Только убедившись сначала, что весь полезный контент сосредоточен на адресе – цели редиректа.
2. Изменения сказываются небыстро (потому что нужно пересчитать рейтинг всего сайта), от нескольких недель. Если сайт небольшой – то можно просто подождать, существенно ускорить процесс не получится. Если проект крупный – то надо ускорять обязательно. Хороший вопрос кстати, надо будет добавить в руководство.
Алексей, спасибо за ответ))
Еще хочется услышать ваше мнение по возможным причинам Fredа в моей ситуации. Изначально, трафик стал падать еще в ноябре 2016г, что совпало с фильтрами unnamed. Затем было снижение, скорее всего, в связи с Fredом. Насколько я понял, вы больше склоняетесь к тому, что unnamed – это фильтр за переоптимизацию статей. Переоптимизация привела к понижению позиций и, соответственно, приличная часть статей у Гугла сменили свой статус с хорошей на плохую. Соотношение хороший/плохой поменялось и, уже после этого, добавился фильтр Fred. Как вы считаете, в правильном направлении мои размышления?
Не совсем так. Понижение за переоптимизацию – это один конкретный unnamed в сентябре 2017. Про 2016 ничего не могу сказать, не изучал то обновление.
Да, такое может быть.
Автор, спасибо за статью, помогла реально! Со вчерашнего дня позиции и трафик стали постепенно восстанавливаться
Отлично!
спасибо! отличный мануал! было бы здорово если бы написал другие мануалы по всем поисковым санкциям для яндекса и гугла.
алгоритм определения и вывода.
Рад, что понравилось. По другим мануалам – может когда-нибудь и соберусь, хотя конечно времени это требует космического.