Очередное обновление сервиса https://bez-bubna.com/ доступно всем клиентам. Окончательный релиз стал еще ближе, уже сейчас аудиты для более-менее посещаемых сайтов содержат массу данных, которые могут серьезно помочь в оптимизации.
Версия 0.4 включает множество мелких исправлений и доработок (улучшен парсер, собирающий информацию о страницах, стали более понятными некоторые формулировки в отчете “Проработка страниц” и так далее).
Главное же в том, что появился ряд дополнительных проверок, собранных в новом отчете “Структура и индексация”.
Анализ robots.txt и sitemap.xml
Задача этой части аудита – отловить противоречия между картой сайта, robots.txt и реальными посадочными страницами. Зачем это нужно? Например, для определения некорректного robots.txt, который скрывает от поиска важные страницы.
Думаете, такое редко случается? Напрасно. Вот скриншот опроса о причинах обвала сайтов в поиске:
Как это выявляется на сервисе? Очень просто:
(Посадочные страницы собираются за сравнительно длительный период. Это позволяет отследить как свежие ошибки, так и сделанные пару месяцев назад).
Еще один пример проверки:
Неполный sitemap – не слишком большая проблема, хотя и может осложнять индексацию сайта. А вот бесконтрольное появление страниц нередко разрушает структуру сайта и серьезно вредит в плане поискового трафика.
Не буду утомлять перечислением всех проверок, перейдем к следующему разделу.
Поиск проблемных страниц
Частично страницы, над которыми имеет смысл поработать, уже отображаются в отчете “Потерянный трафик“. Разумеется, url-ами, которые перестали получать посетителей из поиска, потенциальные проблемы сайта не исчерпываются. Поэтому встречайте новые списки “подозрительных” страниц:
- Дающие статистически значимый трафик из Яндекса, но вообще не приносящие посетителей из Google и наоборот.
- Перечисленные в sitemap, но не приносящие посетителей из Яндекса, Google, или вообще ниоткуда:
Такие документы стоит в первую очередь проверить на индексацию и корректность контента, его полноту и качество. Если страница длительное время вообще не дает визитов с поисковых систем – с ней что-то не так.
Определение внутренней конкуренции
Третья часть затрагивает вопросы логической структуры сайта, адекватности распределения контента по нему. Здесь отображаются ключевые слова, дающие трафик сразу на несколько страниц.
Зачем это нужно? Все просто. Внутренняя конкуренция обычно свидетельствует о “размазанном” по сайту контенте, нечеткой структуре, что неудобно для пользователя. С точки зрения “чистой” поисковой оптимизации “неустойчивость” релевантной страницы – тоже плохо:
Удивительно, как часто поиск ошибается в подборе релевантной страницы. Опыт показывает, что простое исправление текущей релевантной на настоящую целевую страницу само по себе способно улучшить ранжирование и привлечь дополнительный поисковый траффик.
Также назначение отчета поможет понять статья Сергея Кокшарова – Каннибализация ключевых слов – забытая проблема внутренней оптимизации.
Конечно, не всегда ситуация “1 запрос – несколько страниц” это признак проблем. Например, для сайтов, работающих на разные регионы это вполне нормально (пользователи из разных городов получают разный контент). Но наше дело – предупредить. Проверка списка обычно не занимает много времени, зато, как показали тесты, отлично помогает отлавливать нечеткие дубли и (и не только).
Как выглядит новый отчет можно посмотреть в демо-версии. Анализ выполнен на примере моего блога. Чтобы пример был более содержательным, я временно дописал в robots.txt следующее:
Disallow: /dnevnik/
Это имитация ошибочного закрытия части страниц. Сервис сразу отловил несоответствие, поэтому демо достаточно показательное, там демонстрируется большинство проверок, за исключением анализа внутренней конкуренции. Чего нет на блоге, того уж нет.
Заходите, проверяйте сайты, добивайтесь роста трафика и конверсий!
Предыдущие анонсы: версия 0.1, версия 0.2, версия 0.3.
p.s. Так как изменений довольно много, то, несмотря на тщательные тесты, где-то могут скрываться новые баги. Кроме того, пока не готова справка по этому отчету. Впрочем, для тех, кто знает хотя бы азы SEO, все довольно очевидно. Cпециально для храбрецов, которым баги не страшны – скидка 30%. Скидка распространяется на все покупки проверок до 8 сентября включительно. Разумеется, об ошибках можно и нужно писать мне – я приложу все усилия по их исправлению.
SEO-прорыв ждет вас!
Может быть, дашь погонять сервис на шару за отзыв? ))
Почему нет, только лучше после релиза (версии 0.1), когда будут все фишки реализованы.
Хорошо, буду ждать приглашения на почту, адрес не фейковый ))
Шикарно-))
Доброго здоровья Алексей! Понравился ваш сервис. Заметно техническую подготовленность по обнаружению про блем сайтов. Вчера ваш сервис выполнил аудит моего блога и выявил: “Обнаружен аномально высокий процент отказов у пользователей с определенными браузерами/операционными системами/разрешениями”. Вот этот процесс рисования отказов – дискредитация моего блога с целью понижения в поисковой выдаче? и меня лично получается. Писал по этому поводу Яндекс -метрике. Они посоветовали фильтр настроить. Я думаю, разве фильтр тут поможет? Алексей, вы технически грамотный и опытный – это заметно сразу. Совет нужен – как мне поступить? Промолчать? Контентом и делами своими заниматься. Благодарю заранее. С уважением Михаил Николаев
Михаил, добрый день!
Не думаю, что есть какая-то дискредитация. Стоит проверить, насколько хорошо отображается сайт на разных разрешениях. Можно использовать встроенный функционал в Mozilla (Веб-разработка – Адаптивный дизайн). Возможно, на каком-то разрешении ломается верстка. Впрочем, возможно что и все в порядке. Это просто сигнал, что надо посмотреть и проверить.
Пример я показывал в анонсе этого отчета: https://alexeytrudov.com/web-marketing/service/seo-proryiv-versiya-0-3.html