Это очередной выпуск SEO-заметок. В таких постах пишу обо всем, что привлекло мое внимание в сфере профессиональных интересов за последнее время, но не выросло в отдельную статью.
Зомби-страницы и западные SEO-блогеры
Примерно раз в неделю слышу мнение, что на Западе интернет-маркетинг опережает наш на три года. Неоднократно писал (например, здесь), что я категорически не согласен с этой точкой зрения. Впрочем, поучиться у именитых специалистов из-за границы тоже есть чему. Вот яркий пример:
В чек-листе из видео вряд ли будет что-то новое для человека, который хотя бы изредка почитывает статьи по SEO. Но! Обратите внимание то, как подана информация! Каждый пункт продуман и максимально разжеван. Видео достаточно короткое, но не оставляет незакрытых вопросов.
Больше всего восхищает (и заставляет страдать белой завистью) походя введенный термин “zombie pages”. Зомби-страницы! Такое не забудешь. Я сам, когда писал руководство по поиску и устранению этих самых страниц, обозвал их “плохими” и на том успокоился. “Плохие” по сравнению с “зомби” выглядят крайне уныло, надо честно признать.
В общем, если хотите продвигать для клиентов в ENG-сегменте или строить свои проекты там – учитесь упаковывать и презентовать информацию.
Аудит контента с использованием Google Analytics – в чем засада?
Продолжая тему поиска плохих зобми-страниц. Когда вышло мое руководство, я получил несколько критических комментариев вот такого плана:
До сих пор никто мне так и не смог донести, почему Метрику нельзя использовать для анализа трафика из Google. Зато я могу объяснить, почему для этих задач зачастую крайне неудобно и нерационально использовать Google Anayitcis.
Причина проста:
Семплирование – это урезание выборки, на которой строится отчет. Если вы запрашиваете в Google Anayitcis нестандартный отчет за более-менее длительный период для минимально посещаемого сайта – получите не точные данные, а оценку, рассчитанную на основе 5% – 10% визитов.
Для понимания общих тенденций отчета на кастрированной выборке достаточно, а вот для точного анализа на уровне конкретных точек входа – нет.
Еще одна раздражающая особенность Google Analytics – в том, что выгрузка в Excel содержит не полные данные, а лишь те, что отображены на странице. Например, если вы смотрите отчет по точкам входа и у вас сайт на 100 000 страниц, Anaylitics не даст выгрузить за раз больше 5000. Такие дела.
На заметку: для простых задач веб-аналитики (99% SEO-отчетов независимо от поисковика простые) можно смело пользоваться Метрикой с ее более быстрым интерфейсом и данными без семплирования.
Как определить накрутку трафика?
Еще немного похвал Метрике. Как-то меня попросили написать инструкцию по определению накруток трафика. Я начал было описывать типичные признаки ботов в статистике (одинаковая география, шаблонное поведение, одинаковое устройство и браузер…). А потом заглянул в отчет “Роботы”:
И понял, что Метрика отлично справляется сама:
Как минимум простая накрутка, которую можно вычислить по другим отчетам, определяется на раз-два.
Почему с 302 редиректом нужно быть бдительным
По моему опыту, некоторые движки любят ставить 302 редирект. В то же время для большинства стандартных задач по SEO нужен постоянный, то есть 301 редирект. На днях столкнулся с ситуацией, которая лишний раз подтверждает, что 301 – король среди редиректов.
Страница, на которую вел 302 редирект выпала из индекса Яндекса с формулировкой “неканоническая” в Вебмастере. Каноническим же стал url, с которого был поставлен редирект.
Такая ситуация не смертельна, но, как минимум, путает карты при анализе, так что лучше ее избегать, даже если 302-й удобнее с точки зрения настройки сайта. А в ряде случаев 302 вместо 301 вообще строго противопоказан. Мне встречались попытки клеить зеркала по временному редиректу – пример выше убедительно доказывает, что так делать совсем плохая идея.
Фильтр Яндекса “Малополезный контент, некорректная реклама, спам”
Часто спрашивают мое мнение по поводу волны санкций и понижения в ранжировании, которая накрыла информационные сайты 21-22 апреля. Я не исследовал выборки пострадавших, как в прошлый раз и вряд ли буду этим заниматься в ближайшее время. Если посмотреть на ситуацию в целом, то картина складывается достаточно ясная. Частые проблемы с инфосайтами, на мой взгляд, говорят о том, что контента в популярных нишах огромное количество, конкуренция высока. Соответственно, Яндекс может с легкостью пессимизировать множество сайтов без ухудшения качества выдачи.
По крайней мере, когда выбитые из топа статьи есть чем заменить, Яндекс может проводить такие вот масштабные эксперименты:
Забаним-ка 100 000 сайтов, чтобы дать дорогу молодым проектам. ПФ выросли? Наши доходы не упали, а скорее наоборот? Отлично! Возникли проблемы? Откатим назад и повторим через месяц.
Поэтому если вы серьезно занимаетесь статейными проектами, нужно поддерживать баланс между качеством ресурса для пользователя и эффективностью монетизации; иметь возможность быстро скорректировать баланс в сторону повышения качества. О некоторых подходах к повышению качества я недавно писал.
В той же статье обещал выпустить руководство по ПФ на статейных проектах, если наберется 100 желающих, кто поделится ссылкой и оставит свой e-mail. Желающих до сих пор не набралось (когда смотрел в последний раз было 85). Так что руководства, похоже, не будет.
Анонс Baltic Digital Days 2018
Если вы еще думаете, ехать в Калининград в августе или нет – самое время решаться, пока авиабилеты еще продаются по адекватным ценам. Сам я не выступаю, но, конечно, буду на конференции. Она меня еще ни разу не разочаровала (см. отзыв за прошлый год). Приезжайте, пообщаемся лично.
Сайт конференции с описанием программы: balticdigitaldays.ru
Уже выложена информация по спикерам, набор достаточно представительный, найдется кого послушать.
Программа еще более насыщенная, чем обычно. Традиционное препати на берегу Балтики дополняется соревнованиями по пляжному волейболу и боулингу, докладами в стиле TEDx и экскурсиями.
Промокод на скидку 1000 рублей: TRUDOV.
Сервис придумывания доменов
Пару месяцев назад мне понадобилось придумать домен. Повозившись полчаса и исчерпав идеи, я соорудил сервис для генерации вариантов (и быстро нашел парочку симпатичных незанятых рушек). Вот он: https://bez-bubna.com/free/domain-generator.php
А вот тут небольшой обзор и инструкция по его использованию от Антона Шабана.
На сегодня все. Предыдущие выпуски можно найти по тегу.
думал, что сервис поиска доменов проверяет их на занятость, но нет…
незачет(
Это слишком сложно в разработке и поддержке для бесплатного сервиса (если только ты не регистратор, чтобы сразу конвертить варианты в покупку домена). А платный пилить нет смысла, хотя бы потому что не моя сфера, свою задачу я решил.
гугл аналитикс страшная вещь просто))
Алексей, спасибо за заметки.
Может ли “cемплирование” влиять на анализ ctr?
Смотрю по серчконсоли а там фигня какая-то
например у ключа “приглашение + тема + скачать” – позиция 2 – цтр 40%
потом ключ “приглашение + скачать + тема” – позиция 2 – цтр 11%
Илья, возможно там и включается семлирование, но мы об этом не узнаем, так как других данных о CTR нет. Но думаю у вас скорее дело в том, что у вас разный объем статистики по этим ключам. Если нет нескольких тысяч показов там и там, то цифры могут сильно плясать.
Лёш, ты не прав по поводу фильтра «Малополезный контент, некорректная реклама, спам».
Это скорее не фильтр, а косяк команды Яндекс.Поиск. Сотни сайтов под него залетали и ничего не меняя оттуда вылезали. У меня несколько свежерегов с заглушками залетали под него.
Никакой взаимосвязи между качеством, рекламой и содержимым – нет.
Сам об этом писал:
Начало: https://trotsan.ru/novosti/malopoleznyiy-kontent-spam-izbyitok-reklamyi-tri-stolpa-odnoy-nesostoyatel-nosti/
Конец: https://trotsan.ru/novosti/malopoleznyiy-kontent-spam-izbyitok-reklamyi-razvyazka-istorii/
Похоже, ты невнимательно читал.
Так а я о чем пишу? О том, что откат/доработка алгоритма в порядке вещей, изначально так и запланировано.
То, что ее [возможно] нет на твоих проектах – не значит, что ее нет вообще. Миллион примеров фильтра именно за блоки ссылок от Adsense, маскирующиеся под меню.
В Гугл Аналитикс ползунок есть, чтобы получать более точные данные вместо семплированных. И чем бы не клеили зеркала, синеймом, 302-ым, 301-м или уже неработающих хостом в роботсе, все равно все ваши бэклинки увидим и домен – заабузим )
Ползунок есть, но полностью семплирование не победить)
Гуглу жалко серверов!