Бесплатный инструмент: поиск и кластеризация важных запросов в нише (анализ выгрузок Serpstat)

Очень часто требуется быстрый анализ поискового спроса в тематике. Например, это полезно при оценке ниши. Какие запросы самые популярные? Как их используют другие сайты? Наберется ли достаточно много ключевиков с низкой конкуренцией?..

Подобных вопросов возникает очень много. Обычно они не требуют проработки с высокой точностью. На первом этапе важно уловить ориентиры, чтобы решить, стоит ли вообще лезть в эту нишу и если да – то с чего начать.

Как я искал ответы раньше

До недавнего времени работал по стандартной схеме сбора семантического ядра, разве что не стараясь дотянутся до всех возможных НЧ-ключей. То есть собирал запросы – отправлял на кластеризацию – смотрел основные тенденции по кластерам.

Мне всегда казалось, что это не слишком эффективный подход. Использовать это ядро потом нельзя (нужна более глубокая проработка), а сбор и кластеризация все-таки не бесплатные.

При работе под Рунет все не так страшно. Доступ к Яндекс.xml через сервисы покупки-продажи лимитов вроде Xmlproxy позволяет делать кластеризацию очень дешево. А то и вообще бесплатно (я продаю в xmlproxy лимиты со своих сайтов, чтобы они “копились” в сервисе и их можно было использовать по необходимости).

Что делать с анализом ниш под Google? Тут скорее всего придется раскошеливаться на Rush Analytics. Для реального ядра – не жалко. Но анализ десятка ниш таким образом влетает в копеечку.

Альтернативное решение: используем готовую статистику по выдаче

В один прекрасный момент я вспомнил, что в сервисах, собирающих статистику по видимости сайтов уже давно хранятся данные по частотным запросам и релевантным url. Почему бы не применить это для поиска важных запросов и их группировки?

Сказано – сделано. Встречайте инструмент под эту задачу: https://bez-bubna.com/free/main-clusters.php (бесплатно, без регистрации). В качестве источника данных я выбрал Serpstat, так как он имеет хорошую базу ключей как по Рунету, так и по англоязычным сайтам.

Расскажу о том, как пользоваться инструментом.

1. Определяемся с конкурентом, который имеет максимальную видимость в нише

Например, нас интересуют ниша “магазин автозапчастей”. Формируем в инструменте анализа ключевых фраз Serpstat отчет по слову “автозапчасти” и идем в раздел по конкурентам:

2. Выгружаем ключевые фразы по 3-4 конкурентам

Переходим в отчет “Ключевые фразы”. Не забываем применить фильтр, чтобы отсеять НЧ:

Фильтрация нужна еще и для того, чтобы строк в отчете было не больше, чем лимит выгрузки, иначе мы можем потерять часть важных данных.

Теперь сохраняем в формате csv:

Аналогично для нескольких конкурентов с большим количеством общих фраз (смотрим первый отчет).

3. Сравниваем файлы

Переходим на страницу инструмента: https://bez-bubna.com/free/main-clusters.php

Указываем файлы выгрузок:

В итоговую таблицу выводятся фразы, которые есть в каждой выгрузке. Ключи объединяются в кластер, если им соответствует один и тот же набор релевантных url.

Чем больше файлов используем – тем больше запросов будет пропущено. Поэтому подбираем количество под свою задачу и пробуем несколько вариантов.

Результат из примера:

Файл из примера.

Все действо заняло 3 минуты. Несмотря на простоту алгоритма, с полученным файлом можно сотворить много интересного. Например (в дополнение к описанному на скриншоте):

  • Оценить, насколько широк охват семантики у лидеров рынка (если результат пересечения 4-5 сайтов совсем маленький – значит, конкуренты многое упускают);
  • Найти ключевые слова, которые есть у конкретного сайта в дополнение к общим – так можно уловить различия между конкурентами (используем инструмент для сравнения списков).
  • Найти  поисковые фразы с низкой конкуренцией (сравниваем с настоящим семантическим ядром, находим в нем кластеры, где нет ни одного запроса из выгрузки).

Успехов!

23 комментария

  1. Алексей, а только из серпстата фразы загружать можно, или просто файл со списком фраз можно загрузить и получю кластеры с ключами?

    • Затачивался именно под серпстат, там своя структура таблицы. Но если окажется, что инструмент востребован, расширю возможности. Пока просто под себя сделал

  2. Как лучше работать, если сайтов доноров не 3-4, а допустим, штук 9-12.
    С одной стороны, это хорошо, т.к. ядро будет более полным. С другой – групп с пересечением по такому количеству сайтов будет минимальное количество. Если же обрабатывать сайты частями, объединяя по 3-4, то получится дублирование одних и тех же групп и в результате каннибализация ключей.

    Получается – или урезанное ядро, но с автоматизацией группировки, или – относительное полное, но опять все ручками.

    Или можно как-то еще оптимизировать работу? Не соображу.

    • 9-12 не пробовал. Согласен с описанием проблем, думаю, просто по объективным причинам не получится работать с большим числом сайтов за раз.

  3. Можно приложить образец файла? А то у меня выгрузки из serpstat есть, но сервис их не принимает. Там ведь в зависимости от отчетов форматы разные, а сейчас доступа к serpstat нет.
    А вообще на будущее еще бы возможность загружать файлы из keys.so добавить.

    • Да, другие сервисы тоже собираюсь добавить.
      Образец файла добавил на страницу инструмента, см. ссылку справа.

  4. Да, задумка очень даже, по поводу количества сайтов = выгрузок из серпстата, получается как в обычных сервисах сила группировки, т.е. чем сайтов больше, тем сила выше и наоборот. Было бы очень здорово если бы добавил возможность загружать ключи не только из серпстата, но и из кейсо, спайвордс, ну и так далее… Можно было бы сделать пример подачи файла, т.е. с определенными колонками, по сути нужны тока ключи, урлы, да частотка, ну можно еще в качестве бонуса сделать несколько колонок с произвольными данными, которые собрали в КК или еще где, чтобы они тоже остались. В общем за инструмент спасибо, но если доработать, то вапще пушка будет!

    • Спасибо за идею! Даже странно что сам об этом не подумал.
      Так действительно проще всего будет – сделать один формат, а там каждый свои данные.

    • Увы. Да, его имеет смысл использовать, когда нужны многие его функции а не одна-две.

  5. Алексей, пишите что коллектор не используете. а что используете для сбора ключей и лучшего охвата ся? для группировки тоже коллектор не используете? что тогда ? спасибо.
    ps респект за контент на сайте – качественно

    • Дмитрий, для семантики rush analytics, keys.so, serpstat. Для группировки – rush analytics, key assort. По всему, кроме последнего, есть обзоры на блоге.
      Но коллектор тоже хорошая штука, универсальная.

      ps респект за контент на сайте — качественно

      Спасибо!

  6. алексей! а есть вариант платного глубокого семантического анализа и подбора ядра для ньюбов? на каком нибудь сайте ? Вот например для меня. есть у меня сайт квартир посуточно.региональный. на вордпресс. со ста страничками. я не сео мастер. мне над так- ввел слово посуточно или на сутки и программа сама проанализировала все.И конкурентов и низкочастотники которые еще не захвачены конкурентами, и среднечастотники и т.д. и т.п. и выдала мне результат в виде 100-300 фраз в контексте слова “посуточно” с комментарием- ” вставляй вот эти фразы в теги мета тайтл на старнички своего сайта и будет тебе счастье

    • Дмитрий, от и до ни один сервис не делает. Но можно заказать у живых исполнителей.

      вставляй вот эти фразы в теги мета тайтл на старнички своего сайта и будет тебе счастье

      А вот это вообще фантастика. Увы, в SEO слишком много нюансов, чтобы программа могла такое делать качественно.

  7. Я так понял сервис не работает?
    Делаю выгрузку из Serpstat по мануалу выше. Все время получается каша, запятые с точками не учитываются, в ключевые слова заносится первая строчка в файле…

Оставить ответ