Очень часто требуется быстрый анализ поискового спроса в тематике. Например, это полезно при оценке ниши. Какие запросы самые популярные? Как их используют другие сайты? Наберется ли достаточно много ключевиков с низкой конкуренцией?..
Подобных вопросов возникает очень много. Обычно они не требуют проработки с высокой точностью. На первом этапе важно уловить ориентиры, чтобы решить, стоит ли вообще лезть в эту нишу и если да – то с чего начать.
Как я искал ответы раньше
До недавнего времени работал по стандартной схеме сбора семантического ядра, разве что не стараясь дотянутся до всех возможных НЧ-ключей. То есть собирал запросы – отправлял на кластеризацию – смотрел основные тенденции по кластерам.
Мне всегда казалось, что это не слишком эффективный подход. Использовать это ядро потом нельзя (нужна более глубокая проработка), а сбор и кластеризация все-таки не бесплатные.
При работе под Рунет все не так страшно. Доступ к Яндекс.xml через сервисы покупки-продажи лимитов вроде Xmlproxy позволяет делать кластеризацию очень дешево. А то и вообще бесплатно (я продаю в xmlproxy лимиты со своих сайтов, чтобы они “копились” в сервисе и их можно было использовать по необходимости).
Что делать с анализом ниш под Google? Тут скорее всего придется раскошеливаться на Rush Analytics. Для реального ядра – не жалко. Но анализ десятка ниш таким образом влетает в копеечку.
Альтернативное решение: используем готовую статистику по выдаче
В один прекрасный момент я вспомнил, что в сервисах, собирающих статистику по видимости сайтов уже давно хранятся данные по частотным запросам и релевантным url. Почему бы не применить это для поиска важных запросов и их группировки?
Сказано – сделано. Встречайте инструмент под эту задачу: https://bez-bubna.com/free/main-clusters.php (бесплатно, без регистрации). В качестве источника данных я выбрал Serpstat, так как он имеет хорошую базу ключей как по Рунету, так и по англоязычным сайтам.
Расскажу о том, как пользоваться инструментом.
1. Определяемся с конкурентом, который имеет максимальную видимость в нише
Например, нас интересуют ниша “магазин автозапчастей”. Формируем в инструменте анализа ключевых фраз Serpstat отчет по слову “автозапчасти” и идем в раздел по конкурентам:
2. Выгружаем ключевые фразы по 3-4 конкурентам
Переходим в отчет “Ключевые фразы”. Не забываем применить фильтр, чтобы отсеять НЧ:
Фильтрация нужна еще и для того, чтобы строк в отчете было не больше, чем лимит выгрузки, иначе мы можем потерять часть важных данных.
Теперь сохраняем в формате csv:
Аналогично для нескольких конкурентов с большим количеством общих фраз (смотрим первый отчет).
3. Сравниваем файлы
Переходим на страницу инструмента: https://bez-bubna.com/free/main-clusters.php
Указываем файлы выгрузок:
В итоговую таблицу выводятся фразы, которые есть в каждой выгрузке. Ключи объединяются в кластер, если им соответствует один и тот же набор релевантных url.
Чем больше файлов используем – тем больше запросов будет пропущено. Поэтому подбираем количество под свою задачу и пробуем несколько вариантов.
Результат из примера:
Файл из примера.
Все действо заняло 3 минуты. Несмотря на простоту алгоритма, с полученным файлом можно сотворить много интересного. Например (в дополнение к описанному на скриншоте):
- Оценить, насколько широк охват семантики у лидеров рынка (если результат пересечения 4-5 сайтов совсем маленький – значит, конкуренты многое упускают);
- Найти ключевые слова, которые есть у конкретного сайта в дополнение к общим – так можно уловить различия между конкурентами (используем инструмент для сравнения списков).
- Найти поисковые фразы с низкой конкуренцией (сравниваем с настоящим семантическим ядром, находим в нем кластеры, где нет ни одного запроса из выгрузки).
Успехов!
напиши плиз пост про кейколлектор если используешь и какая у тебя формула для конкуренции
Давно уже серьезно не использую, иногда по мелочи
Алексей, а только из серпстата фразы загружать можно, или просто файл со списком фраз можно загрузить и получю кластеры с ключами?
Затачивался именно под серпстат, там своя структура таблицы. Но если окажется, что инструмент востребован, расширю возможности. Пока просто под себя сделал
Отличный инструмент, спасибо за работу!
Как лучше работать, если сайтов доноров не 3-4, а допустим, штук 9-12.
С одной стороны, это хорошо, т.к. ядро будет более полным. С другой – групп с пересечением по такому количеству сайтов будет минимальное количество. Если же обрабатывать сайты частями, объединяя по 3-4, то получится дублирование одних и тех же групп и в результате каннибализация ключей.
Получается – или урезанное ядро, но с автоматизацией группировки, или – относительное полное, но опять все ручками.
Или можно как-то еще оптимизировать работу? Не соображу.
9-12 не пробовал. Согласен с описанием проблем, думаю, просто по объективным причинам не получится работать с большим числом сайтов за раз.
Можно приложить образец файла? А то у меня выгрузки из serpstat есть, но сервис их не принимает. Там ведь в зависимости от отчетов форматы разные, а сейчас доступа к serpstat нет.
А вообще на будущее еще бы возможность загружать файлы из keys.so добавить.
Да, другие сервисы тоже собираюсь добавить.
Образец файла добавил на страницу инструмента, см. ссылку справа.
http://s1.micp.ru/2c7l2.png пропала выгрузка!!
В смысле пропала?
Пробовали заново загружать?
да много раз, нет возможности выгрузить в эксель – только распечатать: http://s2.micp.ru/V6G3g.png
Попробуйте с другого бразуера или обновите Flash плеер
Да, задумка очень даже, по поводу количества сайтов = выгрузок из серпстата, получается как в обычных сервисах сила группировки, т.е. чем сайтов больше, тем сила выше и наоборот. Было бы очень здорово если бы добавил возможность загружать ключи не только из серпстата, но и из кейсо, спайвордс, ну и так далее… Можно было бы сделать пример подачи файла, т.е. с определенными колонками, по сути нужны тока ключи, урлы, да частотка, ну можно еще в качестве бонуса сделать несколько колонок с произвольными данными, которые собрали в КК или еще где, чтобы они тоже остались. В общем за инструмент спасибо, но если доработать, то вапще пушка будет!
Спасибо за идею! Даже странно что сам об этом не подумал.
Так действительно проще всего будет – сделать один формат, а там каждый свои данные.
Serpstat дорогущий, дороже rushanalitics!
Увы. Да, его имеет смысл использовать, когда нужны многие его функции а не одна-две.
Алексей, пишите что коллектор не используете. а что используете для сбора ключей и лучшего охвата ся? для группировки тоже коллектор не используете? что тогда ? спасибо.
ps респект за контент на сайте – качественно
Дмитрий, для семантики rush analytics, keys.so, serpstat. Для группировки – rush analytics, key assort. По всему, кроме последнего, есть обзоры на блоге.
Но коллектор тоже хорошая штука, универсальная.
Спасибо!
алексей! а есть вариант платного глубокого семантического анализа и подбора ядра для ньюбов? на каком нибудь сайте ? Вот например для меня. есть у меня сайт квартир посуточно.региональный. на вордпресс. со ста страничками. я не сео мастер. мне над так- ввел слово посуточно или на сутки и программа сама проанализировала все.И конкурентов и низкочастотники которые еще не захвачены конкурентами, и среднечастотники и т.д. и т.п. и выдала мне результат в виде 100-300 фраз в контексте слова “посуточно” с комментарием- ” вставляй вот эти фразы в теги мета тайтл на старнички своего сайта и будет тебе счастье
Дмитрий, от и до ни один сервис не делает. Но можно заказать у живых исполнителей.
А вот это вообще фантастика. Увы, в SEO слишком много нюансов, чтобы программа могла такое делать качественно.
Я так понял сервис не работает?
Делаю выгрузку из Serpstat по мануалу выше. Все время получается каша, запятые с точками не учитываются, в ключевые слова заносится первая строчка в файле…
Думаю, Serpstat поменял формат выгрузки, так что да, наверное стало неактуально.