Трафик из Google c минимальными затратами – презентация с доклада на SEMPRO 2017

В пятницу выступал на SEMPRO 2017. Доклад ориентирован в первую очередь на веб-мастеров, у которых есть желание заработать на англоязычных сайтах, но нет мешка денег на инвестиции в проект. Оптимизаторам будут интересны выводы из исследования Google Fred. 

Как и обещал, публикую слайды.


Презентация достаточно подробная. Пожалуй, я впихнул даже слишком много информации, поэтому выступление получилось менее гладким и удачным, чем могло бы быть.

Пара замечаний:

  • Удивился, что в кулуарах было много вопросов про поиск зеркал сайтов. Способ очевидный, основан на том, что Google годами хранит информацию о старых версиях сайтов. Пример проверки на слайде 14: берем уникальную фразу из контента и забиваем ее в Гугл, попутно исключив из выдачи основной домен. Думал, все так делают, а оказалось что эта “фишка” многим запомнилась из доклада больше всего (а я старался, выборки собирал, то-се…).
  • Перед исследованием перечитал массу западных статей про Google Fred. В основном это была абсолютно бесполезная трата времени. Если вам не нравится русскоязычная SEO-блогосфера – попробуйте найти в буржуйнете что-то кроме воды.
  • Методика поиска ниш и стратегий действительно рабочая. Готовясь к выступлению я просмотрел 3 разных ниши – и везде нашел несколько интересных сайтов. В презентацию вошла только половина кейсов, остальное пылится в черновиках. Возможно, напишу как-нибудь и о них (вряд ли очень скоро – важных тем и так много: Баден-Баден, новые сервисы, конкурс от Seonews, а там и до BDD недалеко…).

Сама конференция мне понравилась, с удовольствием съезжу и в следующем году. Привет всем новым знакомым, отлично пообщались!

54 комментария

  1. Персонаж Бабулер несколько лет в дорвейном сегменте на серче продвигал примерно те же вопросы. Над ним смеялись, когда он рассказывал о сайтах про гусей. Теперь еще на генеренку (синомайз) добавить побольше картинок, чтобы увеличить время пользователя на сайте, проведенное за их разглядыванием, уменьшить до предела размер текста, чтобы не мешался и вуаля – еще один долгоживущий удачный дорвей.

  2. Учитывая, что я скорее программист, от таких экспериментов появляется нехилый зуд в конечностях ))). Любой эксперимент, чтобы считаться подтвержденным, должен быть повторен в независимых лабораториях )

    • Именно.
      Потому я и пишу осторожно “Гипотеза имеет право на жизнь”, а не “Стопудово я прав!111”

      • За неимением гербовой… )
        Тут важна общая оценка. Причем в большинстве рассмотренных кейсов, я подозреваю, трафик выше. Например, сайт №2 работает с событийным трафиком, который вряд ли попадает в базы сервисов видимости.

  3. Сгенерированный контент выкладывался с уникальными тайтлами или спаршенными с источника?

    • Тайтлы делались уникальными, этому в шаблонах было уделено особое внимание – в этом суть заточки под НК-запросы

    • Там сайт из кейса №1 организовал рейтинги образовательных программ (просто статьи-обзоры). На них охотно ссылались сайты колледжей, чтобы подтвердить качество своих услуг.

      • Спасибо за ответ! А что за фишка с поиском зеркал? Где можно подробнее про это узнать?

      • Вроде нигде – погуглил, не нашел 🙂
        Придется самому писать, раз интересуют подробности.

  4. Касательно эксперимента в конце презентации, чисто для интереса – как отнесся к этому сайту Яндекс? Был ли с него трафик?

    • Правильный вопрос. Яндекс интенсивно сканировал сайт и спустя пару недель выплевывал 2/3 страниц, а потом и еще больше. Сейчас в индексе порядка 10 000 при 100 000 визитов робота. Это еще раз говорит о том, что страницы – “плохие” по формальным критериям.

      • А оставшиеся в индексе как себя чувствовали в плане ранжирования? Например по средним позициям в динамике?

        Можно ли сделать вывод, что Яндекс имеет более продвинутые алгоритмы определения “некачественных” страниц?

  5. когда ты пишешь генерка заточена под нч-запросы ты имеешь ввиду что делаешь титл = нч, h1 = нч, meta=? а уже статья копипаста как и была, так?

    • Нет, там весь контент делается слегка уникальным по шаблону, и мета и основное содержание.

  6. кейс очень заинтересовал.
    а нет ли возможности посмотреть сам доклад?
    из презентации некоторые вопросы не очень понятны..

  7. Очень интересно. А про шаблон по-подробнее не расскажите?) Синонимайз + графика + уникальный тайл + уникальные мета, а ключи? Неестественные вхождения в рандомных местах или как?)

    • Увы, делиться подробностями не могу, тем более что схема не только моя.
      Но намекну что вы смотрите немного не в том направлении, хотя оно тоже может работать.

      • Это понятно, но почему так сильно вылез в топ? Если взять те же по отдельности, то не факт, что так же взлетят.

      • Агрегация придала доп. ценность + охват множества ключей за счет объема

      • Алексей, то есть создались новые связи по распределению ключей, их плотности?

        Просто как тогда доп ценность растет от первых 100 уник слов к примеру или всего лишь смена titl.

      • Я думаю в этом конкретном случае все банально. Поисковик видит огромный текст и думает – ого, сколько инфы + вероятно поведенческие не такие уж плохие.
        А первые 100 уник. слов – это скорее для того, чтобы не улетать в “очень похожие” результаты и если занять не ТОП-1, то хотя бы где-то рядом.

  8. > ого, сколько инфы + вероятно поведенческие не такие уж плохие.

    да видимо человек получает ответ неплохой еще.

    > «очень похожие» результаты

    имеется в виду страница признается как дубликат и не участвует в поиске полноценно?

    просто если я ввожу текст скажем предложением в гугле и яндексе и на первом месте скопированная страница, значит, гугл и яндекс признают ее первоисточником?

    • имеется в виду страница признается как дубликат и не участвует в поиске полноценно?

      Да.

      просто если я ввожу текст скажем предложением в гугле и яндексе и на первом месте скопированная страница, значит, гугл и яндекс признают ее первоисточником?

      Не первоисточником. А наиболее релевантным результатом (и для каждого запроса – он может быть свой).

      • а есть какие то запросы для гугла и яндекса, чтобы определить, что страница склеилась и является дубликатом и не участвует в поиске?

      • Не думаю. Нужно смотреть просто разные запросы. Склейка – запросозависимая.

  9. По докладу еще вопрос, если можно: “Fred смотрит на хорошие плохие страницы”

    Если из 1000 страниц на сайте 900 плохие с точки зрения фреда (копипаст, генеренка), то может быть фильтр?

  10. Привет! Очень интересная презентация, много полезной информации. Обратил внимание на слайд 7 – я думаю, что немаловажным фактором того что сайт вылез в топ-3 и занял 2 позиции сразу также является то что в его домен входит основное ключевое слов “sport magament degree” (сам домен называется sport-management-degrees.com ).
    Учитывая, что ниша узкая ( о чем ты сам писал на слайде 8), наверняка сайт мог быстро “залететь” в топ также благодаря домену. Далее я думаю сыграли важную роль ПФ (если я в узкой нише найду хороший сайт, то я добавлю его в закладки) что также положительно сказалось на продвижении. + Всё то что ты писал.
    Как думаешь, теория имеет право на жизнь?

Оставить ответ