Трафик из Google c минимальными затратами — презентация с доклада на SEMPRO 2017

В пятницу выступал на SEMPRO 2017. Доклад ориентирован в первую очередь на веб-мастеров, у которых есть желание заработать на англоязычных сайтах, но нет мешка денег на инвестиции в проект. Оптимизаторам будут интересны выводы из исследования Google Fred. 

Как и обещал, публикую слайды.


Презентация достаточно подробная. Пожалуй, я впихнул даже слишком много информации, поэтому выступление получилось менее гладким и удачным, чем могло бы быть.

Пара замечаний:

  • Удивился, что в кулуарах было много вопросов про поиск зеркал сайтов. Способ очевидный, основан на том, что Google годами хранит информацию о старых версиях сайтов. Пример проверки на слайде 14: берем уникальную фразу из контента и забиваем ее в Гугл, попутно исключив из выдачи основной домен. Думал, все так делают, а оказалось что эта «фишка» многим запомнилась из доклада больше всего (а я старался, выборки собирал, то-се…).
  • Перед исследованием перечитал массу западных статей про Google Fred. В основном это была абсолютно бесполезная трата времени. Если вам не нравится русскоязычная SEO-блогосфера — попробуйте найти в буржуйнете что-то кроме воды.
  • Методика поиска ниш и стратегий действительно рабочая. Готовясь к выступлению я просмотрел 3 разных ниши — и везде нашел несколько интересных сайтов. В презентацию вошла только половина кейсов, остальное пылится в черновиках. Возможно, напишу как-нибудь и о них (вряд ли очень скоро — важных тем и так много: Баден-Баден, новые сервисы, конкурс от Seonews, а там и до BDD недалеко…).

Сама конференция мне понравилась, с удовольствием съезжу и в следующем году. Привет всем новым знакомым, отлично пообщались!

Поделиться
Отправить
Плюсануть

Читайте также
  • Сергей
    22.05.2017

    Персонаж Бабулер несколько лет в дорвейном сегменте на серче продвигал примерно те же вопросы. Над ним смеялись, когда он рассказывал о сайтах про гусей. Теперь еще на генеренку (синомайз) добавить побольше картинок, чтобы увеличить время пользователя на сайте, проведенное за их разглядыванием, уменьшить до предела размер текста, чтобы не мешался и вуаля — еще один долгоживущий удачный дорвей.

    Ответить
    • Алексей Трудов
      22.05.2017

      Ага, методов массового улучшения сайта до пристойного уровня в НК-тематиках полно.

      Ответить
  • Сергей
    22.05.2017

    Учитывая, что я скорее программист, от таких экспериментов появляется нехилый зуд в конечностях ))). Любой эксперимент, чтобы считаться подтвержденным, должен быть повторен в независимых лабораториях )

    Ответить
    • Алексей Трудов
      22.05.2017

      Именно.
      Потому я и пишу осторожно «Гипотеза имеет право на жизнь», а не «Стопудово я прав!111»

      Ответить
  • Александр
    22.05.2017

    Не совсем понятно, как были получены данные по траффику.
    Из трёх кейсов, по SimilarWeb схожие данные только у 3-го.

    Ответить
    • Алексей Трудов
      22.05.2017

      Serpstat, данные за конец апреля-начало мая

      Ответить
      • Андрей
        23.05.2017

        Смотрите трафик по серпстату? Да вы безумец!))

      • Алексей Трудов
        23.05.2017

        За неимением гербовой… )
        Тут важна общая оценка. Причем в большинстве рассмотренных кейсов, я подозреваю, трафик выше. Например, сайт №2 работает с событийным трафиком, который вряд ли попадает в базы сервисов видимости.

  • Александр
    22.05.2017

    Сгенерированный контент выкладывался с уникальными тайтлами или спаршенными с источника?

    Ответить
    • Алексей Трудов
      22.05.2017

      Тайтлы делались уникальными, этому в шаблонах было уделено особое внимание — в этом суть заточки под НК-запросы

      Ответить
  • Иван
    22.05.2017

    Добрый день!
    А то за бесплатные ссылки с edu сайтов? Как их получить

    Ответить
    • Алексей Трудов
      22.05.2017

      Там сайт из кейса №1 организовал рейтинги образовательных программ (просто статьи-обзоры). На них охотно ссылались сайты колледжей, чтобы подтвердить качество своих услуг.

      Ответить
      • Иван
        22.05.2017

        Спасибо за ответ! А что за фишка с поиском зеркал? Где можно подробнее про это узнать?

      • Алексей Трудов
        22.05.2017

        Вроде нигде — погуглил, не нашел 🙂
        Придется самому писать, раз интересуют подробности.

  • Иван
    22.05.2017

    Очень интересуют! С нетерпением жду

    Ответить
  • byDigo
    22.05.2017

    Респект за доклад, был очень рад познакомиться и пообщаться!

    Ответить
  • seoonly.ru
    22.05.2017

    Оч оч круто!

    Ответить
  • Владислав
    23.05.2017

    Касательно эксперимента в конце презентации, чисто для интереса — как отнесся к этому сайту Яндекс? Был ли с него трафик?

    Ответить
    • Алексей Трудов
      23.05.2017

      Правильный вопрос. Яндекс интенсивно сканировал сайт и спустя пару недель выплевывал 2/3 страниц, а потом и еще больше. Сейчас в индексе порядка 10 000 при 100 000 визитов робота. Это еще раз говорит о том, что страницы — «плохие» по формальным критериям.

      Ответить
      • Владислав
        23.05.2017

        А оставшиеся в индексе как себя чувствовали в плане ранжирования? Например по средним позициям в динамике?

        Можно ли сделать вывод, что Яндекс имеет более продвинутые алгоритмы определения «некачественных» страниц?

      • Алексей Трудов
        23.05.2017

        Там сугубо низкочастотка, позиции не снимал.
        Нет, вывод другой. Для Яндекса это неактуальный контент — он обрабатывает мало запросов, которые с ним связаны. См. заметки об устройстве поиска Яндекса

  • Батрак
    23.05.2017

    когда ты пишешь генерка заточена под нч-запросы ты имеешь ввиду что делаешь титл = нч, h1 = нч, meta=? а уже статья копипаста как и была, так?

    Ответить
    • Алексей Трудов
      23.05.2017

      Нет, там весь контент делается слегка уникальным по шаблону, и мета и основное содержание.

      Ответить
  • Openixxx
    23.05.2017

    кейс очень заинтересовал.
    а нет ли возможности посмотреть сам доклад?
    из презентации некоторые вопросы не очень понятны..

    Ответить
    • Алексей Трудов
      23.05.2017

      Запись будет, но вроде платно. Это уже к организаторам.

      Ответить
  • Сергей
    17.06.2017

    Очень интересно. А про шаблон по-подробнее не расскажите?) Синонимайз + графика + уникальный тайл + уникальные мета, а ключи? Неестественные вхождения в рандомных местах или как?)

    Ответить
    • Алексей Трудов
      17.06.2017

      Увы, делиться подробностями не могу, тем более что схема не только моя.
      Но намекну что вы смотрите немного не в том направлении, хотя оно тоже может работать.

      Ответить
  • Morixx
    28.06.2017

    На Ваш взгляд этот пациент как вылез в топ? http://prntscr.com/fp2yqj

    Ответить
    • Алексей Трудов
      28.06.2017

      Видимо, агрегация контента с нескольких источников.

      Ответить
      • morixx
        29.06.2017

        Это понятно, но почему так сильно вылез в топ? Если взять те же по отдельности, то не факт, что так же взлетят.

      • Алексей Трудов
        29.06.2017

        Агрегация придала доп. ценность + охват множества ключей за счет объема

      • morixx
        29.06.2017

        Алексей, то есть создались новые связи по распределению ключей, их плотности?

        Просто как тогда доп ценность растет от первых 100 уник слов к примеру или всего лишь смена titl.

      • Алексей Трудов
        29.06.2017

        Я думаю в этом конкретном случае все банально. Поисковик видит огромный текст и думает — ого, сколько инфы + вероятно поведенческие не такие уж плохие.
        А первые 100 уник. слов — это скорее для того, чтобы не улетать в «очень похожие» результаты и если занять не ТОП-1, то хотя бы где-то рядом.

  • morixx
    30.06.2017

    > ого, сколько инфы + вероятно поведенческие не такие уж плохие.

    да видимо человек получает ответ неплохой еще.

    > «очень похожие» результаты

    имеется в виду страница признается как дубликат и не участвует в поиске полноценно?

    просто если я ввожу текст скажем предложением в гугле и яндексе и на первом месте скопированная страница, значит, гугл и яндекс признают ее первоисточником?

    Ответить
    • Алексей Трудов
      30.06.2017

      имеется в виду страница признается как дубликат и не участвует в поиске полноценно?

      Да.

      просто если я ввожу текст скажем предложением в гугле и яндексе и на первом месте скопированная страница, значит, гугл и яндекс признают ее первоисточником?

      Не первоисточником. А наиболее релевантным результатом (и для каждого запроса — он может быть свой).

      Ответить
      • morixx
        30.06.2017

        а есть какие то запросы для гугла и яндекса, чтобы определить, что страница склеилась и является дубликатом и не участвует в поиске?

      • Алексей Трудов
        30.06.2017

        Не думаю. Нужно смотреть просто разные запросы. Склейка — запросозависимая.

  • morixx
    30.06.2017

    И вот еще пациент один http://prntscr.com/fpwvzk

    как я понял подстановки тупо и генерация уника в начале текста.

    Ответить
    • Алексей Трудов
      30.06.2017

      Ага

      Ответить
      • morixx
        30.06.2017

        шарманка крутится, амазон мутится. до первого стука из-за нарушения правил, хотя в принципе у него «уник» контент.

  • morixx
    30.06.2017

    По докладу еще вопрос, если можно: «Fred смотрит на хорошие плохие страницы»

    Если из 1000 страниц на сайте 900 плохие с точки зрения фреда (копипаст, генеренка), то может быть фильтр?

    Ответить
    • Алексей Трудов
      30.06.2017

      Может.
      Но критерии плохих — другие. Об этом и доклад 🙂

      Ответить
      • morixx
        30.06.2017

        увидел. решает задачи пользователя.

        копипаст в бой!

      • Алексей Трудов
        30.06.2017

        😀

  • vanya_only
    10.07.2017

    Алексей, реально такой шаблонизатор Вам обошелся в 2000 rub?

    Ответить
    • Алексей Трудов
      11.07.2017

      По хорошему знакомству и адекватному ТЗ 🙂

      Ответить

Добавить комментарий

 

Публикуя комментарий, вы соглашаетесь с правилами http://alexeytrudov.com/terms/