В пятницу выступал на SEMPRO 2017. Доклад ориентирован в первую очередь на веб-мастеров, у которых есть желание заработать на англоязычных сайтах, но нет мешка денег на инвестиции в проект. Оптимизаторам будут интересны выводы из исследования Google Fred.
Как и обещал, публикую слайды.
Презентация достаточно подробная. Пожалуй, я впихнул даже слишком много информации, поэтому выступление получилось менее гладким и удачным, чем могло бы быть.
Пара замечаний:
- Удивился, что в кулуарах было много вопросов про поиск зеркал сайтов. Способ очевидный, основан на том, что Google годами хранит информацию о старых версиях сайтов. Пример проверки на слайде 14: берем уникальную фразу из контента и забиваем ее в Гугл, попутно исключив из выдачи основной домен. Думал, все так делают, а оказалось что эта “фишка” многим запомнилась из доклада больше всего (а я старался, выборки собирал, то-се…).
- Перед исследованием перечитал массу западных статей про Google Fred. В основном это была абсолютно бесполезная трата времени. Если вам не нравится русскоязычная SEO-блогосфера – попробуйте найти в буржуйнете что-то кроме воды.
- Методика поиска ниш и стратегий действительно рабочая. Готовясь к выступлению я просмотрел 3 разных ниши – и везде нашел несколько интересных сайтов. В презентацию вошла только половина кейсов, остальное пылится в черновиках. Возможно, напишу как-нибудь и о них (вряд ли очень скоро – важных тем и так много: Баден-Баден, новые сервисы, конкурс от Seonews, а там и до BDD недалеко…).
Сама конференция мне понравилась, с удовольствием съезжу и в следующем году. Привет всем новым знакомым, отлично пообщались!
Персонаж Бабулер несколько лет в дорвейном сегменте на серче продвигал примерно те же вопросы. Над ним смеялись, когда он рассказывал о сайтах про гусей. Теперь еще на генеренку (синомайз) добавить побольше картинок, чтобы увеличить время пользователя на сайте, проведенное за их разглядыванием, уменьшить до предела размер текста, чтобы не мешался и вуаля – еще один долгоживущий удачный дорвей.
Ага, методов массового улучшения сайта до пристойного уровня в НК-тематиках полно.
Учитывая, что я скорее программист, от таких экспериментов появляется нехилый зуд в конечностях ))). Любой эксперимент, чтобы считаться подтвержденным, должен быть повторен в независимых лабораториях )
Именно.
Потому я и пишу осторожно “Гипотеза имеет право на жизнь”, а не “Стопудово я прав!111”
Не совсем понятно, как были получены данные по траффику.
Из трёх кейсов, по SimilarWeb схожие данные только у 3-го.
Serpstat, данные за конец апреля-начало мая
Смотрите трафик по серпстату? Да вы безумец!))
За неимением гербовой… )
Тут важна общая оценка. Причем в большинстве рассмотренных кейсов, я подозреваю, трафик выше. Например, сайт №2 работает с событийным трафиком, который вряд ли попадает в базы сервисов видимости.
Сгенерированный контент выкладывался с уникальными тайтлами или спаршенными с источника?
Тайтлы делались уникальными, этому в шаблонах было уделено особое внимание – в этом суть заточки под НК-запросы
Добрый день!
А то за бесплатные ссылки с edu сайтов? Как их получить
Там сайт из кейса №1 организовал рейтинги образовательных программ (просто статьи-обзоры). На них охотно ссылались сайты колледжей, чтобы подтвердить качество своих услуг.
Спасибо за ответ! А что за фишка с поиском зеркал? Где можно подробнее про это узнать?
Вроде нигде – погуглил, не нашел 🙂
Придется самому писать, раз интересуют подробности.
Очень интересуют! С нетерпением жду
Респект за доклад, был очень рад познакомиться и пообщаться!
Взаимно 🙂
Оч оч круто!
Касательно эксперимента в конце презентации, чисто для интереса – как отнесся к этому сайту Яндекс? Был ли с него трафик?
Правильный вопрос. Яндекс интенсивно сканировал сайт и спустя пару недель выплевывал 2/3 страниц, а потом и еще больше. Сейчас в индексе порядка 10 000 при 100 000 визитов робота. Это еще раз говорит о том, что страницы – “плохие” по формальным критериям.
А оставшиеся в индексе как себя чувствовали в плане ранжирования? Например по средним позициям в динамике?
Можно ли сделать вывод, что Яндекс имеет более продвинутые алгоритмы определения “некачественных” страниц?
Там сугубо низкочастотка, позиции не снимал.
Нет, вывод другой. Для Яндекса это неактуальный контент – он обрабатывает мало запросов, которые с ним связаны. См. заметки об устройстве поиска Яндекса
когда ты пишешь генерка заточена под нч-запросы ты имеешь ввиду что делаешь титл = нч, h1 = нч, meta=? а уже статья копипаста как и была, так?
Нет, там весь контент делается слегка уникальным по шаблону, и мета и основное содержание.
кейс очень заинтересовал.
а нет ли возможности посмотреть сам доклад?
из презентации некоторые вопросы не очень понятны..
Запись будет, но вроде платно. Это уже к организаторам.
Очень интересно. А про шаблон по-подробнее не расскажите?) Синонимайз + графика + уникальный тайл + уникальные мета, а ключи? Неестественные вхождения в рандомных местах или как?)
Увы, делиться подробностями не могу, тем более что схема не только моя.
Но намекну что вы смотрите немного не в том направлении, хотя оно тоже может работать.
На Ваш взгляд этот пациент как вылез в топ? http://prntscr.com/fp2yqj
Видимо, агрегация контента с нескольких источников.
Это понятно, но почему так сильно вылез в топ? Если взять те же по отдельности, то не факт, что так же взлетят.
Агрегация придала доп. ценность + охват множества ключей за счет объема
Алексей, то есть создались новые связи по распределению ключей, их плотности?
Просто как тогда доп ценность растет от первых 100 уник слов к примеру или всего лишь смена titl.
Я думаю в этом конкретном случае все банально. Поисковик видит огромный текст и думает – ого, сколько инфы + вероятно поведенческие не такие уж плохие.
А первые 100 уник. слов – это скорее для того, чтобы не улетать в “очень похожие” результаты и если занять не ТОП-1, то хотя бы где-то рядом.
> ого, сколько инфы + вероятно поведенческие не такие уж плохие.
да видимо человек получает ответ неплохой еще.
> «очень похожие» результаты
имеется в виду страница признается как дубликат и не участвует в поиске полноценно?
просто если я ввожу текст скажем предложением в гугле и яндексе и на первом месте скопированная страница, значит, гугл и яндекс признают ее первоисточником?
Да.
Не первоисточником. А наиболее релевантным результатом (и для каждого запроса – он может быть свой).
а есть какие то запросы для гугла и яндекса, чтобы определить, что страница склеилась и является дубликатом и не участвует в поиске?
Не думаю. Нужно смотреть просто разные запросы. Склейка – запросозависимая.
И вот еще пациент один http://prntscr.com/fpwvzk
как я понял подстановки тупо и генерация уника в начале текста.
Ага
шарманка крутится, амазон мутится. до первого стука из-за нарушения правил, хотя в принципе у него “уник” контент.
По докладу еще вопрос, если можно: “Fred смотрит на хорошие плохие страницы”
Если из 1000 страниц на сайте 900 плохие с точки зрения фреда (копипаст, генеренка), то может быть фильтр?
Может.
Но критерии плохих – другие. Об этом и доклад 🙂
увидел. решает задачи пользователя.
копипаст в бой!
😀
Алексей, реально такой шаблонизатор Вам обошелся в 2000 rub?
По хорошему знакомству и адекватному ТЗ 🙂
Преза не работает 🙁
Теперь все тут:
http://alexeytrudov.com/prezentatsii/
Привет! Очень интересная презентация, много полезной информации. Обратил внимание на слайд 7 – я думаю, что немаловажным фактором того что сайт вылез в топ-3 и занял 2 позиции сразу также является то что в его домен входит основное ключевое слов “sport magament degree” (сам домен называется sport-management-degrees.com ).
Учитывая, что ниша узкая ( о чем ты сам писал на слайде 8), наверняка сайт мог быстро “залететь” в топ также благодаря домену. Далее я думаю сыграли важную роль ПФ (если я в узкой нише найду хороший сайт, то я добавлю его в закладки) что также положительно сказалось на продвижении. + Всё то что ты писал.
Как думаешь, теория имеет право на жизнь?
Илья, да, вполне. Вхождение в домен, по моим наблюдениям, все еще работает.
Отличный блог, жаль презентация не работает(
Спасибо! Можете посмотреть тут: https://alexeytrudov.com/prezentatsii/5
Класс! Спасибо!