Как известно, у каждой поисковой системы свои алгоритмы ранжирования и свои фильтры. Ни о первом, ни о втором в точности никто и ничего не знает. Все знания получены на основе собственного опыта вебмастеров. В этой статье мы уже писали про два самых известных (теперь уже) фильтра Google – Панду и Пингвина. Но помимо этого нашумевшего зоопарка, у Гугла есть еще ряд фильтров, знать про которые должен каждый начинающий вебмастер. Отметим, что названия фильтров неофициальные, придуманные самими вебмастерами. Их существование доказано лишь опытными наблюдениями.
Обычно применяется к новым сайтам и не позволяет занимать высокие места по высокочастотным запросам. Хотя по низкочастотным, иногда даже среднечастотным запросам сайт вполне может выйти на первые места выдачи. Поделать тут ничего нельзя, можно хоть, сколько покупать ссылок и добавлять контента – высокочастотные запросы будут не Ваши. Время нахождения сайта в «песочнице» может быть от нескольких месяцев, до нескольких лет. Признаки нахождения сайта под этим фильтром:
Для того, что бы выйти из «песочницы», нужно время, регулярная работа над сайтом и появление естественных ссылок. Но, сейчас с ссылками нужно быть очень осторожным, помня о фильтре Google – Пингвин.
Имеет много общего с предыдущим фильтром. Давно доказано, что возраст домена влияет на доверие со стороны поисковых систем. Однако, диапазон применения этого фильтра более широк, сайт может не находится в «песочнице», но попасть под этот фильтр. Не грозит сайтам с возрастом более 1.5 года, на которые ссылаются авторитетные ресурсы в глазах Google.
Когда Google считает страницы не слишком хорошим, он помещает их ниже тех, которые считает хорошими. В таком случае страница будет выводиться на высоких местах, если только не хватает «хороших» страниц. Накладывается на отдельные страницы, несколько входящих ссылок убирают этот фильтр. В большей степени относится к низкочастотным запросам. То есть, этот фильтр не позволяет очень хорошему материалу подняться в топ естественным путем, за счет внутренних факторов.
Этот фильтр наказывает сайт, которые используют большое количество ссылок на себя с одинаковым текстовым содержанием (анкором). Google считает это не естественным, что соответствует логике. Поэтому при покупки ссылок не стоит ленится, и составлять уникальные анкоры на каждую ссылку. В данный момент этот фильтр скорее всего неактуален, так как появился Пингвин, которые выполняет в том числе и эти функции, правда куда более жестко.
Если контент Вашего сайта не уникален, а попросту украден с других сайтов – накладывается этот фильтр. Google не интересные неуникальные сайты. Сейчас с этими функциями справляется Панда, выкидывая подобные сайты из выдачи. Если Вы обнаружили, что с Вашего сайта воруют контент – стоит пожаловаться в Google.
Сайты, которые используют дорвеи, редиректы с помощью JavaScript, в общем, черные методы SEO понижаются на 30 позиций. Выход из этого фильтра прост – достаточно не использовать подобные методы и позиции в выдаче восстановятся.
Сайты, на которые мало входящих ссылок, мета-теги, которые дублируют контент, отсутствующая внутренняя перелинковка, повторяющиеся заголовки – могут полностью вылететь из результатов поиска. Поэтому, с самого начала создания сайта, этим факторам стоит уделять повышенное внимание.
Под этот фильтр попадают сайты использующие в тексте и мета-тегах больше количество ключевых слов и фраз. Собственно, сейчас уже прошли те времена, когда с помощью большого количества ключевых слов можно было легко продвинуть свой сайт, злоупотреблять этим бессмысленно. Писать нужно для людей, а не для поисковых систем.
При покупке ссылок обращайте внимание на площадку, с которой ссылка покупается. Она должна быть схожей тематики с Вашим сайтом. Если на Вас ссылается ресурс тематики «для взрослых», то вполне возможно, что Google посчитает, что и у Вашего сайта такая же тематика.
Если страница Вашего сайта «весит» слишком много, то Google просто не будет ее загружать и она никогда не окажется в результатах поиска.
Это скорее не фильтр, а алгоритм ранжирования, который учитывает следующие факторы:
Чем выше этот показатель, тем лучше будут результаты в поисковой выдаче для всех страниц сайта в целом. То есть, если TrustRank (TR) будет достаточно большой величины, Google будет считать его авторитетным и полезным, быстро выводя новые материалы на высокие места в поиске.
Фильтры Яндекса.
Читать о заработке на своем блоге.
Сайт нужно уметь монетезировать.
wiki-work.ru