Фильтры гугла. Фильтры Google за манипуляции с ссылками

06.05.2019

В этом году про фильтры от поисковых систем слышно меньше, чем в прошлые годы. Про Минусинск и Пингвин практически ничего не слышно, да и Баден-Баден как-то потерялся на форумах. Но, на мой взгляд, фильтры продолжают действовать, только вот индикаторов этих фильтров стало меньше, и даже в панели не всегда отображаются, что создает сложность вебмастеру, так как не ясно, почему проект не сдвигается с места, если по нему проводятся видимые работы.

Из самых частых сейчас встречаю фильтр за переспам (комплексный), причем, без метки в панели вебмастеров, если мы говорим о Яндексе. Бороться с ним сложно, так как вебмастерам приходится переписывать большую часть текстов и заголовков.

Где-то испорчена ссылочная карма, и в некоторых случаях проще поменять домен, чем искать способы достучаться до вебмастеров площадок.

Чтобы не попадать под санкции, мои советы очень простые:

при написании текстов и создании структуры сайта уделяйте больше внимания юзабилити, это реально работает; не используйте накрутки, ищите способы получения ссылок с помощью контент-маркетинга.

Если нужен быстрый результат — лучше купить рекламу в поиске или соцсетях. Сэкономите кучу времени и сил.

Если уже попали под санкции, то нужно чиститься, других советов дать сложно.

Дмитрий Севальнев ,
евангелист проекта «Пиксель Тулс»

Наиболее частыми фильтрами, с которыми SEO-специалисты сталкиваются каждый день, всё так же остаются (судя по всему, эти алгоритмы периодически обновляются), определенные аналоги есть и в Google.

В 2018 году можно отметить и хостовый фильтр, который понижает позиции сайтов в Яндексе «За рекламу, которая вводит в заблуждение» и мимикрирует под элементы интерфейса. «Так уж оказалось», что туда попали многие блоки рекламы Google Ads на КМС, а их замена на близкие по типу от Яндекс.Директ приводила к снятию санкций. Алгоритм затронул довольно много сайтов в информационной тематике и в CPA-сегменте.

Фильтр аффилированности - да, так же встречается, Яндекс специально или чисто случайно «поломал» 3 разных способа определения аффилированности для двух доменов, которые мы использовали в «Пиксель Тулс». Сейчас пришлось оставить инструмент только в скрытых.

«Баден-Баден» и «Минусинск» - чуть-чуть встречались в начале года, но сейчас массовых обновлений не замечено.

«Санкции за накрутку ПФ» - имеют локальные прецеденты, направленные на подавление роста ряда сервисов, которые предлагают такие услуги. Число запросов на снятие данного фильтра так же сократилось на пару порядков.

,
основатель агентства REMARKA

Никакие. Мы стараемся обходиться в работе без них. Если, конечно, не считать фильтром переспам – это скорее рабочий момент, чем фильтр.

С переспамом бороться и просто, и сложно. Просто – когда клиент приходит с очевидно спамными текстами. Тогда надо просто переписать их или убрать. Другое дело, когда ты настолько приблизился в своей работе к грани, когда еще немного и переспам, плюс ощутимо колеблется граница спамности по топу, в эти моменты бывает трудно нащупать тот самый момент, когда надо остановиться. Или наоборот, сколько вхождений снять, сколько воды отжать, сколько ссылок с анкорами убрать, чтобы позиции прибавили еще 2-3 пункта.

Обычно клиент приходит с каким-то фильтром, и мы его снимаем. Давно уже не видели клиентов с фильтром за накрутку ПФ. Да и Минусинск последний приходил тоже давненько. Вот с ББ были. И, конечно, в портфеле есть достаточно клиентов, где трафика по Гуглу не было никогда – там или Панда, или Пингвин, снять которые не получается. А вот новые проекты, которые залетели под эти фильтры, практически не попадаются. Владельцы научились не косячить, делая новые сайты.

Все просто. Делайте сайт сразу хорошо. Тогда и санкций не будет. Если не хватает бюджета на хорошие тексты – просто не ставьте их. Не делайте пустых страниц, которые планируете потом наполнить. Не используйте бесплатные широко распространенные шаблоны – сразу их уникализируйте. Не спамите анкорами ни во внутреннем ссылочном, ни во внешнем.

Если все-таки попали под хостовый фильтр – не переживайте. Работайте так, как будто его нет. И параллельно проводите мероприятия по устранению фильтра. А борьба с переспамом – это часть вашей обычной работы. Границы спамности постоянно гуляют в обе стороны. Так что поможет только регулярная проверка сервисами оценки средней спамности по топу и коррекция текстов и плотности анкоров в ссылочном по итогам этого анализа.

,
SEO-Аналитик в Rush Agency , руководитель направления Зарубежного SEO. Основатель SEO-курсов Rush Academy

Какие фильтры Яндекса и Гугла досаждали больше всего в этом году?

Фильтры Гугла в этом году наши клиенты не получали.

В Яндексе, была буквально пара случаев. Баден-Баден и Минусинск. И оба случая – когда клиент пришёл к нам уже «с багажом». С одним клиентом вышла крайне забавная история: он пришёл к нам буквально сразу после выхода из-под Минусинска, и через пару дней «получил» Баден-Баден на весь хост. Само собой, за такое короткое время никто не успел бы сделать аудит всех текстов на сайте, поэтому пришлось долго и мучительно этот фильтр снимать. А почему мучительно – читайте далее.

Насколько успешно получается с ними бороться, какие меры принимали? В чем были самые большие сложности?

Вывели всех клиентов. Но с тем, про которого я рассказывал в предыдущем пункте, пришлось повозиться. Дело в том, что клиент категорически не хотел полностью удалять тексты, т.к. страницы, на которых они были расположены, занимали неплохие позиции в Гугле. Это самая сложная ситуация — когда тексты, которые перестали нравиться Яндексу, все еще нравятся Гуглу и приносят трафик и заказы. Переписывание текстов – это в любом случае лотерея, играть в которую времени не было. В итоге, после анализа всех текстов и трафика выработали такое решение: наиболее спамные тексты были совсем удалены (трафик из Гугла на них после этого упал на 20-30%), а остальные были заменены на совсем «безобидные» коротенькие текстики «для людей». В итоге фильтр был снят, и вернувшийся трафик из Яндекса с лихвой окупил потерю части Гугла. Но идеального решения такого кейса попросту не существует (если не прибегать к клоакингу), т.к. у Яндекса и Гугла теперь слишком разные взгляды на понятие «релевантный текст», в зависимости от тематики.

Какие фильтры стали менее ощутимы?

В нашей компании клиенты под фильтры в принципе не попадают. Но в целом по рынку, наверное, Минусинск – оптимизаторы учатся безопасно работать со ссылочным.

Есть какие-то ценные, актуальные советы читателям – по профилактике и выходу из-под санкций?

Прежде всего, врага надо знать в лицо. Изучать антиспам-алгоритмы и за что конкретно они «наказывают». Правила игры известны, и по ним надо играть. О Минусинске было объявлено за месяцы до начала «массовых расстрелов» (первые показательные казни не в счет), и всё равно некоторые оптимизаторы (в т.ч. те, кого знаю лично) боялись сразу снимать все покупные ссылки и в итоге получали фильтр. Яндекс, в отличие от Гугла, анонсирует новые фильтры сильно заранее, и даже объясняет, за что они будут накладываться, так пользуйтесь этим.

Лайфхак 1. Советую периодически чекать в системах веб-аналитики не только «общий трафик проекта» а еще и выборку по популярным в поисковиках посадочным страницам, чтобы вовремя заметить, если какие-то из них начинают терять трафик.

Лайфхак 2. Как только пришел новый проект на продвижение, сразу бежим выкачивать из панелей вебмастера Яндекса и Гугла самые трафиковые запросы, хотя бы 1000 штук, и ставить их на отслеживание в сборщике позиций.

,
Ведущий отечественный оптимизатор и аудитор сайтов. Работает с частными и крупнейшими мировыми компаниями. Ведущий SEO блога drmax.su . Автор более 20 книг по продвижению сайтов.

Аня, день добрый. Хочу сразу предупредить, что речь в нашем разговоре пойдет только о Google, ибо Яндекс — не та ПС, на которую стоит ориентироваться, и это происходит по нескольким причинам:

1. Постоянное снижение доли Яндекса на рынке . Если в России это ПС сейчас занимает 40-45% и тренд постоянно нисходящий, то в Белоруссии – 25%-30%, в Казахстане 14%, а на Украине доля Яндекса стремится к нулю. То есть, если ориентироваться на русскоязычных посетителей в мировом масштабе, то Яндекс можно не рассматривать совсем. Однако, если ваши сайты связаны с региональным SEO и с Россией, то кое-какое внимание можно уделять и этой ПС. Итак, налицо стагнирование Яндекса как ПС. Также это усугубляется практически полной коммерциализацией первой страниц органической выдачи.

2. Технологическое отставание Яндекса от Google, минимум на 2-3 года. Постоянно наблюдаю эту игру в догонялки, когда давно внедренные у Google вещи, через несколько лет появляются у Яндекса и выдаются за какое –то ноу-хау. Навскидку – те же LSI стали использовать для оценки в Google в 2011 году, в Яндексе – в прошлом/позапрошлом.

3. Ни один из здравомыслящих оптимизаторов не будет делать ничего для продвижения в Яндексе, если это принесет ущерб позициям в Google. И наоборот. Если вы смогли занять достойные места в Google, с 80% вероятностью вы попадете в ТОПы Яндекса автоматически.

Итак, сегодня стоит рассматривать единственную ПС – Google. Однако, по поводу фильтров, как таковых, говорить сейчас некорректно. Все, так называемые фильтры, стали составной частью поисковой системы. В этом и отличие от классических фильтров – которые были надстройкой на алгоритмами и запускались эпизодически, выкашивая сайты с плохим SEO. Сейчас все это происходит налету. Некачественные сайты имеют меньше шансов даже пробиться в ТОПы. Если ранее по воплям в сообществе, узревшим просадку тысяч сайтов, можно было понять, что ПС выкатили какой-то новый фильтр, сейчас это сделать сложнее, ибо воздействие алгоритмов на плохие сайты равномерно размазано и осуществляется постоянно.

Так что, Аня, давай говорить не о фильтрах, а о значимых изменениях алгоритма поисковой системы.

Чтобы понять, какие изменения ядра ПС оказали наибольшее влияние, я подготовил небольшую ретроспективу произошедшего в Google за 2018 год.

Январь – произошло 2 обновления алгоритма Google, связанные с оценкой качества страниц

Февраль – обновление по выводу изображений в Google (опять можно собирать трафик из Google картинок). Также было одно обновление алгоритма, связанное с качеством контента.

Март — пять обновлений алгоритма, связанных с оценкой качества контента.

Апрель — обновление, связанное с E-A-T (по сути, то же самое качество), далее несколько технических апдейтов и крупное обновление ядра алгоритма, опять-таки связанное с качеством контента.

Май – три обновления алгоритма, связанных с качеством контента, и одно обновление, пессимизирующие некачественное ссылочное и PBN.

Июнь – три обновления алгоритма, связанных с качеством, далее мощная волна ручного бана PBN сеток (выполнена асессорами), видимо связанная с недостаточно четко отработавшим майским алгоритмом автоматического бана PBN.

Июль — начало перехода на Mobile First Index. В конце месяца – развертывание алгоритма, где скорость доступа к странице является фактором ранжирования. Кроме того, в течение месяца 3 изменения в алгоритме, напрямую связанные с качеством контента.

Август – критическое обновление алгоритма, связанное с E-A-T для YMYL сайтов (по сути – пессимизация некачественных сайтов). Далее – продолжается перенос сайтов на Mobile First Index. После этого опять обновление алгоритма, касающееся качества фарма (медицинских) сайтов.

Следовательно, было два важнейших обновления ядра алгоритма Google – это развертывание фактора скорости и развертывание Mobile First Index. Как к этому подготовиться я тщательно расписывал в моей книге SEO Гуру 2018 , которая была выпущена весной. Ряд материалов есть на сайте drmax.su.

Соответственно, сайты, не подготовившиеся к внедрению Mobile First Index проседают в мобильной выдаче (а это, на сегодняшний день – более 60% посетителей), но более-менее держатся в десктопной. С некоторым допущением это можно назвать воздействием фильтра.

Развертывание Mobile First Index пока еще продолжается, и еще не все сайты ощутили на себе его «благотворное» влияние. Кстати, сайты, изобилующие Java скриптами и/или Flash вставками, могут испытывать затруднения при переходе к Mobile First Index. Это доложил Джон Мюллер – специалист по качеству поиска Google. Из-за наличия такого контента Google может не перевести их на новое индексирование.

Третьим важнейшим трендом развития ПС Google стала борьба за качество контента. Это подтверждается десятками крупных и мелких изменений алгоритма, позволяющих улучшить качество выдачи. При этом работа над качеством органической выдачи ведется планомерно, в течении многих лет. Свидетельство этому — периодический выпуск руководств по оценке качества для асессоров. В июле этого года вышла уже четвертая (или пятая) версия, и каждый желающий с требованиями к качеству сайта. Там же есть сотни примеров, как оценивать это качество, и почему те или иные сайты попадают в ТОПы, а другие сидят на задворках, несмотря на все вложения в линкбилдинг, контент и прочие средства манипуляции выдачей.

А Яндекс зато нарисовал новую пузомерку качества Икс. Молодцы!

Далее, в этом году в очередной раз пострадали так называемые PBN-сети (тупая аббревиатура, мы всегда их называли сайтами на дропах, на протяжении лет 15). Собственно, все разумные люди отказались от таких сеток еще в 2013-2014 году и вот с чем это было связано.

Расцвет сетей, собранных на дропах был в 2000-х годах. О да, тогда это было круто. Сетками выталкивали в ТОПы, с них продавали ссылки. Захапав себе дроп попиаристей, можно было продать с десяток ссылок с морды по паре штук баксов в год каждая.

Под это дело мы с тов sNOa написали мега софт по перехвату дропов, по автоматическому их восстановлению и наполнению из вебархивов и т.д. К 2009 году у нас уже была сетка под сотню таких сайтов (причем практически не линкованная, раскиданная по десяткам серверов). Собственно об этом методе можно почитать в моих старых руководствах и книгах, датированных 2010 и 2011 годами.

А потом пришел 2012 год с его Пингвином и народ (из тех что поразумней) поубирали ссылки из таких сеток. А потом пришел 2013 – 2014 год, когда PR был заморожен, и содержать сетку дропов стало уже совсем бессмысленно.

Так что все эти PBN сетки на сегодняшний день – полная ерунда и анахронизм, заниматься ими можно только от скудоумия, ибо все равно и сами сети и их клиенты легко вычисляются и в обязательном порядке пессимизируются.

В завершении могу сказать: боритесь за качество сайтов. Почитайте инструкцию для ассесоров по качеству, выполните технический аудит сайта (обязательная составляющая качества), проверьте мобильную версию сайта и готовность к переходу на Mobile First Index, наполняйте сайты качественным, экспертного уровня контентом, стройте ссылки по уму и забудьте о фильтрах.

Всех благ.

Пишите комментарии, задавайте вопросы экспертам!

Все мои проекты, кроме этого SEO-блога:

ТОП База - качественная база для полуавтоматической регистрации с Allsubmitter или для полностью ручного размещения - для самостоятельного бесплатного продвижения любого сайта, привлечения целевых посетителей на сайт, поднятия продаж, естественного разбавления ссылочного профиля. Базу собираю и обновляю 10 лет. Есть все виды сайтов, все тематики и регионы.

SEO-Topshop - SEO-софт со СКИДКАМИ, по выгодным условиям, новости SEO-сервисов, баз, руководств. Включая Xrumer по самым выгодным условиям и с бесплатным обучением, Zennoposter, Zebroid и разные другие.

Мои бесплатные комплексные курсы по SEO - 20 подробных уроков в формате PDF.
- каталоги сайтов, статей, пресс-релизовые сайты, доски объявлений, каталоги фирм, форумы, соцсети, блоговые системы и прочее.

"Приближаясь.." - мой блог на тему саморазвития, психологии, отношений, личной эффективности

Есть достаточное количество причин, по которым сайт может попасть под . Это, к примеру, агрессивная реклама на сайте, переоптимизация контента или низкое качество ресурса в целом. Но это еще не весь список. Как определить, что Ваш сайт находится под фильтрами, рассмотрим далее.

Появление новых алгоритмов поисковых систем в большинстве случаев просто пугает веб-мастеров. Так, например, Ваш сайт может агрессивно восприниматься поисковыми системами, если:

  • имеется контент замаскированный под гостевой спам;
  • большое количество сео-анкоров;
  • неуникальный контент;
  • есть спамные рассылки в блоках и комментариях;
  • есть скрытые от пользователей ссылки и другое.

В случае попадания ресурса под санкции поисковика, могут быть полностью утеряны позиции сайта в системе, а это означает, что вся работа, которая проводилась до этого попросту будет утрачена. Согласитесь, что такой судьбы для своего онлайн-проекта не желает ни один веб-мастер.

Как распознать, что Ваш сайт находится под фильтром поисковых систем?

О некоторых наложенных фильтрах поисковая система сообщает официально в разделе Google Webmaster Tools. Эти сообщения означают, что к Вашему сайту были приняты меры, из-за возможных нарушений:

  • наличие исскуственных ссылок на Ваш онлайн-проект;
  • присутствуют исскуственные ссылки на Вашем сайте;
  • Ваш ресурс взломан;
  • спам и спам от пользователей;
  • скрытая переадресация;
  • избыточное количество ключевиков или скрытый текст на сайте;
  • бесплатный хостинг, который распростаняет спам.

Но какие сайты “любит” Гугл? Подробнее рассмотрено ь .

Рассмотрим каждый из фильтров и то, как выйти из под его действия.

Фильтр “Песочница”.

Этот фильтр накладывается на молодые сайты до 1 года. В данный период поисковая система следит за тем, как ведет себя сайт. Проверить наличие фильтра легко – сайт отсутствует в индексе. Попадание “песочницу” может произойти из-за быстрого наращивания ссылочной масы, это кажется Google очень подозрительным и он налаживает санкции на молодой ресурс, ведь подобное поведение расценивается как спам.

Для того, чтобы не попасть под данный фильтр, закупать ссылки нужно очень осторожно, ни в коем случае не допускать “ссылочного взрыва” и наполнять сайт уникальным полезным контентом. Акуратно выбирайте доноров сайта, чтобы не допустить попадания в “песочницу”.

Фильтр Domain name age (возраст домена).

Этот фильтр также налаживается на молодые сайты, которым меньше года. Но ограничения снимаются, когда домен сайта достигает определенного уровня траста. Чтобы избежать фильтра, можно купить старый домен с положительной историей или же закупать трастовые ссылки, но очень акуратно.

Фильтр “Too many links at once” (много ссылок сразу).

Когда налаживается данный фильтр, веб-мастер замечает резкое падения трафика с Гугл, а внешние ссылки на ресурс уже не имеют никакого веса. Это случается из-за резкого ссылочного взрыва, поисковая система считает это неестественным и применяет санкции к сайту.

Если Ваш сайт попал под данный фильтр, то Вам следует значительно снизить наращивание ссылок, а те, что уже есть, не нужно трогать. Через 1-3 месяца фильтр будет снят.

Фильтр “Бомбежка”.

Наказанию подвергается не весь сайт, а отдельные его страницы, которые поисковик воспринял как спамные. Причина: фильтр наказывает сайт, на который ведут много внешних ссылок с одинаковым анкором или текстом. Поисковая система считает это не натуральным. Для того, чтобы избавиться от этого, необходимо или удалить все ссылки или поменять анкоры, а далее просто ждать результата.

Этот фильтр накладывается на сайты, которые имеют много страниц с 404 ошибкой. Эти ссылки раздражают не только посетителей сайта, но и поисковую систему, которая не может проиндексировать данную страницу. Поэтому удаляйте битые ссылки, чтобы не попасть под фильтр.

Фильтр “Links”.

Ранее между веб-мастерами было популярно обмениваться ссылками, но сегодня Гугл наказывает за такие обмены. Поэтому ставьте не более 4 ссылок на сайты-партнеров, а если все-таки попали под фильтров, то подобные ссылки необходимо убрать с сайта немедленно.

Фильтр “Page load time” (время загрузки страницы).

Google не любит сайты, которые имеют низкую скорость загрузки сайта. Поэтому он может понизить ресурс в выдаче именно по этой причине. Рекомендовано, чтобы скорость загрузки сайта не превышала 7 секунд, чем быстрее – тем лучше. Это параметр можно проверить с помощью специального сервиса – PageSpeed.

Фильтр “Omitted results” (опущенные результаты).

Действие этого фильтра определяется, когда Ваш сайт отсутствует в результатах основного поиска. Его можно увидеть только когда в поиска открыть скрытые результаты. Данный фильтр налаживается на сайт за дубли и слабую перелинковку страниц.

Если ресурс уже под действием фильтра, необходимо переписать контент сделав его уникальным и улучшить внутреннюю перелинковку.

Фильтр “-30”.

Данный метод санкций был создан для борьбы с “черным сео”. Если фильтр наложен, позиции сайта понижаются на -30. За что наказывает фильтр: скрытый редирект, клоакинг, дорвеи. Если причины устранены, фильтр прекращает свое действие.

Фильтр “Переоптимизация”.

Сайт может понизится в выдаче или полностью исключиться с индекса. Все это действие данного фильтра. Он может быть наложен из-за чрезмерной оптимизации страниц, например, перебор с количеством ключевых слов, высокий уровень плотности ключевиков, переоптимизация мета-тегов, картинок. Чтобы фильтр прекратил действие на Ваш сайт, необходимо правильно оптимизировать страницы сайта.

Фильтр “Панда”.

Один из самых опасных фильтров. Он охватывает несколько сразу фильтров и для того, чтобы из-под него выйти необходимо много времени и сил. Это фильтр может быть наложен по многим причинам, среди которых: дублирующийся контент, чрезмерная оптимизация, продажа ссылок или агрессивная реклама на сайте, накрутка поведенческих факторов. Для того, чтобы выйти из-под его действия, необходимо проделать целый комплекс действий нацеленных на улучшения сайта. Это может занять достаточно много времени, в некоторых случаях до 1,5 года.

Фильтр “Пингвин”.

Также как и предыдущий фильтр является очень проблемным для владельца сайта. Алгоритм имеет непосредственное отношение к ссылочному продвижению. Санкции могут настигнуть Ваш онлайн-ресурс, если Вы закупаете слишком большое количество ссылок за раз; если эти ссылки имеют один и тот же анкор; если ссылки являются не тематическими или вы производите обмен ссылками. Выйти из-под “Пингвина” очень сложно, этот процесс также является долговременным.

Кстати, более подробно фильтры “Панда” и “Пингвин” описаны в моей статье “ ”.

3399 раз(а) 1 Сегодня просмотрено раз(а)

Хочу сегодня обратить ваше внимание на фильтры от поисковой системы Google.

Когда я только создал свой блог, я понятия не имел, что алгоритмы поисковиков созданы настолько грамотно, что если им встречается некачественный сайт, тогда они могут на него наложить некоторые ограничения.

Конечно, если вернуть время назад, я развивал бы свой ресурс совсем другим образом и не стал бы делать тех ошибок, которые привели меня к плачевному результату.

Как говорится, если осведомлен — значит вооружен.

Виды фильтров у Google

1) «Песочница» или Sandbox . Этот фильтр накладывается на молодые сайты в момент их рождения в сети интернет.

Это своего рода испытание для сайтов, чтобы не попали на топовые места, мало живущие дорвеи, блоги однодневки и др.

Сами подумайте зачем, Гуглу ставить непроверенные сайты на верхние места выдачи, если через определенное время такой сайт может и вовсе перестать существовать.

Выход из-под фильтра

— ждать;
— наращивать естественную ссылочную массу;
— писать регулярно ;
— купить старый домен;

2) Google Florida . Этот фильтр накладывается на сайты, имеющие чрезмерную оптимизацию страниц.

Он отслеживает злоупотребление мета-тегов: strong, h1-h6, насыщенное количество ключевых слов и их плотность.

Выход из-под фильтра

— заменить seo оптимизацию на нормальную;

3) Google Bombing . Понижение конкретной страницы в выдаче, за счет ссылающихся одинаковых анкоров в большом количестве.

Если вы будете продвигать какую-нибудь страницу, используя внешние ссылки с одинаковым анкором, тогда результат получится полностью наоборот.

Выход из-под фильтра

4) «Минус 30» . Под данный фильтр google попадают сайт, которые используют для продвижения «черную» оптимизацию. Такие ресурсы Гугл понижает на 30 позиций.

Причины попадания под фильтр

резкое увеличение ссылочной массы с некачественных площадок (каталогов, гостевых книг и комментариев);
— помойки ссылок;
— редирект при помощи java script, а также ;

Выход из-под фильтра

— не использовать вышеперечисленные пункты для продвижения сайта;
— убрать редирект;

5) «Дополнительные результаты» или Supplemental Results . Если страницы окажутся под таким фильтрам, тогда они будут выводиться в поиске, только если «качественных» сайтов будет недостаточно, кликнув по ссылке «дополнительные результаты».

Выход из-под фильтра

— уникализировать на странице мета-теги и title;
— закупить несколько трастовых ссылок на данную страницу;
— увеличить объем уникального контента страницы;

Выход из-под фильтра

— избавиться от нерабочих ссылок;

7) «Неуникальный контент» . Если сайт использует ворованный контент (копипаст), тогда этот фильтр будет понижать его в результатах выдачи.

Хотя бывают случаи, когда фильтр Google накладывается не на ворующего, а на того, у кого своровали. а играет очень важную роль.

Выход из-под фильтра

— не воровать чужой материал;
— ускорить индексацию страниц;
— удалить неуникальный материал;

8) «Время загрузки страниц сайта» . Когда робот заходит на сайт и не получает доступ к его содержимому (по причине некачественного хостинга или сервера), тогда он такие страницы пропустит и они не смогут попасть в индекс.

Выход из-под фильтра

— поменять хостинг на качественный, у которого 99,95%;

9) «Цитирование» или Co-citation Linking Filter . Суть его в том, что ссылаться стоит только на качественные сайты, которые в свою очередь тоже должны ссылаться на качественные площадки.

В основном под такой фильтр могут попасть только сайты .

Выход из-под фильтра

Выход из-под фильтра

— ссылаться на сайты по цепочке 1 на 2, 2 на 3, 3 на 1.

11) «Много ссылок сразу» . Этот фильтр Гугла понижает сайты в выдаче, а иногда даже накладывает бан, за участи площадки в линк помойках, больших закупок ссылок и др.

Выход из-под фильтра

12) «Много страниц сразу» . Если на блоге появляется огромное количество контента за маленький промежуток времени, тогда Google может посчитать, что это не естественно и наложить фильтр.

Выход из-под фильтра

— соблюдайте естественность;
— если используете , тогда поставьте ограничение на количество добавляемого материала;

13) «Степень доверия» или Trust Rank . Чем больше вы получите доверия от Google, тем выше будут ваши позиции в выдаче ТОП. Этот фильтр включает все, что было перечислено выше.

— возраст домена;
— качество входящих ссылок;
— количество исходящих ссылок;
— качество ;

14) Google Panda . Этот фильтр появился не так давно, но уже успел потрепать нервишки многим сеошникам.

Суть его заключается в том, что говносайты не должны попадать в индекс, подробно о нем я рассказал в статье « ».

Выход из-под фильтра

— делайте СДЛ сайт, используя все вышеприведенные рекомендации;

15) Google Пингвин . Самый последний из фильтров. Суть его заключается в том, чтобы понизить в выдаче сайты, которые для продвижения используют покупные ссылки.

В ходе его работы на многих блогах сократилась посещаемость, а на других наоборот выросла. Очень подробно о нем я рассказал в прошлой статье « ».

Выход из-под фильтра

Еще хочу добавить, что если вы делаете сайт для людей (СДЛ), часто обновляемый, содержащий уникальный контент и приносящий пользу, он никогда не попадет под фильтры Гугла, а показатели ТИЦ, PR и Траст будут расти сами собой.

Если все-таки вас фильтр не обошел стороной, тогда не отчаивайтесь и развивайте свой проект дальше.

Поисковая система Google имеет в своем арсенале множество фильтров, которые влияют на продвижение и позиции сайта. В данной статье мы подробно рассмотрим основные и актуальные фильтры Гугл, которые не стоит игнорировать в процессе SEO-продвижения.

Часто можно столкнуться с ситуацией, когда сайт оптимизируешь всеми силами, продвигаешь его трудоемким и времязатратным написанием полезного контента, а в результате показатели Google остаются безутешными, проект находится далеко не на лидирующих местах, или еще хуже, выпадает из-под индекса. При этом в Яндексе наоборот, большинство статей попадают в топовую десятку.

В чем причина? Ответ на данный вопрос простой – сайт под фильтром Гугл. Эта буржунетовская поисковая система находится в постоянном движении, не стоя на месте, придумывает какие-то новинки – так называемые фильтры. Google высокоразвит, в его арсенале мощные алгоритмы, способные с абсолютной точностью определить на самом ли деле качественный ресурс или его следует отправить под фильтр.

Проблема в том, что упомянутый поисковик является полностью автоматизированным, система сама вводит и выводит из-под фильтров, так что обращаться в техподдержку здесь бессмысленно. Рекомендуется ни при каких обстоятельствах не попадать под фильтр, так как есть вероятность остаться в нем навсегда. Поэтому к этой теме нужно подойти со всей серьезностью, изучить распространенные их виды, и что самое главное, разобраться, как с ними бороться. Но для начала, заподозрив что-то неладное со своим веб-проектом (снизился трафик, скачок позиций), нужно проверить фильтр Гугла.

Как проверить сайт на фильтры Гугла

Изучая теорию по SЕО, для будущей подготовки, или при работе уже с собственным проектом, всегда возникает вопрос: «Как узнать что сайт под фильтром Google?». Увы, для этого не существует универсального способа. Однако есть комплекс некоторых методов, комбинируя которые можно получить более достоверный результат. Среди их числа:

- Проверка наличия в поиске главной страницы - является самым простым способом. Для этого название домена вписывают в поисковую строку и нажимают «Поиск». Отсутствие в результате выдачи вашей главной страницы указывает, что сайт попал под фильтр Гугла.

- Search Console сервис (абсолютно бесплатный), позволяющий узнать позиции сайта в Google. Зайдя в него в левой части экрана можно увидеть меню, в котором следует отыскать пункт «Меры, принятые вручную» и кликнуть по нему мышкой.

Это меню отображает информацию о ручном применении санкций по отношению веб-страницы. Однако это не является 100 % гарантией отсутствия фильтров.

- Анализ посещаемости веб-ресурса . На то, что сайт под фильтром Google указывает и резкое падение численности посетителей.

Проверить фильтр Google можно и, выполнив проверку внешних ссылок, которые зачастую образуют ссылочный спам. Иногда по результатам проверок оказывается, что только некоторые страницы выпали из индекса. Этому содействует наличие ссылочного спама на указанные страницы, поэтому к ним и применяются соответственные фильтры.

Может быть, что вы сами того не зная, пополнили плохими ссылками внешний ссылочный профиль продвигаемого проекта. В таком случае необходимо от них избавляться.

Если вы ничего не предпринимали, а проверка указывает на ссылочный спам, значит это действия неких доброжелателей, которые хотят таким методом, избавится от конкурента. Также нужно избавляться от дублированных страниц.

Фильтры Google

Поисковик Google имеет следующие распространенные фильтры:

- Фильтр Панда оккупировал просторы интернета в 2011 году. Применяется он к сайтам, с неуникальным контентом, избыточной рекламой, ссылками некачественных сайтов-доноров, большим количеством ключевиков и др.

Чтобы из под него выйти следует потрудиться над уникальностью текста, избавится от некачественных ссылок, убрать ненужную рекламу (навязчивую, агрессивную или запрещенную) и лишние ключевые фразы.

На помощь предыдущему в 2012 году был создан фильтр Пингвин , наказывающий сайты за черные методы продвижения (внешние линки). Накладывается зачастую через быстрый прирост закупленных ссылок, большую плотность (выше 7%) ключевиков с прямым анкорным вхождением, дублированные страницы и скрытые ссылки.

Для выхода из-под него плотность ключевиков должна составлять не более 4 процентов, ссылки заменяются на безанкорные. Также следует избавиться от скрытых линков и сделать перенаправление дубликатов. Рекомендуется иметь ссылки естественные.

- Песочница(Sandbox). Накладывается на молодые сайты (до 3 месяцев). Предназначение данного фильтра заключается в борьбе с сомнительными сайтами (сайты однодневки) и спамом. Данный фильтр не обходит даже самые качественные проекты в начале их долгого пути.

Sandbox не распространяется на запросы с низкой или средней частотностью. Поэтому молодым ресурсам рекомендуется изначально какое-то время для продвижения использовать низкочастотные запросы.

Чтобы не попасть (выйти) под этот фильтр, необходимо следовать действиям:

Первое время ничего не предпринимать, просто ждать;

Затем обновить контент, добавить новый материал;

Найти (купить) старый домен с подходящей тематикой и делать на нем сайт или же склеить новый домен со старым.

- Дублированный контент . Применяется к сайтам, любителям красть (копировать) чужую информацию. Такие ресурсы попадают под фильтры Гугл и выпадают из индекса.

Чтобы подобные санкции предупредить для продвижения проекта всегда нужно использовать уникальный контент. Если же информация берется с других источников, делать ее качественный рерайт.

- Быстрый рост ссылок . Если за достаточно короткое время на сайте появилось внушительное количество ссылок, их влияние на ранжирование просто исчезает, так как Google воспринимает это манипуляцией по отношению к нему. В итоге ресурс теряет позиции и трафик.

Чтобы не попасть под фильтр, стоит максимально естественным путем (постепенно) пополнять ссылочную массу.

- Бомбинг . Действует при наличии обильного количества внешних ссылок с аналогичными анкорами. В итоге Гугл игнорирует их, сайт не индексируется и не продвигается в поисковике.

Минус 30 (-30). Его предназначение заключается в борьбе с реальным спамом в выдаче, сюда относятся сайты дорвеи или, имеющие скрытые редиректы.

Попав под фильтр, сайт понижается в выдаче и не показывается выше 30 позиции. Для его предотвращения просто не применяйте черные способы продвижения.

- Trust Rank (уровень доверия к ресурсу) .

Зависит от следующих показателей:

Ссылок на сайт и их качества;

Качества контента;

Внутренней перелинковки;

Возраста доменного имени.

- Социтирование . Продвигая свой ресурс, в обязательном порядке нужно позаботиться о том, чтобы на него ссылались сайты с похожей тематикой, в противном случае в силу приступает фильтр Социтирование.

Поисковик способен анализировать обратные линки на ваш ресурс, при большом проценте несоответствия их тематике или еще хуже нежелательной тематики (азартные игры и др.) накладывается данный фильтр. За указанным процессом можно проследить через сервис Google Webmaster Tools.

Чтобы под него не попасть, нужно избегать подобных ссылок и залучать наиболее тематические.

- Скорость загрузки сайта . От нее также зависит продвижение сайтов. При постоянной медленной загрузке из поисковика на сайт, Гугл понижает его позиции.

Чтобы этого избежать, нужно использовать качественные серверы и надежные провайдеры для размещения ресурса. А для своевременной помощи, рекомендуется периодически наблюдать за скоростью и доступностью проекта.

Во избежания всех неурядиц просто не используйте страницы со ссылками на иные сайты.

- Переоптимизация . Этот Гугл фильтр предназначен для понижения сайтов, имеющих чрезмерную внутреннюю переоптимизацию.

Ключевые запросы на странице (оптимизация) должны быть нормальными (умеренными).

Чтобы оградить себя от ненужных последствий, контент следует оптимизировать осторожно, не перенасыщать его ключевиками, чтобы текст был человекочитабельным.

Итог

Как уже говорилось, Google имеет огромное количество разнообразных фильтров, что даже профессионалам (оптимизаторам) бывает нелегко вычислить, под каким из них пребывает сайт.

В продвижении проекта достаточно будет учитывать основные вышерассмотренные фильтры Google, для предотвращения попадания своего проекта в бан или под фильтр.

Спасибо за внимание и до скорого на страницах Stimylrosta.

Обнаружили в тексте грамматическую ошибку? Пожалуйста, сообщите об этом администратору: выделите текст и нажмите сочетание горячих клавиш Ctrl+Enter

В этом разделе опубликованы все основные фильтры поисковых систем Яндекс и Google, которые "на слуху". Хотя эти фильтры принято частично относить к Яндексу, а частично - к Google, скорее всего, в том или ином виде, большинство из них присутствует в обоих поисковых системах.

Методы борьбы со всеми фильтрами практически идентичны. Как правило, они включают в себя:
1. Активное пополнение сайта уникальным контентом.
2. Высокая частота обновления сайта. Хорошо, если сайт обновляется хотя бы раз в сутки. Рекомендуемая частота обновления сайта для выхода из под фильтров - два раза в сутки.
3. Приобретение внешних ссылок с трастовых сайтов .
4. Письма в службу поддержки поисковых систем по поводу проблем с сайтом, отправленные через панель вебмастера , и устранение причин проблем.

Существование некоторых перечисленных фильтров находится под вопросом, но в любом случае, вся приведённая ниже информация - хорошая пища для размышления. Не стоит зацикливаться на принадлежности того или иного фильтра к определенной поисковой системе, так как при раскрутке сайта нежелательно потерять трафик ни с одной из них. Поэтому информацию по фильтрам основных поисковых систем оптимизатор белого сайта должен учитывать в комплексе.

Фильтры Google

Считается, что действие фильтров поисковой системы Google в русскоязычном сегменте интернета выражено слабее, чем в англоязычном. Некоторые фильтры возможно работают только в англоязычном сегменте.

Фильтр Гугла «Пингвин»

Фильтр Гугла «Панда»

"Песочница" (sandbox)

Как правило, применяется к недавно созданным сайтам, которые появились на свет в течение последнего полугода. Благодаря этому фильтру, Google не пускает страницы с "молодых" сайтов в результаты поиска по высокочастотным запросам, хотя по низкочастотным запросам - сайт вполне может присутствовать в поисковой выдаче.

Сайт может находиться в "песочнице" довольно долго: от 3-х месяцев до нескольких лет. Существует предположение, которое основано на наблюдении за "молодыми" сайтами, что они выходят из "песочницы" в массовом порядке. Тоесть, длительность пребывания в "песочнице" определяется не в индивидуальном порядке для каждого сайта, а сразу для групп сайтов. Группировка эта происходит на основании даты создания сайта. Через некоторое время, фильтр снимается для всей группы.

Существуют признаки, по которым можно предположить, что ваш сайт находится в "песочнице":

  • Сайт проиндексирован Google и регулярно посещается поисковым роботом
  • Ваш сайт нормально находится по редким и уникальным словосочетаниям, которые содержатся в тексте страниц
  • Поиск по домену выдает правильные результаты, с правильными описаниями, заголовками и т.д.
  • Ваш сайт не виден в первой тысяче результатов поисковой выдачи по любым другим запросам, в том числе по тем, под которые он изначально был оптимизирован.

Для того, чтобы выбраться из "песочницы", необходимо, чтобы появилось как можно больше естественных ссылок на Ваш сайт.

Фильтр "Дополнительные результаты"

Если страницы сайта попали под фильтр "Дополнительные результаты", это значит, что Google счёл их "недостойными" и поместил ниже "хороших" страниц - "под индекс". В этом случае эти страницы будут выводиться в результатах поиска лишь в том случае, если "хороших" страниц не хватает. Для того, чтобы выйти из такого фильтра, как правило, достаточно нескольких входящих ссылок.

Фильтр Bombing

Применяется к сайтам, которые имеют большое количество ссылок на себя с одним и тем же анкором (текстовым содержанием ссылки). Google справедливо считает, что это не естественно, так-как текст ссылки везде одинаковый. Для того, чтобы избежать попадания в данный фильтр, при покупке ссылок, необходимо следить за тем, чтобы анкоры на каждую покупаемую ссылку были уникальными.

Фильтр Bowling – это не совсем фильтр, а обобщённое название приёмов чёрного SEO, которые могут применить конкуренты для борьбы с Вашим сайтом с целью занесения его в бан. Данный фильтр актуален для молодых сайтов с низким TrustRank`ом, для сайтов с высоким TrustRank`ом он не может быть применён.
Google утверждает, что конкуренты никак не могут повредить позициям Вашего сайта, но если Вы заподозрили в бане своего сайта происки конкурентов – подавайте заявку на включение сайта в индекс поисковой системы.

Фильтр "Возраст домена"

Этот фильтр имеет много общего с фильтром "песочница". Многие оптимизаторы считают, что чем старше домен, тем большее доверие он вызывает у поисковиков, нежели недавно появившиеся сайты. Однако молодым сайтам можно пользоваться высоким доверием поисковика и не находиться в Sandbox и всё же попасть под этот фильтр. Единственный способ избежать попадания под этот фильтр вашего сайта – "обрасти" входящими ссылками с авторитетных сайтов.

Фильтр "Дублирующийся контент"

В сети существует большое количество сайтов, которые копируют контент, ранее уже публиковавшийся на других сайтах. Google старается наказывать такие сайты и понижает их позиции в результатах поиска. Старайтесь размещать уникальный контент на своем сайте, а также следите за тем, чтобы контент Вашего сайта не копировали другие пользователи интернета. При обнаружении факта копирования информации с Вашего сайта можно пожаловаться в Google.

Фильтр -30

Этот фильтр Google применяет к тем сайтам, которые используют некорректные, так называемые черные методы SEO, дорвеи (doorway) и редиректы (redirect) с помощью JavaScript. Если подобные механизмы обнаруживаются поисковыми системами на Вашем сайте, то выдача по запросам понижается на 30 позиций. Чтобы выйти из этого фильтра, обычно, достаточно убрать такие вставки из вашего кода.

Фильтр "Опущенные результаты"

Страницы Вашего сайта могут попасть под этот фильтр и практически выпасть из результатов поиска по следующим причинам: малое количество входящих ссылок, повторяющиеся заголовки и другие meta-тэги, дублирующий контент с других сайтов, а также слабая либо вовсе отсутствующая внутренняя перелинковка страниц сайта. Поэтому старайтесь избегать всех этих причин. Уделяйте внимание написанию meta-тэгов, это очень важно и для других поисковых систем.

Фильтр "Социтирование"

Ссылающиеся на ваш ресурс сайты, Google очень тщательно отслеживает. Например, если на Ваш сайт ссылается какой-нибудь порносайт либо сайт очень далекой тематикой от Вашего, то Google вполне может посчитать, что тематика Вашего сайта схожа с ссылающимся сайтом. Это может повредить "тематичности" Вашего сайта и, как следствие, понизить в результатах выдачи по тематическим запросам. Чтобы подобного не произошло, всегда проверяйте сайты, на которых покупаете ссылки.

Фильтр "Links"

Часто для обмена ссылками на сайте заводится одна страница (линкопомойка), на которой залинкованы "сайты-партнеры". Обмен ссылками - довольно старый способ повысить позиции сайта в результатах поисковой выдачи и не поощряется Google. В настоящее время этот способ малоэффективен, и лучше от него отказаться.

Фильтр "Много ссылок сразу"

Сайт попадает под такой фильтр, когда на него слишком быстро растет количество внешних ссылок. Это может привести к бану поисковыми системами Вашего ресурса. Чтобы этого не произошло, нужно очень аккуратно покупать ссылки, небольшими порциями и добавлять их по мере индексирования.

Фильтр "Чрезмерная оптимизация"

Под фильтр чрезмерной оптимизации обычно попадают сайты с большим количеством ключевых фраз, чрезмерной их плотностью, перенасыщенные meta-тэгами. Поэтому не стоит перебарщивать с оптимизацией страниц. Всего должно быть в меру.

Фильтр "Битые ссылки"

Когда ссылка ведет на отсутствующую страницу, то поисковой робот не может до нее добраться. И, как следствие, не может поместить ее в индекс и закэшировать (Google Cache). Это может плохо сказаться на результатах поиска, а также на общих показателях качества сайта. Необходимо избегать наличия подобных ссылок на Вашем сайте.

Фильтрация страниц по времени загрузки .

Если Ваша страница имеет слишком большое время загрузки (перегружена различными эффектами либо проблемы с хостингом), поисковая система просто откажется её загружать и индексировать, в результате чего она не появится в результатах поиска.

Общий фильтр "Степень доверия" (Google Trust Rank)

Этот фильтр включает в себя все показатели, о которых было сказано выше. Называется этот фильтр "степень доверия". Этот фильтр учитывает такие факторы как:

  • Возраст сайта
  • Количество авторитетных входящих ссылок
  • Количество исходящих ссылок
  • Качество внутренней навигации (перелинковки)
    а также многие другие факторы.

Чем выше Trust Rank (TR), тем выше Ваш сайт в результатах поиска.

Фильтры Яндекса

АГС (модификации: АГС-17 и АГС-30)

Фильтр, который выкидывает из индекса Яндекса сайты, созданные для поискового спама (сателлиты), оставляя поисковой выдаче лишь 1 - 15 страниц, не зависимо от общего количества страниц сайта. Главным основанием для наложения фильтра служит некачественный контент.

Фильтр за плохую структуру сайта

Фильтр «ты - спамный»

Непот-фильтр

Фильтр, который накладывается на отдельные ссылки, отдельные страницы сайта, а также на весь сайт в целом за ссылочный спам, продажу ссылок с сайта. Чтобы его избежать, желательно отказаться от продажи ссылок, либо продавать их осторожно, в небольших количествах, ставить естественные ссылки.

Редирект фильтр

Фильтр накладывается на сайты, которые используют javascript редиректы, как правило - дорвеи. Попадание под этот фильтр означает бан Вашего сайта в поисковой системе. Если Вы не хотите попадать под данный фильтр – не используйте javascript редиректы, а используйте flash и ajax.

Фильтр плотности ключевых слов

Фильтр, удаляющий из индекса страницы сайта за чрезмерную концентрацию ключевых фраз и слов. Во избежание попадания сайта под этот фильтр необходимо просто писать тексты для людей, избегая явно завышенной концентрации ключевых слов.

Фильтр «Ты последний»

Фильтр накладывается на страницу, идентифицированную поисковой системой, как дубль уже существующей в индексе страницы. Для того чтобы избежать наложение этого фильтра, необходимо создавать уникальный контент, а также запрещать копирование своего контента на другие сайты.

Статьи по теме .

Похожие статьи