Что такое фильтры google? За что можно попасть под фильтр

Апрель 24, 2020

Катерина Золотарева

Рейтинг: 1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд Загрузка...

Фильтры поисковой системы – это часть алгоритма, которая отвечает за то, чтобы некачественные или использующие некорректные методы продвижения сайты не показывались в SEO выдаче. То есть это своего рода “штрафы и наказания” плохим сайтам с точки зрения гугла.

А с точки зрения владельца сайта это “крах и ужас”, потому что в сайт было вложена масса денег и усилий, которые из-за неправильных действий “вылетели в трубу”.

Какие бывают фильтры, как их диагностировать и не допустить, и как вывести сайт из-под них – читайте ниже.

* * *

Диагностика фильтров усложняется тем, что если раньше они “накладывались” в какой-то определенный момент и их можно было диагностировать по резкому падению трафика, то сейчас они стали частью поискового алгоритма, и просто не дают расти некачественным сайтам. То есть сайт как бы резко не теряет трафик, но и не растет. Резкое падение трафика по этой причине мы можем наблюдать только при появлении принципиально новых фильтров, которые потом станут частью алгоритма и будут действовать по принципу “стеклянного потолка”

Изменения алгоритма – это изменение базовой формулы и общих принципов ранжирования сайтов, которое влияет на все сайты в целом и меняет общую картину поисковой выдачи. И если фильтров мы просто стараемся избежать, то изменения алгоритмов мы должны учитывать в формировании общей SEO стратегии.

* * *

Для начала, нужно разобраться в том, почему именно сайт может резко терять трафик и позиции. Кроме фильтров могут быть и другие причины:

  • сайт поменял домен, структуру или названия урлов без корректной переадресации. Соответственно старые страницы выпали из индекса, а новые еще туда не попали.
  • сайт был какое-то время недоступен на уровне хостинга. Если он был недоступен длительное время, то даже после восстановления работоспособности позиции и трафик могут не вернуться
  • вирусы и взломы. Если google обнаруживает вредоносное ПО или массу страниц либо исходящих ссылок с “запрещенной” тематикой, он удалит ваш сайт из своего индекса. Шансы на восстановления показателей прямо пропорциональны времени зараженности сайта.

 

Фильтр Google Panda

Панда – фильтр за переспамленный контент. В зоне риска сайты, которые используют неуникальные тексты или используют слишком много ключевых слов. Этот фильтр сейчас включен в основной поисковый алгоритм и применяется ко всему сайту целиком.

Могут пострадать сайты, которые:

  • копируют контент с других сайтов – причем санкции могут идти как за полное копирование, так и за слишком слабую уникализацию
  • вставляют очень много ключевых слов – рекомендуется вхождение 1 основного ключа в 300-500 символов
  • пишут ключевые слова в неестественной форме – все эти “ноутбук киев купить”
  • большое количество нетематической рекламы
  • отсутствие структуры контента – те самые “простыни текста, которые никто не читает”
  • публикуют тексты с большим количеством орфографических и пунктуационных ошибок

При этом “панда” затрагивает весь сайт, и за нарушения на части страниц google может пессимизировать сайт полностью. За серьезные нарушения, например, за полностью скопированные тексты google может полностью удалить из индекса весь сайт.

Также один из симптомов наложения этого фильтра является ситуация, когда фрагмент текста на сайте не ищется в google по широкому соответствию.

* * *

Как не попасть под Панду (и заодно что делать, если уже попали)

  • не копируйте чужие тексты себе на сайт, даже если это страницы типа “доставка и оплата”
  • если при написании текста вы берете за основу чужой текст (а кто этого не делает?), то следите, чтобы ваш текст был абсолютно не похожий на первоисточник
  • проектируйте структурированные страницы: блоки, подзаголовки, списки, таблицы, иллюстрации
  • следите за разнообразием перелинковки и анкорных текстов внутренних ссылок
  • посмотрите через Google Analytics, какие страницы получают меньше всего трафика, и доработайте тексты на этих страницах, либо удалите их полностью
  • добавляйте новые материалы и обновляйте старые тексты

В зависимости от количества “преступлений” на сайте снятие фильтра может занять разное количество времени – от недели до нескольких месяцев. Чаще всего изменения случаются только при уже следующем апдейте алгоритма. В том случае, если домен перестал полностью индексироваться, скорее всего потребуется полная смена домена.

Алгоритм Колибри (Hummingbird)

Колибри – алгоритм, который призван распознавать смысл поисковых запросов пользователя и предлагать ему максимально релевантный контент. Сайты могут пострадать от действия этого алгоритма в том случае, если используют искусственную оптимизацию текстов под нерелевантные поисковые запросы.

Но при этом в результате этого алгоритма google может показать пользователю контент, релевантный его запросу, даже если в тексте нет точного вхождения, а используются например синонимы или описывается необходимое понятие другими словами.

Развитием Колибри стало обновление алгоритма Rank Brain, который через механизм машинного обучения и искусственного интеллекта анализирует семантическое содержание страниц, поисковое поведение пользователей, и постепенно начинает ранжировать выше те сайты, которые лучше отвечают пользователям.

 

Фильтр Google Penguin

Пингвин – фильтр, наказывающий за проставление на сайт искусственных ссылок. С точки зрения гугла искусственной считается любая ссылка, на появление которой повлиял оптимизатор либо владелец бизнеса. При этом не важно, эта ссылка купленная или бесплатная. Если гугл решил, что ее проставил не ваш благодарный клиент или независимый журналист – вы в зоне риска. Известен кейс, когда крупный американский цветочный салон пострадал от пингвина после массовой просьбы своим клиентам поставить ссылку на их сайт на своих ресурсах.

После 2016 года “пингвин” действует уже не как фильтр, а как часть основного алгоритма google. И за “плохие ссылки” сайт скорее не выйдет в топ или получит небольшое снижение (на 5-10 позиций). Как правило, пингвин действует точечно на страницы с некачественными ссылками и не затрагивает сайт полностью.

 

В зоне риска такие ссылочные стратегии

  • анкорные ссылки – ссылки которые содержат ключевое слово в тексте
  • ссылки с некачественных сайтов – созданных не для людей, а для продажи ссылок
  • ссылочный взрыв – резкое увеличение ссылочной массы без отдельных на то причин
  • повторяющиеся анкоры – одни и те же анкорные ссылки, в особенности если они содержат ключевое слово
  • ссылки с футера, боковых частей сайтов – ссылки, которые находятся вне зоны основного контента
  • ссылки с нетематических и нерегиональных доноров – с сайтов, тематика и регион / язык которых существенно отличается от продвигаемого
  • проставление ссылок с PBN-сетки сайтов, созданной специально для прокачки вашего сайта ссылочной массой
  • использование сервисов, которые автоматически проставляют ссылки на ваш сайт

Если вы обнаружили на своем сайте некачественные ссылки, мы рекомендуем отклонить их с помощью инструмента Disavow. Эта процедура сейчас ставится под сомнение, так как представители google утверждают, что некачественные ссылки просто не учитываются, однако в этом вопросе предосторожность никогда не лишняя.

 

Как проверить качество ссылок:

  1. Вручную. Выгружаем весь список доменов-доноров через сервис ahrefs, в нем они как раз по умолчанию отсортированы по показателю Domain Rank.  В “зоне риска” находятся ссылки с DR ниже 20. Их просматриваем ручную и просим вебмастеров убрать, если донор некачественный. Либо отклоняем через сервис Disallow Tools
  2. Сервис Check Trust. Он по своим алгоритмам определяет качество ссылочной массы. Рекомендуется включать разные типы проверок, для того, чтобы последовательно проанализировать ссылки от самых плохих, до более качественных. С найденными плохими ссылками поступаем так же, как в пункте выше.

 

При этом удалять или отклонять ссылки также нужно постепенно, потому что резкое снятие ссылок может ухудшить положение.

 

Google Sandbox

Песочница (Sandbox) – это скорее мифологический фильтр, чем реальная часть алгоритма. Новые сайты действительно обычно не получают сразу трафик, но это потому что новый сайт еще должен набрать ссылочную массу и получить доверие (траст) со стороны поисковых систем.

 

Для того, чтобы резко зайти в ТОП гугла с новым сайтом, рекомендуем обратить внимание на 2 вещи:

  1. Качество статьи. Для того, чтобы новый сайт получил преимущество относительно старых, нужно, чтобы ее качество было на порядок выше относительно тех, которые уже сейчас занимают ТОП.
  2. Ссылочная масса. Для резкого роста трафика лучше делать сайт не на свежезарегистрированных доменах, а на дропах – доменах с историей и ссылочной массой. Предварительно проверив это все на качество.

Фильтр Your Money Your Life, или “медицинский апдейт”

Your Money Your Life, сокращенно YMYL – это изменение алгоритма ранжирования сайтов, которые подходят под категорию “особенно важных для человека”, которые могут существенно влиять на его жизнь. Это в первую очередь сайты медицинской тематики, из-за которой этот алгоритм ошибочно называют “мед апдейтом”, но также и финансы, новости, социальные вопросы, интернет-магазины и другие типы ресурсов.

В этом апдейте гугл начал обращать внимание не только на релевантность, но и на авторитетность контента. Иными словами, главный проверочный вопрос, который вы должны задать при оптимизации сайтов в этой нише – “могу ли я доверять этому сайту”.

Сайты такого типа часто оцениваются асессорами Google вручную, и особенный акцент в проверке делается на том, кто автор данного контента, является ли он признанным экспертом в отрасли и соответствуют ли данные общепринятой парадигме.

Если разложить этот параметр на критерии, то получается следующий список:

  • контент должен быть проверенный – то есть содержать подтвержденные данные
  • контент должен содержать цитаты или иметь авторство признанных экспертов данной отрасли
  • уникальная всесторонняя информация о теме или продукте – описание, характеристики, отзывы, фото, видеообзоры и т.д.
  • сайт должен иметь актуальную и обновляющуюся информацию – как в контексте конкретной статьи, так и на сайте в целом
  • удобные технические решения – навигация, выбор, процесс покупки
  • страница должна быть удобно и понятно оформлена, с хорошо проработанной структурой и иллюстративным материалом
  • текст не должен содержать грамматических, стилистических и орфографических ошибок
  • на сайте должны быть данные, подтверждающие вашу экспертизу – сертификаты, дипломы, отзывы, данные о ваших клиентах
  • ясная и полная контактная информация, способы связи, условия покупки и доставки, гарантии и т.д.
  • контакты всех представительств с именами руководителей и других контактных лиц
  • аккаунты всех филиалов в Google My Business

Некоторые факторы с трудом поддаются искусственной накрутке. Например, экспертность автора определяется его присутствием в медиаполе – публикациями и упоминаниями на других известных сайтах и в социальных сетях.

Также одним из факторов является репутация сайта в целом – отзывы про его деятельность на специальных отзовиках и других ресурсах.

 

Другие причины пессимизации сайтов

Поисковая система google может снизить показатели вашего сайта за такие недоработки:

  1. Слишком низкая скорость загрузки – проверяется сервисом https://developers.google.com/speed/pagespeed/insights/?hl=RU
  2. Низкая смысловая ценность и новизна текстов
  3. Большое количество внутренних битых ссылок
  4. Продажа ссылок со страниц сайта
  5. Клоакинг – размещение разного текста для пользователей и для поисковых систем
  6. Искусственные “звездочки” рейтинга, которые выводятся в сниппет и другой спам в микроразметке
  7. Отсутствие мобильной версии сайта
  8. Размещение у себя пиратского контента
  9. Жалобы других пользователей на пиратский контент на вашем сайте (DMSA жалобы)

И это только часть возможных причин проседания сайтов. В реальности же для понимания нужно рассматривать каждый сайт отдельно.

Строгость фильтров также зависит от геотаргетинга продвижения. Самый сложный, где сильнее всего фильтруют за спамные методы, рынок США и Канады. Поэтому в этих странах совершенно нет бирж платных ссылок, а усилия SEO-специалистов направлены на создание качественного контента, информативных посадочных страниц и аутрич-ссылок.

По сути фильтры следят за исполнением принципов “белого SEO” – делайте сайты для людей и не покупайте спамные ссылки.

Проверка сайта на наличие фильтров Google

Кроме тех способов по каждому типу фильтров, которые мы описали выше, можно воспользоваться следующими сервисами

  1. Таймлайн обновления фильтров Google от аналитической компании Moz – https://moz.com/google-algorithm-change
  2. Сервис Panguin SEO Tools от Barracuda – https://barracuda.digital/panguin-seo-tool/

Заключение

Здесь должны были бы быть глубокие выводы, но статья получилась и без того тяжеловесной. Поэтому напишем только то, что фильтров гораздо проще избежать, чем “лечить” сайт от последствий. Так что безопасность продвижения – одно из обязательных условий работы любого SEO-оптимизатора, который работает вдолгую и с белыми нишами.

Оценить статью: 1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд Загрузка...

Поделится в соц. сетях:

Последние записи