Що таке фільтри google? За що можна попасти под фільтр?

Фільтри пошукової системи – це частина алгоритму, яка відповідає за те, щоб неякісні сайти або ті, використовують некоректні методи просування, не показувалися в SEO видачі. Тобто це свого роду “штрафи і покарання” поганим сайтам з точки зору гугла.

А з точки зору власника сайту це “крах і жах”, тому що в сайт було вкладено маса грошей і зусиль, які через неправильні дії “вилетіли в трубу”.

Які бувають фільтри, як їх діагностувати і не допустити, і як вивести сайт з-під них – читайте нижче.

* * *

Діагностика фільтрів ускладнюється тим, що якщо раніше вони “накладалися” в якийсь певний момент і їх можна було діагностувати по різкому падінню трафіку, то зараз вони стали частиною пошукового алгоритму, і просто не дають рости неякісним сайтам. Тобто сайт як би різко не втрачає трафік, але і не росте. Різке падіння трафіку з цієї причини ми можемо спостерігати тільки при появі принципово нових фільтрів, які потім стануть частиною алгоритму і будуть діяти за принципом “скляної стелі”.

Зміни алгоритму – це зміна базової формули і загальних принципів ранжування сайтів, яке впливає на всі сайти в цілому і змінює загальну картину пошукової видачі. І якщо фільтрів ми просто намагаємося уникнути, то зміни алгоритмів ми повинні враховувати в формуванні загальної SEO стратегії.

* * *

Для початку, потрібно розібратися в тому, чому саме сайт може різко втрачати трафік і позиції. Крім фільтрів можуть бути й інші причини:

  • сайт змінив домен, структуру або назви урлів без коректної переадресації. Відповідно старі сторінки випали з індексу, а нові ще туди не потрапили.
  • сайт був якийсь час недоступний на рівні хостингу. Якщо він був недоступний тривалий час, то навіть після відновлення працездатності позиції і трафік можуть не повернутися
  • віруси і взломи. Якщо google виявляє шкідливі програми та масу сторінок або вихідних посилань з “забороненою” тематикою, він видалить ваш сайт зі свого індексу. Шанси на відновлення показників прямо пропорційні часу зараженості сайту.

Фільтр Google Panda

Панда – фільтр за заспамлений контент. У зоні ризику сайти, які використовують неунікальні тексти або використовують занадто багато ключових слів. Цей фільтр зараз включений в основний пошуковий алгоритм і застосовується до всього сайту цілком.

Можуть постраждати сайти, які:

  • копіюють контент з інших сайтів – причому санкції можуть йти як за повне копіювання, так і за надто слабку унікалізацію
  • вставляють дуже багато ключових слів – рекомендується входження 1 основного ключа в 300-500 символів
  • пишуть ключові слова в неприродній формі – по типу “ноутбук київ купити”
  • велика кількість нетематичної реклами
  • відсутність структури контенту – по типу “простирадла тексту, які ніхто не читає”
  • публікують тексти з великою кількістю орфографічних і пунктуаційних помилок

При цьому “панда” зачіпає весь сайт, і за порушення на частині сторінок google може пессімізувати сайт повністю. За серйозні порушення, наприклад, за повністю скопійовані тексти google може повністю видалити з індексу весь сайт.

Також один із симптомів накладення цього фільтра є ситуація, коли фрагмент тексту на сайті не шукається в google по широкій відповідності.

* * *

Як не потрапити під Панду (і водночас що робити, якщо вже потрапили)

  • не копіюйте чужі тексти собі на сайт, навіть якщо це сторінки типу “доставка і оплата”
  • якщо під час написання тексту ви берете за основу чужий текст (а хто цього не робить?), стежте, щоб ваш текст був абсолютно не схожий на першоджерело
  • проектують структуровані сторінки: блоки, підзаголовки, списки, таблиці, ілюстрації
  • стежте за різноманітністю перелинковки і анкорних текстів внутрішніх посилань
  • подивіться через Google Analytics, які сторінки отримують найменше трафіку, і допрацюйте тексти на цих сторінках, або видаліть їх повністю
  • додавайте нові матеріали і оновлюйте старі тексти

В залежності від кількості “злочинів” на сайті зняття фільтра може зайняти різну кількість часу – від тижня до декількох місяців. Найчастіше зміни відбуваються лише при вже наступному апдейті алгоритму. У випадку, якщо домен перестав повністю індексуватися, швидше за все буде потрібна повна зміна домену.

Алгоритм Колібрі (Hummingbird)

Колібрі – алгоритм, який має розпізнавати значення пошукових запитів користувача і пропонувати йому максимально релевантний контент. Сайти можуть постраждати від дії цього алгоритму в тому випадку, якщо використовують штучну оптимізацію текстів під нерелевантні пошукові запити.

Але при цьому в результаті цього алгоритму google може показати користувачу контент, релевантний його запиту, навіть якщо в тексті немає точного входження, а використовуються наприклад синоніми або описується необхідне поняття іншими словами.

Розвитком Колібрі стало оновлення алгоритму Rank Brain, який через механізм машинного навчання і штучного інтелекту аналізує семантичний зміст сторінок, пошукову поведінку користувачів, і поступово починає ранжувати вище ті сайти, які краще відповідають користувачам на іх запити.

Фільтр Google Penguin

Пінгвін – фільтр, що карає за проставлення на сайт штучних посилань. З точки зору гугла штучним вважається будь-яке посилання, на появу якого вплинув оптимізатор або власник бізнесу. При цьому не важливо, це посилання куплене або безкоштовне. Якщо гугл вирішив, що його проставив не ваш вдячний клієнт або незалежний журналіст – ви в зоні ризику. Відомий кейс, коли великий американський квітковий салон постраждав від пінгвіна після масового прохання своїм клієнтам поставити посилання на їх сайт на своїх ресурсах.

Після 2016 року “пінгвін” діє вже не як фільтр, а як частина основного алгоритму google. І за “погані посилання” сайт скоріше не вийде в топ або отримає невелике зниження (на 5-10 позицій). Як правило, пінгвін діє індивідуально на сторінки з неякісними посиланнями і не зачіпає сайт повністю.

У зоні ризику такі стратегії посилань

  • анкорні посилання – які містять ключове слово в тексті
  • посилання з неякісних сайтів – створених не для людей, а для продажу посилань
  • вибух кількості посилань – різке збільшення маси посилань без зрозумілих причин
  • анкори, які повторюються – ідентичні анкорні посилання, особливо якщо вони містять ключове слово
  • посилання з футера, бічних частин сайтів – посилання, які знаходяться поза зоною основного контенту
  • посилання з нетематичних і нерегіональних донорів – з сайтів, тематика, регіон і мова яких істотно того сайту, що просувається
  • проставлення посилань з PBN-сітки сайтів, створеної спеціально для прокачування вашого сайту посиланнями
  • використання сервісів, які автоматично проставляють посилання на ваш сайт

Якщо ви виявили на своєму сайті неякісні посилання, ми рекомендуємо відхилити їх за допомогою інструменту Disavow. Ця процедура зараз ставиться під сумнів, так як представники google стверджують, що неякісні посилання просто не враховуються, проте в цьому питанні обережність ніколи не зайва.

Як перевірити якість посилань:

  1. Вручну. Вивантажуємо весь список доменів-донорів через сервіс ahrefs, в ньому вони як раз за замовчуванням відсортовані за показником Domain Rank. В “зоні ризику” знаходяться посилання з DR нижче 20. Їх переглядаємо вручну і просимо вебмайстра прибрати посилання, якщо донор неякісний. Або відхиляємо через сервіс Disallow Tools
  1. Сервіс Check Trust. Він за своїми алгоритмами визначає якість посилань. Рекомендується включати різні типи перевірок, для того, щоб послідовно проаналізувати посилання від найгірших до більш якісних. Знайдені погані посиланнями видаляємо так само, як в пункті вище.

При цьому видаляти або відхиляти посилання також потрібно поступово, тому що різке зняття посилань може погіршити ситуацію.

Google Sandbox

Пісочниця (Sandbox) – це скоріше міфологічний фільтр, ніж реальна частина алгоритму. Нові сайти дійсно зазвичай не отримують відразу трафік, але це тому що новий сайт ще повинен набрати кількість посилань і отримати довіру (траст) з боку пошукових систем.

Для того, щоб швидко вийти в ТОП гугла з новим сайтом, рекомендуємо звернути увагу на 2 речі:

  1. Якість статей. Для того, щоб новий сайт отримав перевагу над старими, потрібно, щоб якість його контенту була на порядок вище відносно тих, які вже зараз займають ТОП.
  2. Посилання. Для різкого зростання трафіку краще робити сайт не ноих зареєстрованих доменах, а на дроп-доменах з історією і посилальною масою. Попередньо перевіривши їх на якість.

Фільтр Your Money Your Life, або “медичний апдейт”

Your Money Your Life, скорочено YMYL – це зміна алгоритму ранжирування сайтів, які підходять під категорію “особливо важливих для людини”, які можуть істотно впливати на його життя. Це в першу чергу сайти медичної тематики, через яку цей алгоритм помилково називають “мед апдейтом”, але це також і фінанси, новини, соціальні питання, інтернет-магазини та інші типи ресурсів.

У цьому апдейті гугл почав звертати увагу не тільки на релевантність, а й на авторитетність контенту. Іншими словами, головне питання для перевірки, яке ви повинні задати при оптимізації сайтів в цій ніші – “чи можу я довіряти цьому сайту”.

Сайти такого типу часто оцінюються асессорами Google вручну, і особливий акцент в перевірці робиться на тому, хто автор даного контенту, чи є він визнаним експертом в галузі і чи відповідають дані загальноприйнятій парадигмі.

Якщо розкласти цей параметр на критерії, то виходить наступний список:

  • контент повинен бути перевірений – тобто містити підтверджені дані
  • контент повинен містити цитати або мати авторство визнаних експертів в цій галузі
  • унікальна всебічна інформація про тему або продукті – опис, характеристики, відгуки, фото, відеоогляди і т.д.
  • сайт повинен мати актуальну і оновлену інформацію – як в контексті конкретної статті, так і на сайті в цілому
  • зручні технічні рішення – навігація, вибір, процес покупки
  • сторінка повинна бути зручно і зрозуміло оформлена, з добре пропрацьованою структурою і ілюстративним матеріалом
  • текст не повинен містити граматичних, стилістичних та орфографічних помилок
  • на сайті повинні бути дані, що підтверджують вашу експертизу – сертифікати, дипломи, відгуки, дані про ваших клієнтів
  • зрозуміла та повна контактна інформація, способи зв’язку, умови покупки і доставки, гарантії і т.д.
  • контакти всіх представництв з іменами керівників і інших контактних осіб
  • аккаунти всіх філіалів в Google My Business

Деякі фактори практично не піддаються штучній накрутці. Наприклад, експертність автора визначається його присутністю в медіаполі – публікаціями і згадками на інших відомих сайтах і в соціальних мережах.

Також одним з факторів є репутація сайту в цілому – відгуки про його діяльність на спеціальних сайтах з відгуками та на інших ресурсах.

Інші причини пессимізації сайтів

Пошукова система google може знизити показники вашого сайту за такі недоробки:

  1. Занадто низька швидкість завантаження – перевіряється сервісом https://developers.google.com/speed/pagespeed/insights/?hl=RU
  2. Низька смислова цінність і новизна текстів
  3. Велика кількість внутрішніх битих посилань
  4. Продаж посилань зі сторінок сайту
  5. Клоакінг – розміщення різного тексту для користувачів і для пошукових систем
  6. Штучні “зірочки” рейтингу, які виводяться в сниппет і інший спам в мікророзмітці
  7. Відсутність мобільної версії сайту
  8. Розміщення у себе піратського контенту
  9. Скарги інших користувачів на піратський контент на вашому сайті (DMSA скарги)

І це тільки частина можливих причин просідання сайтів. В реальності ж для розуміння потрібно розглядати кожен сайт окремо.

Строгість фільтрів також залежить від геотаргетинга просування. Найскладніший, де найсильніше фільтрують за спамні методи, ринок США і Канади. Тому в цих країнах зовсім немає бірж платних посилань, а зусилля SEO-фахівців спрямовані на створення якісного контенту, інформативних посадочних сторінок і аутріч-посилань.

По суті фільтри стежать за виконанням принципів “білого SEO” – робіть сайти для людей і не купуйте спамние посилання.

Перевірка сайту на наявність фільтрів Google

Крім тих способів по кожному типу фільтрів, які ми описали вище, можна скористатися наступними сервісами

  1. Таймлайн оновлення фильтрів Google від аналітичної компанії Moz – https://moz.com/google-algorithm-change
  2. Сервіс Panguin SEO Tools від Barracuda – https://barracuda.digital/panguin-seo-tool/

Висновки

Тут повинні б бути глибокі висновки, але стаття вийшла і без того завелика. Тому напишемо тільки те, що фільтрів набагато простіше уникнути, ніж “лікувати” сайт від наслідків. Так що безпека просування – одна з обов’язкових умов роботи будь-якого SEO-оптимізатора, який працює вдолгую і з білими нішами.

    Хочу залишити заявку