Как менялись алгоритмы: обзор фильтров Google
Алгоритмы Google обновляются почти каждый месяц. Изменения работы поисковых систем, которые вызывают новые фильтры Google, влияют на результаты выдачи. Соответственно, меняется порядок продвижения сайтов в Украине. Чтобы эффективно и без ущерба раскрутить интернет-ресурс, важно знать о самых важных фильтрах поисковика. Ниже мы сделали обзор алгоритмов, что позволит вам оценить свой сайт и определить его недочеты.
Panda
Панда — один из фильтров Гугл, который запустили в начале 2011 года. Он направлен на выявление заспамленного контента с низкой уникальностью, а также дублируемых текстов с высоким процентом вхождения ключевых слов. Начиная с 2016 года Panda включен в основной алгоритм и активен до сих пор, хотя о его обновлениях не упоминается.
Гугл Панда может внести сайт в фильтр, если на нем есть дублированный контент, плагиат, переспам или автоматическая генерация. Под ударом ресурсы, на котором размещено мало контента, есть спам в комментариях или недостаточно пользовательского опыта. Это стоит учитывать, например, при продвижении ресторана и кафе.
Чтобы отвести удар Panda от сайта, нужно:
- Добиваться высокой уникальности текстов. Даже создание уникального контента не гарантирует защиты от того, что окажется сайт под фильтром. Необходимо периодически выполнять проверку контенту на предмет уникальности, так как случаи воровства не редки. Особенно сложно в работе с сайтами технической тематики, где уникализировать текст до 90% почти невозможно. С этой целью размещайте на сайте фото и видео, отзывы.
- Применение некоторых CMS приводит к созданию дублей страниц, в которых повторяются заголовки и Н1. Чтобы исключить проблему, нужно провести анализ структуры и закрыть их от индексации.
- Солидные объемы рекламы и несоизмеримо малое количество текста на сайте — еще один фактор риска. Для нормального восприятия алгоритмом стоит разместить уникальный и полезный контент.
Penguin
В числе важных фильтров Google — Пингвин, который запустили в 2012 году. Четыре года спустя Penguin добавили в основной алгоритм, чтобы выявлять сайты, которые продвигают с помощью неестественной ссылочной массы. Опасаться стоит тем, кто злоупотребляет неестественными анкорами, купленными ссылками, перелинковками с переспамленных ресурсов или страниц, содержание которых не отвечает линку.
Чтобы снять угрозу фильтров Гугл, нужно:
- мониторить качество ссылочной массы и соотношение неестественных бэклинков и естественным. Не нужно также резко наращивать их объем: увеличивайте количество ссылок планомерно и понемногу;
- при обнаружении низкокачественных линков обращайтесь к донорским ресурсам, чтобы те сняли их, или применяйте инструменты Google для отклонения.
Pirate
К важным фильтрам Гугл относят Pirate. Он снижает позиции сайтов, на которые жалуются другие пользователи в связи с использованием авторского контента. Это яркий пример площадок, на которых можно скачать или просмотреть мультфильмы, сериалы, прослушать музыку. Фильтр существенно скорректировал работу торрентов, где размещены ссылки, по которым можно скачать пиратский контент. Защита — полный отказ от авторского контента.
Hummingbird
Колибри поступил в ряды фильтров Google в 2013 году, после чего результаты поисковой выдачи стали более соответствовать смыслу. То есть, алгоритм анализировал смысл содержания интернет-ресурсов, а не только вхождения ключей. Сайт окажется под фильтром, если есть переспамленный текст или не используются синонимичные фразы и выражения.
Качество сайта анализируется и другими фильтрами. Чтобы узнать, не попал ли сайт под фильтр, стоит воспользоваться инструментами Google Search Console.