Дубли страниц: оценка ущерба, вычисление и ликвидация
Дубли страниц - это дублирующие друг друга страницы в рамках одного ресурса, которые содержат схожий полностью или частично схожий контент, а также могут быть проиндексированы поисковыми системами и не имеют ограничения для добавления в индексируемую базу данных поисковых систем. Например, многие CMS системы генерируют однотипные страницы с контентом, который дублируется - это и является дублями искомой страницы. Такие страницы способны значительно снизить метрические показатели посещаемости сайта и в целом снизить эффективность продвижения сайта. Поэтому необходимо знать, как находить и распознавать их, дабы вовремя устранять потенциальную угрозу.
Определение дублей страниц
Под дублями в SEO подразумевают страницы, наполнение которых тождественно в большей или меньшей мере, но находятся они не на одном URL-адресе. Различают четкие и нечеткие.
Какую угрозу для продвижения сайта несут дубли страниц?
- Позиции страниц, соответствующих запросам, стабильно перескакивают, так как поисковик не может однозначно выбрать нужную страничку для показа.
- Страдает ранжирование от пониженной доли страничек с контентом высокой уникальности.
- Вес ссылок размывается, поскольку они распределяются по дублям страниц.
- Почему появляются дублирующие страницы?
- Неправильно работающая система управления сайтом приводит к тому, что причиной появления дублей становится CMS.
- Вредит продвижению сайта факт, при котором какая-либо опция генерирует адреса с одинаковым наполнением касательно странички, не имеющей параметров в URL.
- Результаты человеческой деятельности, как-то: текстовые фрагменты, имеющие сквозной характер; сквозные блоки; публикации, дублирующие друг друга.
- Плод несовершенного функционирования CMS и человеческих ошибок, примером чего служат неправильно прописанные и в итоге зацикленные ссылки.
Поиск дублей страниц на ресурсе
Для улучшения SEO показателей оптимально нейтрализовать это опасное для сайта явление, что можно сделать в несколько шагов.
- С помощью программ NetPeak Spider или аналогичных софт-инструментов проводим сканирование сайта и сортировку по тегу мета. Обратить внимание, помимо совпадающих данных, стоит на отсутствующие метаданные, что является рекомендацией к закрытию от индексирования для эффективности продвижения сайта.
- Далее ищем копии, не показанные парсером, для чего нам понадобится вкладка «Оптимизация HTML» в личном кабинете web-мастера Google.
В завершении придется искать копии в ручном режиме, просматривая параметрические адреса и неразделимые алиасы.
Устранение проблемы дублирующихся страниц
Искоренение причины и результатов имеющихся изъянов принесет положительные результаты, что можно сделать таким образом:
- Добавить директиву в robots.txt.
- В ситуации, когда нужно сохранить страницу открытой для индексирования, а дубли страниц единичны, можно выставить настройки 301 direct с копии на первоначальную страничку.
- Если публикация размещена по разным адресам, то в код всех постов встраивается тег link rel=”canonical”.
- Работа с параметрами url в Google Search Console – в этом поможет вкладка «Сканирование».
Отдельно следует сказать и о пагинации: разделы с несколькими страничками не подпадают под определение дубля страницы, так как содержимое их отличается уникальностью, и распознаются поисковиками. Для них можно встроить элементы микроразметки. Хэштеги в URL не подлежат индексации, поэтому их присутствие также не должно волновать SEO-специалиста.
Автор статьи:

Также читайте в нашем блоге:







