Осторожно! дубли страниц — ваши злейшие враги!

Дубли страниц: в чем главная проблема?

Начинающие СЕО оптимизаторы, ввиду собственной неопытности и незнание отдельных основ, очень не замечают больших проблем, которые не дают сайту занять ТОПовые позиции в поисковой выдаче.

Одной из проблем такого рода считается дублирование страниц сайта.
Дубли страниц могут значительно замедлить продвижение, а в большинстве случаев вообще его свести на нет. Также дубли негативно воздействуют на индексацию, авторитет и доверие к сайту со стороны поисковых роботов. Как можно заметить, проблем бывает очень много, по этому необходимо разбираться, что ж этой за дубли страниц, где они берутся, а основное, как их закрыть.
Все дубли можно поделить на две большие категории:
1. Четкие дубли – это те страницы, которые имеют аналогичный контент, однако при этом различные УРЛ адреса. В основном, страницы различаются только идентификаторами (к примеру .html, .php, .htm и т.д) Значительная часть четких дублей появляется из-за неправильного или неумелого пользование движком сайта. Движ сам вырабатывает дубли, зато вы, как оптимизатор заботящийся о собственном проекте, должны быстро реагировать на это и закрывать либо удалять дублирующиеся страницы.
Также дубли возникают и из-за халатности самого вебмастера. Поменяли УРЛ страницы, а иную забыли закрыть, либо установить 301 редирект. Вот и выходит, что одна и также страница, с одинаковым контентом, доступна под всевозможными адресами.
2. Нечеткие дубли появляются на случай, когда часть контента одной страницы выводится где-нибудь в других блоках, или на иных страничках. Нередко в “online магазинах” странице товарных категорий, страницы рубрик имеют частичные дубли. Ведь на различных страничках могут выводиться теже самые товары, а это выполняет идентичный контент.
Также страницы поиска по сайту и анонса новостей могут отчасти дублировать контент с иных страниц.

Как их найти на ресурсе?

Для чего мы закрываем дубли? Чтобы в поисковых системах не было похожих страниц. А если они есть, то собственно в поисковых системах и стоит их искать. Выполнить это не трудно. Если вы подозреваете, что какая-нибудь страница может дублироваться, то возьмёте кусочек текста, лучше всего 10-15 слов, не более, и введите его в строку поисковика. Тоже необходимо установить ограничение, чтобы поиск шел исключительно по вашему сайту. Если будут дубли, то в результатах вы сможете увидеть не одну страницу, а несколько. Главную оставляем, а вот другие необходимо будет закрыть. Как сделать это? Детальнее будет написано ниже.
Также дубли страниц можно взглянуть через Яндекс и Google вебмастер. Если страниц немножко, то открывайте раздел «проиндексированные» или «добавленные в поиск» и смотрите, какие сайты имеют похожий тайт, однако при этом различный УРЛ. Вероятнее всего – это дублирующиеся страницы.

Как закрыть дубли? несколько самых простых способов

Как только вы сможете найти дубли, необходимо принимать решение о их закрытии. Способ закрытия дублей зависит от того, насколько они вам необходимы, стоит ли чтобы эта страница принимала участие в поиске.
Если это прямой дубль, то 100% он в поисках не требуется и его закроем через robots.txt, а если это страница категории, или галерея, где выводятся анонсы, то здесь необходимо применять иные способы.
Как закрыть дубли при помощи Robots.txt
Robots.txt – это системный файл в котором вы можете прописать конкретные команды направлены поисковому роботу поисковых систем. Есть одна весьма полезная директива Disallow , она позволяет сказать роботу, что данную страницу не стоит индексировать и иметь в виду в поиске. Мы как бы прячем ее, делаем незаметной для поисковика, таким образом сводим к 0 вредное воздействие. Через Disallow можно закрывать неуникальный контент, пустые страницы, технические и подобные, что не несут ценности для потребителя. В нашем же случаем мы закроем дубли.
Дубли можно закрывать как по одному, прописывая запрет индексации определенной страницы, так и целой рубрикой. Как сделать это? К примеру, вы желаете закрыть весь раздел «спорт», который находится по адресу mysite.ru/razdel/спорт/ Для этого в Роботсе прописываем:

Disallow: /спорт/
По желанию закрыть всего лишь одну страницу из раздела спорт, то пропишите:
Disallow: /straniza_razdela_sport
В Яндекс вебмастере есть любопытная функция, она позволяет загрузить роботс вашего сайта и проводить там тестирования. Вы можете прописывать разные директивы, закрывать страницы и разделы, а после взглянуть как в действительности Яндекс будет индексировать сайт если вы оставите такой роботс. Довольно удобно, и сразу становится понятно какой будет результат.

Как закрыть дубли с помощь 301 редиректа

Редирект – это перенаправление с одной страницы на иную. Поисковый робот или клиент, при заходе на дублирующуюся страницу будет автоматично попадать на ключевую. Этот метод применяется если вы изменили движок, либо переписали структуру сайта, и вышло, что многие страницы изменили собственный УРЛ. В результате страница с одинаковым контентом будет доступна по двум различным адресам.
Допустим, у вас был сайт на одном языке, а вы захотели выполнить его мультиязычным. Прежде страница на русском была доступна по адресу mysite.ru/straniza_1, а после смены по адресу mysite.ru/ru/straniza_1. Чтобы не было никаких дублей, мы делаем редирект с устаревшей на новую.
Чем полезен 301 редирект? Помимо того, что не будет дублей, если вы все выполнит правильно в глазах поисковых роботов, плюс ко всему еще и вес старой страницы (если на нее покупались ссылки) передастся на новую. Был случай, когда сайт переселился с домена .com.ua на .ua, при этом проставили редирект, выполнили все правильно. Позиции не на долго просели, но после вернулись ,а на протяжении определенного времени даже ТИЦ старого домена передался на новый.

Поисковая оптимизация сайта: ищем дубли страниц


Комментариев нет, будьте первым кто его оставит