Привет друзья, в этой статье поговорим о дублях, если вы не сталкивались с этой проблемой, тогда у вас попросту нет учётной записи в Яндекс вебмастер или в других поисковиков.
Что значит дубль для поисковика, это страница, которая не принесёт пользы человеку, и поэтому индексации не подлежит.
Как возникают дубли
Появления дублей, это человеческий фактор, например,
- Разместили две похожих статьи.
- Статья не содержать достаточной уникальности.
- Неправильно настроен robots.txt или полное отсутствие.
Были сайты, которые торговали трафиком, а качестве привлечения брали чужой контент, сейчас, наверное, такого уже нет, хотя авторитетным сайтам можно публиковать не уникальный контент, скорее всего в меру, можно. Вы Посещали сайт Google +? Там тьма дублей, которые плодят участники, а сабскрайб, разрешает публиковать ту же запись в нескольких группах, хотя группа с вашей статьёй попадает в поиск.
Чем вредны дубли для сайта, блога
- Размытие ссылочного веса
- Вместо того чтобы скапливать ссылочный вес, мы его будем терять из-за дублей.
- Дубликат может попасть в выдачу или после редактирования основного есть шанс, что старый дубль займёт позицию в поиске.
- Основной текст теряет уникальность, а поисковика как вы знаете, не любит, не уникальны текст, в этом случае, могут исключить основную статью, над которой продолжается работа, поскольку робот ещё не умеет различать, где дубль.
От 80 до 100% Можно считать уникальным текстом |
Если вам необходимо иметь на сайте дубли, не только для вас, и для посетителей, используйте 301 дерект или robots.txt
Какие бывают дубли
- Первое, что можно посчитать дублем, это правильность URL.
URL могут быть такими:
https//www.izi.website
Или
https//izi.website
А с 2017 Google требует защиту https |
Всё это, мы можем указать в robots, зеркало сайта, если у вас их несколько, нужно указать. |
- Если страница имеет два адреса. И такое возможно.
https//izi.website/book1/book2/
https//izi.website/book2/book1/ - Правильность отображения URL.
https://wizi.website/ book.php?dir=1231&id =313 — будет считаться не верным.
https://izi.website / dir / 1231 / id / 313 — будет верным. - Реф. ссылки тоже могут вызвать дубли, т.к в них содержится ваш id. Здесь нечего страшного нет, вы можете создать новый домен или поместить под запрет, с помощью disallow: *?ref в robots.
А бывают частичные дубликаты.
Когда мы прописываем title, deckription, keyword, h1
Способы устранения дубликатов.
Как вы уже знаете, чтобы запретить индексировать дубли, придуман robots, а ещё нам поможет 301 редирект. Существует ещё один тег <noindex, disallow> он запрещает индексировать часть текста, который вы укажете в коде.
Вот так, и решаются вопросы с дублями, а лучше их не допускать, когда пишете на низкочастотные запросы. При использование robots, вес на НЧ будет уходить, а обратно, нет.
Как проверить страницы на дубли
- Для этого метода необходимо чтобы существующие страницы уже были в поиске, то есть прошли индексацию. Начнём.
- Открываем любой текст, копируем кучек текста(предложение), и вставляем в кавычки, только допишите свой адрес, и ищем.
Нет дублей, нет результата |
В случае негативного результата, стоит провести анализ результата, то есть, посетить всё страницы. Если можно, удаляйте. Есть необходимость их оставить? Используйте, robots, Clean-Param, и тэги, которые я указал выше.
Если страница содержит несколько предложение дубля, можно её оставить, разумеется, что статья не содержит всего 4 предложения. |