На движке вордпресс после публикации статьи она может быть доступна по нескольким разным адресам (к обычному адресу добавляется еще ссылки с тегов и с календаря).
Склеивают ли поисковые машины страницы в таких случаях подобно тому как они "клеют" идентичные сайты?
Где-что читал, что индексацию тэгов и календаря лучше всего запретить в файле robots.txt. Я не могу понять, насколько важную роль это играет? Какая разница, по какой ссылке поисковик будет выдавать в первую очередь одну и ту же статью одного и того же сайта?
Раздел: Маникюр, Педикюр, последний комментарий: 22.06.2011 17:52 Вопрос закрыт автором
тег more у тебя на постах стоит? если да, то фильтри за дубль не накладут.
но лутше запрети страници которие дают дубли контента. Также слишал, что поисковики могут оставить в поиске например страницу с дублем в поиске, а оригинальною под фильтер всунуть, ето уже как им понравится.
кстати у меня такой роботс.тхт:
Также слишал, что поисковики могут оставить в поиске например страницу с дублем в поиске, а оригинальною под фильтер всунуть, ето уже как им понравится.