Как вы считаете, насколько сильно влияет на улучшение сканирования поисковиками наличие в корне сайта карты сайта (sitemap.xml)? Да и вообще что это получается что робот просканирует только те страницы, которые будут указаны в файле sitemap.xml, а остальные если в файле их пока нет что мимо кассы так сказать??? Может быть, достаточно файла с обычной визуальной страницей, на которой карта сайта для людей. Просто сделать все ссылки текстовыми, чтобы робот легко их читал?
Прошу писать только тех, кто действительно разбирается в оптимизации и продвижении сайтов.
Раздел: Интернет, последний комментарий: 24.03.2011 20:19 Вопрос закрыт автором
Нет, этот файл в большинстве случаев не нужен и ни на процент не влияет на индексацию. По крайней мере это не доказано. Просто на разных сайтах структура ссылок может быть запутана и люди делают sitemap, чтобы указать роботу на разные странички.
Если нужны конкретные ответы - пиши лично, а то тут очень много умных ))
Нет, этот файл в большинстве случаев не нужен и ни на процент не влияет на индексацию. По крайней мере это не доказано. Просто на разных сайтах структура ссылок может быть запутана и люди делают sitemap, чтобы указать роботу на разные странички.
Если нужны конкретные ответы - пиши лично, а то тут очень много умных ))
ЗАспорим? Что в гугле этот файл позволяет за полчаса в индекс вгнать страницу?
Добавлено спустя 54 секунды
Если нужны конкретные ответы - пиши лично, а то тут очень много умных ))
Ну правильно иначе твои советы погубили бы мир:)
Добавлено спустя 02 минуты 33 секунды
на 40%
влияет
Скажи мне как ты считал процент?
Добавлено спустя 04 минуты 24 секунды
По крайней мере это не доказано. Просто на разных сайтах структура ссылок может быть запутана и люди делают sitemap, чтобы указать роботу на разные странички.
КЭП я уже 4 раз читаю твой комент и нахожу что-нибудь смешное ....
Ты говоришь о сайт мап как о инопланетянах на земле...
"Это ещё не доказано! ", "Они не влияют на нашу жизнь"
файл sitemap нужен. Он сообщает ПС о всех страницах сайта, т.е. ПС после загрузки всех страниц своими роботами обращает внимание на sitemap и проверяет страницы в нем на соответствие с загруженными роботами и если находит в sitemap что-то новое, то добавляет, в случае если что-то было прогруженно роботом, а в sitemap не описано, то ничего не происходит, т.е. страница, о которой узнал робот ПС, но которая не описана в sitemap все равно будет добавлена в индекс, если удовлетворяет всем условиям.
Вывод: sitemap используется для более точной передачи данных для индексирования страниц.