Войти как пользователь
Вы можете войти на сайт, если вы зарегистрированы на одном из этих сервисов:
Россия +7 (495) 139-20-33
29 Декабря 2005 в 12:00

Мастерство использования robots.txt файлов

Россия +7 (495) 139-20-33
0 9630
Подпишитесь на нас в Telegram

Упростить работу по оптимизации можно используя файлы robots.txt . Они представляют собой простые файлы, указывающие роботам, паукам поисковой системы, какие файлы индексировать в базу данных, а какие нет. В данной статье будут представлены доказательства важности robots.txt для процесса оптимизации, а также возможные последствия не использования или использования неверно составленных файлов robots.txt.

Как поисковые системы реагируют на Robots.txt

Определенной модели поведения поисковых систем при встрече с файлами robots.txt во время их обхода нет. Достаточно проследить информацию из web stats, чтобы понять востребованность файлов robots.txt у поисковых систем. Большинство пауков начинают обход сайта, в первую очередь, с изучения именно этих файлов. При отсутствии robots.txt-файлов, большинство поисковых роботов будут обходить web-сайты, оставляя их не проиндексированными. Пренебрежение файлами robots.txt повлечёт за собой негативные последствия, однако существуют и более отрицательные результаты.

Поведение большинства крупных поисковых роботов и пауков при чтении файлов robots.txt разнообразно.


MSNbot
Поисковый робот системы MSN называется MSNbot. Он довольно активно обходит web-сайты. Некоторым web-мастерам это нравится, и они пытаются этим пользоваться. Другие не видят никаких причин тратить старания на поисковые системы, считая, что это не повлияет на увеличение трафика. MSNbot не станет обходить сайт, если он (сайт) не представлен файлами robots.txt. Присутствие подобных файлов в базе данных увеличивает интерес поискового робота к сайту.

Несколько месяцев назад MSN получила много жалоб на то, что MSNbot игнорирует директории, прописанные в файлах robots.txt. Разработчики рассмотрели проблему и внесли некоторые изменения, позволяющие контролировать подобное поведение роботов.


Yahoo’s Inktomi Slurp
Yahoo легализовал использование поискового робота Inktomi, теперь известного как Slurp. Кажется, что Inktomi/Yahoo's Slurp перерабатывает большой объем информации за пару дней, исчезает, возвращается, перерабатывает намного больше и вновь исчезает. Однако без файлов robots.txt его функционирование представляется более медленным, порой не эффективным, т.к. он не может проникнуть глубоко в структуру сайта.


Googlebot
На сайте Google представлены рекомендации и необходимые инструкции по правильному использованию подобных файлов. Поисковым оптимизаторам хорошо известно, что инструкции Google для web-мастеров - это больше, чем просто пошаговые рекомендации по оптимизации сайтов в поисковых системах. Так что, если файлы robots.txt упоминаются Google, значит, использовать их стоит. Без них Googlebot обходит сайты не достаточно эффективно.


IA_Archiver
Это робот поисковой системы Alexa. Охарактеризовать его можно как агрессивного «паука» с большим «аппетитом», вызываемым новой информацией, но, несмотря на это, очень любезным и обходительным. Он ограничивает свой обход до пары сотен страниц за один раз и функционирует достаточно медленно чтобы не перегружать сервер. Этот робот проводит свой обход в течение нескольких дней. Очередное появление робота ia_archiver можно определить, проанализировав статистику сайта. Он полностью выполняет команды и указания robots.txt-файлов.

Существует много пауков и роботов, демонстрирующих другое поведение во время обхода сайта. «Хорошие» будут следовать файлам robots.txt, «плохие» - нет. Далее будут рассмотрены некоторые способы, позволяющие избежать проблем с поисковыми роботами и использовать помощь файлов robots.txt.

Усовершенствованные команды и свойства файлов robots.txt

Основной набор команд, составляющих файлы robots.txt, представляют собой информацию двух видов: команды и характеристики. Следует помнить, что не все поисковые роботы понимают эти команды. Важно знать, какие именно не справляются с этим.


Приостановка индексирования
Некоторые роботы известны тем, что обходят веб-страницы с мгновенной скоростью, тем самым, становясь причиной того, что веб-серверы ограничивают доступ к ip-адресам сайтов другим роботам, активизируя специальное программное обеспечение. Когда робот начинает слишком быстро считывать информацию из базы данных, эта программа начинает блокировать работу поисковой системы.

Не обязательно наказывать всех поисковых роботов, используя эти программы, контролировать действия более послушных роботов можно с помощью команды приостановки индексирования: crawl delay.

User-agent: MSNbot
Disallow: /

С помощью другой команды robots.txt можно точно определить время приостановки (в секундах), после окончания которого, MSNbot приступит к дальнейшему индексированию страниц. Она (команда) выглядит следующим образом:

User-Agent: MSNbot
Crawl-Delay: 20

Другими поисковыми роботами, поддерживающими эту команду, являются Slurp, Ocelli, Teoma/AskJeeves, Spiderline. Официально Googlebot считается воспитанным роботом и следует данной команде, т.к. зачастую в этом нет необходимости. Если Вы не уверенны, поддерживается ли эта команда роботами той или иной поисковой системы, на помощь придет группа технической поддержки этой поисковой системы. Получить контактную информацию можно на сайте Robots.Txt.org, там же Вы найдете перечень многих поисковых роботов и указание на то, к какой поисковой системе они относятся. Например, не многие знают, что Slurp принадлежит Yahoo, а Scooter - AltaVista.


Мета-тэг инструкции
Благодаря широкому распространению поисковых роботов, перечислить всех с описанием их преимуществ и недостатков не представляется возможным. Многие малоизвестные из них не учитывают robots.txt-файлы. Что делать в этом случае? Многие веб-мастера добавляют специальные команды к мета-тэгам. Подобно всем остальным мета-тэгам, такие тэги ставятся в секции

.

< meta name="robots" content="noindex">, данный тэг сообщает поисковому роботу не индексировать страницу.

< meta name="robots" content="noindex,nofollow">, тэг также запрещает роботу индексировать и анализировать его на ссылки.


Ниже представлен список возможных тэгов:

< meta name="robots" content="index,follow">
< meta name="robots" content="noindex,follow">
< meta name="robots" content="index,nofollow">
< meta name="robots" content="all">

К сожалению, нет гарантии того, что каждый поисковый робот будет следовать данной команде. В случае непослушания остается одно - найти в лог-файлах сервера IP-адрес, с которого робот заходит на Ваш сайт, и просто запретить ему доступ к Вашей базе данных.


Ограничение потребляемых ресурсов
Другая проблема, связанная с роботами поисковых систем, - это необходимые для их работы ресурсы. Робот может израсходовать чуть ли не весь Ваш трафик всего лишь за один визит на сайт. Таким образом, индексирование обернется для Вас дорогим удовольствием.

Отсутствие файла robots.txt может стать причиной ошибки № 404, когда поисковая система просто не может найти нужную страницу. Размещение на сайте страницы, предназначенной для вывода информации об ошибке 404, также повлечет расход трафика. Поэтому небольшие robots.txt-файлы, не требующие значительных затрат, могут стать наиболее приемлемым решением проблемы.

Некоторые веб-разработчики предлагают другой способ, позволяющий сократить затраты трафика поисковым роботом, – это тег "revisit-after", например:

< meta name="revisit-after" content="15 days">

Однако не все поисковые системы (например, Google) поддерживают эту программу. И если Вы заметили, что Googlebot слишком часто заходит в Вашу базу данных, поглощая немало трафика, следует обратиться к справочным страницам Google с просьбой о том, чтобы Googlebot реже посещал сайт.

Можно также закрыть доступ к базе данных для определенных роботов и открыть его для других или прописать индивидуальную инструкцию для каждого робота . Работа с robots.txt отличается гибкостью.

Использование robots.txt в целях обеспечения общей безопасности

Многим известна история компании Perfect 10, которая обвинила корпорацию Google в незаконном использовании информации, а точнее, фотографий с их сайта. Согласно BusinessWire.com, прикрываясь статусом поисковой системы, Google незаконно распространил тысячи фотографий, принадлежащих Perfect 10, и этим привлек на свой сайт огромный трафик, сопоставимый с прибылью в сотни тысяч долларов, по праву предназначенных для Perfect 10. Как утверждает Perfect 10, даже после обвинений в посягательстве на "частную собственность", Google и не думает прекращать свою не корректную деятельность и продолжает распространять фотографии, не спрашивая на то разрешения.

Самое интересное в этой ситуации то, что виноваты, как ни странно, сами Perfect 10. Они не проинструктировали поисковую систему о том, что использование фотографий запрещено. Две простые строчки robots.txt-файла в базе данных помогли бы избежать подобных проблем.

User-agent: Googlebot-Image
Disallow: /images

В заключение отметим: для того чтобы сохранить что-либо в тайне, нужно использовать логины и пароли! Не хотите, чтобы поисковая система проиндексировала Ваш сайт, используйте robots.txt и специальные мета-теги. Robots.txt- файлы - эффективный метод контроля, только не забывайте, что безопасность Вашей информации - в Ваших руках!

По информации www.seochat.com

0 комментариев
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.

Отправьте отзыв!
X | Закрыть