У robots.txt появился собственный сайт в Рунете

19 Октября 2006
в 12:00
0 1366

Robotstxt – это студийный проект, целью которого было объединить разрозненную информацию о стандарте исключения веб-роботов, с акцентом на русскоязычные поисковые роботы. Сайт содержит переводы материалов одноименного сайта robotstxt.org Мартина Костера . Российский проект полностью открыт для пользователей. Любой специалист в области продвижения и поддержки сайтов может вносить дополнения или делать необходимые поправки в текстах сайта.

«В Рунете, к сожалению, информация о файле robots.txt весьма разрозненная и неполная. И вот, в конце апреля, меня посетила простая мысль - почему бы не собрать переводы и прочую информацию об индексации сайтов и индексирующих роботах, в частности о robots.txt, на одном сайте. Меня поддержали», - комментирует один создателей проекта Дмитрий Атабеков (aka "Ctulhu").

Сейчас на сайте представлены следующие разделы: ЧаВо по веб-роботам (часто задаваемые вопросы о веб-роботах); Стандарт исключения роботов (как управлять Роботами, которые посещают веб-сайт); Роботы Рунета; Частые ошибки в robots.txt ; Ссылки по теме (аналог оригинального раздела “WWW Robots Related Sites”).

Накануне в Рунете появился интересный проект – сайт robotstxt.org.ru, , который содержит информацию о стандарте на robots.txt и другие статьи о написании корректных веб-роботов.

0 комментариев
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Поделиться 
Поделиться дискуссией:

Отправьте отзыв!
X | Закрыть