• Страница 1 из 1
  • 1
Форум » Web-Строй » HTML, CSS, XML, JavaScript » Robots.txt
Robots.txt
HaZarDДата: Суббота, 08.08.2009, 20:58 | Сообщение # 1
Главный Админ
Группа: Администраторы
Сообщений: 91
Награды: 0
Репутация: 1
Статус: Отключен
robots.txt - указывает поисковым роботам какие каталоги брать для индексации не следует. Если пуст или не существует, то все можно брать.
Поисковые сервера всегда перед индексацией вашего ресурса ищут в корневом каталоге вашего домена файл с именем "robots.txt" (именно с маленькой бувы) (http://www.mydomain.com/robots.txt).
Этот файл сообщает роботам (паукам-индексаторам), какие файлы они могут индексировать, а какие нет.

robots.txt состоит из двух полей:
User-agent - название робота,
Disallow - запрет на индексирование файла или директории.
Комментарии - начинаются с новой строки с #.

Редакторы
robots.txt должен создаваться в текстовом формате.
В качестве редактора можно использовать блокнот, FTP-клиент, некоторые HTML-редакторы.

Название
robots.txt, а не robot.txt или Robots.txt, иначе не будет работать.

Местонахождение
Файл robots.txt должен располагаться в корневом каталоге.

Пробелы
<Поле> ":" <значение>
Пробелы не имеют значения.

Комментарии
Комментарии - начинаются с новой строки с #. Пробел после # не обязателен.

Порядок
1-я строка User-agent, которая определяет робота,
а последующая Disallow определяет файл или папку, закрытую для индексирования.

Если запрет относится к ряду роботов, то они пишутся один за одним отдельно, а потом запрет или перечень запретов, например:

Code
User-agent: StackRambler
User-agent: Aport
Disallow: /eng
Disallow: /news  
#Рамблеру и Апорту запретить индексацию ссылок,
#которые начинаются с /news и /eng

То же самое и для Disallow - каждый запрет с новой строчки.

Если же для разных роботов разные запреты, то они разделяются пустой строкой, например:

Code

User-agent: *
Disallow: /news
# запретить всем роботам индексировать ссылки,
#которые начинаются с /news

Code
User-agent: StackRambler
User-agent: Aport
Disallow: /eng
Disallow: /news
#Рамблеру и Апорту запретить индексацию ссылок,
#которые начинаются с /news и /eng

Code
User-agent: Yandex
Disallow:
#Яндексу разрешить все.

Запрет всем роботам индексацию файлов с расширениями .doc и .pdf:

Code
User-Agent: *
Disallow: /*.doc$
Disallow: /*.pdf$

===============================================
ПРИМЕРЫ:

Code
User-agent: Roverdog
Disallow: email.htm

Разрешает всем роботам индексировать все:

Code
User-agent: *
Disallow:

Запрещает всем роботам всё:

Code
User-agent: *
Disallow: /

Запрещает всем роботам индексировать файл email.htm, все файлы в папке "cgi-bin" и папке 2-го уровня "images":

Code
User-agent: *
Disallow: email.htm
Disallow: /cgi-bin/
Disallow: /images/

Запрещает роботу Roverdog индексировать все файлы сервера:

Code
User-agent: Roverdog
Disallow: /

Еще пример:

Code
User-agent: *
Disallow: /cgi-bin/moshkow
Disallow: /cgi-bin/html-KOI/AQUARIUM/songs
Disallow: /cgi-bin/html-KOI/AQUARIUM/history
Disallow: /cgi-bin/html-windows/AQUARIUM/songs
Disallow: /cgi-bin/html-windows/AQUARIUM/history

==================================================
МЕТА-тег ROBOTS

МЕТА тег robots служит для того, чтобы разрешать или запрещать роботам, приходящим на сайт, индексировать данную страницу. Кроме того, этот тег предназначен для того, чтобы предлагать роботам пройтись по всем страницам сайта и проиндексировать их. Сейчас этот тег приобретает все большее значение.

Code
<HTML>
<HEAD>
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
<META NAME="DESCRIPTION" CONTENT="Эта страница ….">
<TITLE>...</TITLE>
</HEAD>
<BODY>

NOINDEX - запрещает индексирование документа;
NOFOLLOW - запрещает проход по ссылкам, имеющимся в документе;
INDEX - разрешает индексирование документа;
FOLLOW - разрешает проход по ссылкам.
ALL - индексировать всё, равносильно INDEX, FOLLOW
NONE - не индексировать ничего, равносильно NOINDEX, NOFOLLOW

Примеры мета-тега robots:

Code
<META NAME=ROBOTS" CONTENT="NOINDEX, FOLLOW">
<META NAME=ROBOTS" CONTENT="INDEX, NOFOLLOW">
<META NAME=ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

Robots.txt Checker - бесплатная проверка функциональности файла robots.txt


Если человек не хочет делать того, что надо, пусть он лучше не делает, того, что может...
 
Форум » Web-Строй » HTML, CSS, XML, JavaScript » Robots.txt
  • Страница 1 из 1
  • 1
Поиск: