Topic: Настройка файла robots txt
С помощью файла robots.txt запрет на индексацию определенных страниц сайта можно устанавливать как для всех роботов сразу, так и для каждого в отдельности или выборочно.
Всем роботам разрешено индексировать все:
User-Agent: *
Disallow:
Всем роботам запрещено индексировать сайт:
User-Agent: *
Disallow: /
Запрещаем роботу Yandex индексировать каталог админки:
User-Agent: Yandex
Disallow: /admin/
Запрещаем роботу Google индексировать страницу контактов:
User-Agent: Googlebot
Disallow: /contacts.htm
Запрещаем всем индексировать каталог админки и страницы вначале адреса которых есть слово "admin":
User-Agent: *
Disallow: /admin
Как правильно составить robots.txt
В правильном robots.txt директивы для поисковых роботов должны быть расположены в четкой последовательности: от общих директив, касающихся всех, до частных - для отдельных поисковиков.
User-Agent: *
Crawl-delay: 3
Disallow: /admin/
Disallow: /cache/
Disallow: /search.php
User-Agent: Googlebot
Disallow: /admin/
Disallow: /cache/
Disallow: /extern.php?*
Disallow: /misc.php?*
Disallow: /search.php
User-Agent: Yandex
Disallow: /admin/
Disallow: /cache/
Disallow: /extern.php?*
Disallow: /misc.php?*
Disallow: /search.php
Host: punbb.info
Sitemap: https://punbb.softplaza.net/sitemap.xml