Еще больше про SEO, сайты и маркетинг
+секретные методики в нашем телеграм канале!
Robots.txt — это простой текстовый файл, который решает сложную задачу: кому давать доступ к страницам сайта, а кому закрывать путь. Для владельца проекта он похож на регулировщика на перекрестке поисковых роботов. Неправильная настройка может закрыть важные страницы от индексации, а грамотная — сэкономить бюджет обхода и подсказать Яндексу предпочтительный домен.
В этой статье разберём практические правила, обязательные для Яндекса, объясним важные директивы и приведём рабочие примеры, которые можно адаптировать под свой сайт.
Файл должен лежать в корне сайта по адресу https://example.com/robots.txt. Яндекс запрашивает его перед обходом, поэтому любое расположение иначе, чем в корне, не сработает. Поместите файл в кодировку UTF-8, тогда символы и пути корректно воспринимаются.
Если файл отсутствует, Яндекс считает, что всё разрешено для индексации. Если файл есть, он применяется ко всем роботам, если внутри явно не прописаны исключения по User-agent.
Есть несколько директив, которые важны именно для Яндекса. Некоторые из них уникальны, другие — общие и привычные по Google, но поведение может различаться. Ниже — краткая таблица с назначением.
| Директива | Назначение |
|---|---|
| User-agent | Кому адресовано правило — например, Yandex или * |
| Disallow | Запрещает доступ к указанному пути |
| Allow | Разрешает конкретный путь при общем запрете |
| Sitemap | Указывает расположение карты сайта |
| Host | Указывает предпочтительный домен — директива, поддерживаемая Яндексом |
| Crawl-delay | Рекомендует время паузы между запросами робота |
Host — это особенность Яндекса. Если у вас несколько зеркал (www и без www), укажите в robots.txt один предпочитаемый хост, например Host: example.com. Эта директива учитывается только Яндексом и помогает выбрать основной домен при индексации.
Host не заменяет корректные 301-редиректы и настройку канонических URL. Он лишь подсказывает Яндексу предпочтение, но не гарантирует абсолютной приоритетности.
Ниже несколько типичных шаблонов. Возьмите за основу и подгоняйте под структуру сайта.
Пример 1 — открытый сайт с картой:
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml Host: example.com
Пример 2 — закрыть административную часть, открыть остальное:
User-agent: * Disallow: /admin/ Disallow: /tmp/ Allow: /public/ Sitemap: https://example.com/sitemap.xml Host: example.com
Ошибки делают даже опытные специалисты. Вот список, который помогает их избежать:
Проверяйте файл через инструмент Яндекс.Вебмастер. Там можно протестировать конкретный URL и увидеть, как робот трактует правила.
Последовательность простая и минималистичная:
Если придерживаться этих шагов, вы настроите логичный и понятный для Яндекса robots.txt, который сохранит трафик и облегчит индексирование важных страниц.