Еще больше про SEO, сайты и маркетинг
+секретные методики в нашем телеграм канале!
Несложный набор команд покрывает большинство задач. Вот ключевые элементы:
User-agent: * Disallow: /private/ Allow: /private/public-info.html Sitemap: https://example.com/sitemap.xml
Частая ошибка — пытаться скрыть страницу от индексации только через robots.txt. Если вы закрыли URL с помощью Disallow, поисковик может не сканировать страницу, но всё равно показать её в результатах поиска, если на неё ссылаются другие сайты. Чтобы полностью запретить появление в выдаче, используйте мета-тег robots с «noindex» на самой странице и убедитесь, что поисковик может её просканировать.
| Задача | Директива | Примечание |
|---|---|---|
| Запретить весь сайт | User-agent: * / Disallow: / | Отключит сканирование всеми роботами |
| Разрешить весь сайт | User-agent: * / Disallow: | Пустой Disallow — разрешение сканирования |
| Скрыть административный раздел | Disallow: /admin/ | Полезно для уменьшения нагрузки |
После правки файла проверьте его: разместите в корне и откройте по адресу https://вашдомен/robots.txt. Для Google есть тестировщик в Search Console — он покажет, как Googlebot оценивает правила. Неполадки чаще всего связаны с опечатками в путях или с неверной кодировкой файла.
Robots.txt — не панацея, но мощный и простой инструмент. Правильная настройка помогает экономить ресурсы сервера, ускорять индексацию важных страниц и избегать попадания в индекс временных или чувствительных URL. Настройте файл осознанно, проверяйте результат в Search Console и помните: запрет сканирования ≠ запрет индексации.