В процессе SEO-продвижения иногда требуется закрыть определённые страницы сайта от индексации поисковыми системами. Это может быть полезно для скрытия технических страниц, личных данных или страниц с дублирующимся контентом. Рассмотрим основные методы закрытия страницы от индексации и приведём примеры кода для их реализации.
Зачем закрывать страницы от индексации?
- Предотвращение дублирующегося контента.
Исключение из индекса страниц с одинаковым содержимым помогает избежать штрафов за дублирование. - Скрытие технических страниц.
Страницы, такие как корзина, личный кабинет или страницы фильтров, не должны попадать в индекс. - Улучшение краулингового бюджета.
Поисковые системы тратят ограниченное время на сканирование сайта, и закрытие ненужных страниц помогает эффективно распределить этот ресурс.
Методы закрытия страниц от индексации
1. Мета-тег <meta name="robots">
Этот тег указывается в <head>
страницы и сообщает поисковым системам, что данную страницу не нужно индексировать.
Пример кода:
<head>
<meta name="robots" content="noindex, nofollow">
</head>
- noindex — запрет на индексацию страницы.
- nofollow — запрет на передачу ссылочного веса через ссылки на странице.
2. Файл robots.txt
Файл robots.txt
находится в корневой директории сайта и используется для указания поисковым системам, какие страницы или разделы сайта не нужно сканировать.
Пример кода:
User-agent: *
Disallow: /private-page/
Disallow: /admin/
- User-agent: указывает, каким ботам применять правила (
*
— для всех). - Disallow: запрещает доступ к указанному пути.
Важно: robots.txt
только запрещает сканирование, но не гарантирует исключение страниц из индекса. Если на страницу ссылаются другие сайты, она может быть проиндексирована.
3. HTTP-заголовок X-Robots-Tag
Этот метод позволяет закрыть страницу от индексации через серверный ответ, что особенно полезно для файлов (например, PDF или изображения).
Пример настройки в .htaccess
:
<Files "private.pdf">
Header set X-Robots-Tag "noindex, nofollow"
</Files>
4. Использование канонического тега с пустой ссылкой
Если страница должна существовать, но не быть основной, можно использовать тег Canonical, указывающий на другую страницу.
<head>
<link rel="canonical" href="https://example.com/main-page" />
</head>
5. Ограничение доступа через пароль
Для закрытия страниц от всех пользователей, включая поисковые системы, можно использовать ограничение доступа через пароль. Это предотвращает несанкционированный доступ.
Пример настройки в .htaccess
:
AuthType Basic
AuthName "Restricted Access"
AuthUserFile /path/to/.htpasswd
Require valid-user
Что выбрать?
- Если страница не нужна в индексе, но остаётся доступной пользователям, используйте
<meta name="robots">
сnoindex
. - Для скрытия всего раздела используйте
robots.txt
. - Если вы хотите исключить файлы, такие как PDF или изображения, используйте заголовок
X-Robots-Tag
. - Для чувствительных данных или ограничений доступа используйте пароль.
Частые ошибки
- Закрытие важных страниц.
Убедитесь, что вы случайно не закрыли страницы, которые должны быть проиндексированы. - Использование только
robots.txt
.
Помните, чтоrobots.txt
не гарантирует удаления страницы из индекса, если на неё ведут внешние ссылки. - Противоречивые инструкции.
Не используйте одновременноnoindex
иDisallow
для одной страницы.
Проверка результата
- Используйте Google Search Console для проверки индексации страниц.
- Расширения для браузеров, такие как SEO Meta in 1 Click, помогут убедиться в наличии тега
noindex
на странице. - Инструменты для анализа заголовков HTTP, например, cURL или Screaming Frog, помогут проверить заголовок
X-Robots-Tag
.
Правильное закрытие страниц от индексации помогает улучшить структуру сайта и направить внимание поисковых систем на важный контент. Следуйте приведённым рекомендациям, чтобы избежать ошибок и достичь лучших результатов в SEO.