Как закрыть страницу от индексации: руководство с примерами кода

noindex

В процессе SEO-продвижения иногда требуется закрыть определённые страницы сайта от индексации поисковыми системами. Это может быть полезно для скрытия технических страниц, личных данных или страниц с дублирующимся контентом. Рассмотрим основные методы закрытия страницы от индексации и приведём примеры кода для их реализации.


Зачем закрывать страницы от индексации?

  • Предотвращение дублирующегося контента.
    Исключение из индекса страниц с одинаковым содержимым помогает избежать штрафов за дублирование.
  • Скрытие технических страниц.
    Страницы, такие как корзина, личный кабинет или страницы фильтров, не должны попадать в индекс.
  • Улучшение краулингового бюджета.
    Поисковые системы тратят ограниченное время на сканирование сайта, и закрытие ненужных страниц помогает эффективно распределить этот ресурс.

Методы закрытия страниц от индексации

1. Мета-тег <meta name="robots">

Этот тег указывается в <head> страницы и сообщает поисковым системам, что данную страницу не нужно индексировать.

Пример кода:

<head>
    <meta name="robots" content="noindex, nofollow">
</head>
  • noindex — запрет на индексацию страницы.
  • nofollow — запрет на передачу ссылочного веса через ссылки на странице.

2. Файл robots.txt

Файл robots.txt находится в корневой директории сайта и используется для указания поисковым системам, какие страницы или разделы сайта не нужно сканировать.

Пример кода:

User-agent: *
Disallow: /private-page/
Disallow: /admin/
  • User-agent: указывает, каким ботам применять правила (* — для всех).
  • Disallow: запрещает доступ к указанному пути.

Важно: robots.txt только запрещает сканирование, но не гарантирует исключение страниц из индекса. Если на страницу ссылаются другие сайты, она может быть проиндексирована.


3. HTTP-заголовок X-Robots-Tag

Этот метод позволяет закрыть страницу от индексации через серверный ответ, что особенно полезно для файлов (например, PDF или изображения).

Пример настройки в .htaccess:

<Files "private.pdf">
    Header set X-Robots-Tag "noindex, nofollow"
</Files>

4. Использование канонического тега с пустой ссылкой

Если страница должна существовать, но не быть основной, можно использовать тег Canonical, указывающий на другую страницу.

<head>
    <link rel="canonical" href="https://example.com/main-page" />
</head>

5. Ограничение доступа через пароль

Для закрытия страниц от всех пользователей, включая поисковые системы, можно использовать ограничение доступа через пароль. Это предотвращает несанкционированный доступ.

Пример настройки в .htaccess:

AuthType Basic
AuthName "Restricted Access"
AuthUserFile /path/to/.htpasswd
Require valid-user

Что выбрать?

  • Если страница не нужна в индексе, но остаётся доступной пользователям, используйте <meta name="robots"> с noindex.
  • Для скрытия всего раздела используйте robots.txt.
  • Если вы хотите исключить файлы, такие как PDF или изображения, используйте заголовок X-Robots-Tag.
  • Для чувствительных данных или ограничений доступа используйте пароль.

Частые ошибки

  1. Закрытие важных страниц.
    Убедитесь, что вы случайно не закрыли страницы, которые должны быть проиндексированы.
  2. Использование только robots.txt.
    Помните, что robots.txt не гарантирует удаления страницы из индекса, если на неё ведут внешние ссылки.
  3. Противоречивые инструкции.
    Не используйте одновременно noindex и Disallow для одной страницы.

Проверка результата

  • Используйте Google Search Console для проверки индексации страниц.
  • Расширения для браузеров, такие как SEO Meta in 1 Click, помогут убедиться в наличии тега noindex на странице.
  • Инструменты для анализа заголовков HTTP, например, cURL или Screaming Frog, помогут проверить заголовок X-Robots-Tag.

Правильное закрытие страниц от индексации помогает улучшить структуру сайта и направить внимание поисковых систем на важный контент. Следуйте приведённым рекомендациям, чтобы избежать ошибок и достичь лучших результатов в SEO.