Главная/ База знаний/ Технические проблемы
База знаний

robots.txt блокирует важные разделы

Каталог, товары или статьи закрыты от поисковиков случайным Disallow. Как найти и починить безопасно.

Технические проблемы · 4 мин чтения

Симптом

Причина

В robots.txt есть Disallow:, который случайно перекрывает нужное. Типичные ошибки:

Disallow: /catalog        # закрывает /catalog/ и /catalog-test/
Disallow: /*?             # закрывает все страницы с любыми GET-параметрами
Disallow: /               # закрывает вообще весь сайт (катастрофа)

Как проверить

  1. Открыть https://domain.ru/robots.txt.
  2. Search Console → Инструмент проверки robots.txt — вставить URL, увидеть, какое правило его блокирует.
  3. Если своего инструмента нет — пройти по правилам глазами, найти то, которое матчит проблемный URL.

Решение

  1. Правильно оформлять пути: # Плохо — блокирует /catalog/ и /catalog-categories/ Disallow: /catalog # Хорошо — только /catalog/ и его подпути Disallow: /catalog/test/
  2. Не закрывать целиком параметры — только конкретные: # Плохо — закроет фильтры товаров с любым параметром Disallow: /*? # Хорошо — только сортировка, фильтры остаются Disallow: /*?sort= Disallow: /*?utm_
  3. После правки — отправить sitemap заново в SC и Я.Вебмастер, запросить переиндексацию для важных страниц.

Что закрывают обычно

Что НЕ нужно закрывать

Связанные

SEO КП · авто-диагностика

Не знаете, есть ли эта проблема у вас?

Запустите технический аудит сайта — за 5 минут получите отчёт с разбором всех 64 параметров и конкретными точками роста.

Проверить сайт