Если в поиске Google вы видели страницы без описания или со странной подписью «Описание недоступно из-за ограничений в файле robots.txt» — это не баг Google.
В большинстве случаев сайт сам создаёт эту проблему.
Эта статья короткий heads-up для владельцев сайтов и маркетологов: что проверить и почему это реально влияет на трафик.
robots.txt не управляет индексацией. Он управляет сканированием.
Disallow = «Google, не заходи»noindex = «Google, не сохраняй страницу в поиске»Если страница закрыта через Disallow, но на неё есть ссылки - Google может добавить URL в индекс, не видя содержимого страницы.
Результат - страница в поиске без текста и без доверия.
Типичный симптом:
Для пользователя это выглядит как:
«Сайт что-то скрывает или работает некорректно»
Для Google:
Последствия всегда прикладные:
Важно:
страдают не только служебные страницы, но и соседние разделы сайта.
Часто встречается в robots.txt:
Disallow: /search
Disallow: /tag
Disallow: /page
Причина почти всегда одна —Disallow используется вместо noindex.
Типичные паттерны:
Disallow: /*?
Disallow: /assets/
Реальные последствия:
Особенность платформы:
Введите запрос:
site:вашдомен.ru
Откройте файл:
https://вашдомен.ru/robots.txt
Если страница:
используется:
<meta name="robots" content="noindex, follow">
Disallow вместо noindexrobots.txt — небольшой файл,
но именно в нём часто накапливаются незаметные ошибки.
Иногда этого достаточно, чтобы понять,
почему Google видит сайт, но показывает его хуже, чем мог бы.
robots.txt — не инструмент SEO-магии,
а файл с высоким риском незаметных ошибок.