Google видит ваш сайт, но показывает его плохо: проверьте robots.txt

Если в поиске Google вы видели страницы без описания или со странной подписью «Описание недоступно из-за ограничений в файле robots.txt» — это не баг Google. 
В большинстве случаев сайт сам создаёт эту проблему.

Эта статья  короткий heads-up для владельцев сайтов и маркетологов: что проверить и почему это реально влияет на трафик.


Ключевой факт

robots.txt не управляет индексацией. Он управляет сканированием.

Если страница закрыта через Disallow, но на неё есть ссылки - Google может добавить URL в индекс, не видя содержимого страницы.

Результат - страница в поиске без текста и без доверия.


Как выглядит проблема в реальности

Типичный симптом:

Для пользователя это выглядит как:

«Сайт что-то скрывает или работает некорректно»

Для Google:


Почему это важно для бизнеса

Последствия всегда прикладные:

Важно:
страдают не только служебные страницы, но и соседние разделы сайта.


Типовые ошибки на популярных платформах

WordPress

Часто встречается в robots.txt:

Disallow: /search
Disallow: /tag
Disallow: /page

Причина почти всегда одна —
Disallow используется вместо noindex.


MODX

Типичные паттерны:

Disallow: /*?
Disallow: /assets/

Реальные последствия:


Shopify

Особенность платформы:


Как понять, что проблема есть

Шаг 1. Проверка в поиске Google

Введите запрос:

site:вашдомен.ru

Шаг 2. Google Search Console


Шаг 3. Проверка robots.txt

Откройте файл:

https://вашдомен.ru/robots.txt

Как должно быть правильно

Если страница:

используется:

<meta name="robots" content="noindex, follow">

Чеклист: проверьте сайт за 10 минут


Если сомневаетесь — проверьте

robots.txt — небольшой файл,
но именно в нём часто накапливаются незаметные ошибки.

Иногда этого достаточно, чтобы понять,
почему Google видит сайт, но показывает его хуже, чем мог бы.


Итог

robots.txt — не инструмент SEO-магии,
а файл с высоким риском незаметных ошибок.