Robots.txt. Фильтр по GET-параметрам?

Все запросы идут через index.php. Адреса имеют такой вид:
example.com/?c=controller&a=action&param=value

Можно ли запретить через robots.txt сканирование адресов с учетом GET-параметров?

Например, запретить все адреса, начинающиеся на example.com/?c=main&a=test (а дальше могут идти другие параметры).
  • Вопрос задан
  • 11115 просмотров
Решения вопроса 1
yakubovsky
@yakubovsky
User-agent: Yandex
Disallow: /add.php?*user=
# запрещает все скрипты 'add.php?' с параметром 'user'

Подробнее лучше тут почитать
help.yandex.ru/webmaster/?id=996567#996572
Ответ написан
Пригласить эксперта
Ответы на вопрос 2
Можно запретить через HTTP заголовки(но лучше так не делать). Можно запретить через — так параметры к скрипту могут идти в любом порядке.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы