@Azami

Как правильно написать условие в robots.txt?

Добрый день, прошу помощи в следующем.
На сайте есть страницы в виде

/category/view/15
/category/view/15?status=1
/category/view/15?status=1&page=2

Как запретить роботам индексировать страницы /category/view/15?status=1, но при этом чтобы /category/view/15?status=1&page=2 и /category/view/15 индексировались?

Disallow: /category/view/*?status=1 не помогает, т.к. /category/view/15?status=1&page=2 тоже блокирует.

Спасибо
  • Вопрос задан
  • 57 просмотров
Решения вопроса 1
igorux
@igorux
Disallow: /category/view/*?status=1
Allow: /category/view/*?status=1&page=2

Директивы Allow и Disallow из соответствующего User-agent блока сортируются по длине префикса URL (от меньшего к большему) и применяются последовательно. Если для данной страницы сайта подходит несколько директив, то робот выбирает последнюю в порядке появления в сортированном списке. Таким образом, порядок следования директив в файле robots.txt не влияет на использование их роботом.

При конфликте между двумя директивами с префиксами одинаковой длины приоритет отдается директиве Allow.
Ответ написан
Пригласить эксперта
Ответы на вопрос 1
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы
CKAT Москва
от 60 000 до 100 000 руб.
ЛШ-Продакшн Москва
от 70 000 до 100 000 руб.
RENEWAL Новосибирск
от 40 000 руб.
17 июн. 2019, в 19:31
500 руб./за проект
17 июн. 2019, в 19:17
1500 руб./за проект