Негативно ли влияют дубли фильтров и торговых предложений на продвижение?

Подскажите. Есть интернет-магазин на битрикс на готовом решении от Аспро.
На сайте есть свой фильтр по товарам в каждом разделе.
На сайте также большинство товаров с торговыми предложениями.
Есть и поиск по товарам.

Все эти вещи создают огромное количество дублей. Т.к. каждый фильтр, каждое торговое предложение и поисковые фразы на сайте имеют отдельную страницу. Так уж устроен битрикс.

например сайт.ру/catalog/раздел/filter/штора-зеленая/color-is-kiwvgjzm-or-cgj1jy0m/apply/

Итого в Яндексе
Загруженные страницы 15042 - это очень много!
Страницы в поиске 558
Исключённые страницы 1315

Как влияет это на поисковую оптимизацию сайта в целом? И выдачу в ПС. Причем, что в поиске само собой релевантные страницы.
И как бороться с большим количеством загруженных страниц?
  • Вопрос задан
  • 536 просмотров
Пригласить эксперта
Ответы на вопрос 1
да влияют
и не только фильтры а даже пейдженация.
Поскольку канибализирует запрос.
По сути у вас получается 50 страниц с тем же тайтлом и дескрипшеном.
И люди ходят по всем из нрих. Тем самым "вес" страницы рассыпается на них.
НЕ говоря уже про фильтры
1. вариант убрать все за bxajax - но решение так себе.
Поскольку гуглу пофигу на аякс и он найдет ссылки всеравно и проиндексирует их.
А та же пейдженация потеряет возможность давать коллеге ссылку на нужную страницу.
Решение пока толко 1
1. запрещяем в robots.txt все гет запросы !
все ибо сайт должен работать 100% на чпу, а индексация поиска и тому подобной хрения вам не нужна.
2. риал каноникал прям в хедере по условию наличия гет запроса ! и естественно это текущяя страница но без гет параметра.
3. уже по желанию, что можно убираем за аякс.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы