Ответы пользователя по тегу htaccess
  • Как улучшить показатели PageSpeed сайта?

    SEOBot
    @SEOBot
    SEO Noob
    Данные для вашего сайта беруться со стороннего домена cdn.ecuras.com потому оптимизацию надо производить там тоже.
    Это касается относительно
    1) Leverage browser caching. Скопируйте часть htaccess которая касается кеширования в htaccess на домене cdn.ecuras.com
    2) У Вас не оптимизированы изображения. Я пробовал множество онлай и офлайн утилит. Остановился для себя на TinyPNG. Он работает с PNG, JPG файлами.
    3) Reduce server response time. По этому пункту посмотрите какие плагины можно отключить в WP. Если есть возможность переехать на более дорогой хостинг. Но этот пункт я считаю не критичным.
    Ответ написан
    Комментировать
  • Стоит ли дописывать redirect 301?

    SEOBot
    @SEOBot
    SEO Noob
    Да стоит, особенно при условии что вы не знаете откуда он появился, и вероятно точно так же может пропасть. Потому :
    1) пропишите редирект с www версию на non-www в htaccess
    2) Укажите в robots.txt для yandex директиву Host: на версию сайта не www.
    3) Установите в GSC (WMT) версию non-www версию сайта как приоритетную
    4) Генерируйте версию sitemap.xml для non-www версии сайта
    5) Постарайтесь избавиться от 301 редиректов внутри сайта (ссылки которые указывают на www версию картинок, страниц и тд)
    Ответ написан
    1 комментарий
  • Редирект php, есть ли расширенные возможности?

    SEOBot
    @SEOBot
    SEO Noob
    Сергей, возможно у Вас есть ошибки в robots.txt
    Disallow: /goto/link.php*

    Попробуйте проверить результаты в разделе robots.txt в Google Seacrh Console (WMT)
    Он четко покажет срабатывает ли правило для исключение, и если срабатывает то подсвечивает какое.
    Ответ написан
    Комментировать
  • Как закрыть от роботов директорию, в которой лежат папки с сайтами?

    SEOBot
    @SEOBot
    SEO Noob
    robots.txt положить в корне сайта
    Дописать после основных параметров, перед sitemap и host (если они у вас есть)
    - если хотите индивидуально какието сайты отключить от индексации
    Disallow: /projects/site1/
    Disallow: /projects/site2/
    - если хотите всю папку запретить индексировать
    Disallow: /projects/
    Обратите внимание на наличие "/" в конце строки.

    Если проекты уже проиндексировались их можно удалить в GSC (Google Search Console)
    Google Index -> Remove URLs
    Ответ написан
    2 комментария
  • Что делать с дублями?

    SEOBot
    @SEOBot
    SEO Noob
    Если данные страницы в свое время были в индексе поисковых систем, вероятно на них кто-то мог ссылаться. Потому не стоит их просто выкидывать из поиска, стоит использовать их ссылочный профиль (некоторые покупают ссылки =) а вы хотите их просто в 404 пустить). Так же не стоит забывать о том, что URL которые уже ранжируются в поисковых системах на начальном этапе миграции, будут иметь позиции лучше чем страницы с новыми URL (если не использовать 301). Потому обязательно надо сделать редиректы, для того чтобы информация накопленная поисковыми системами о этих страницах не удалилась, а передалась на новую.
    Идеальным вариантом решения будет использование 301 редиректов в htaccess или nginx.conf со страниц с дублями (старых страниц) на один URL (новую страницу).
    Хорошая статья о 301 редиректах https://devaka.ru/articles/redirect-301
    Второй вариант, это использование старых страниц дублей с прописанным “rel canonical” указывающим на новую страницу. Данный вариант менее приемлем, но удобен (а иногда и единственный вариант) для некоторых проектов (например в случае если нет возможности править htaccess, либо используется ”кастомная” CMS).
    Пример и разъяснения по canonical https://devaka.ru/articles/link-rel-canonical
    И не забывайте использовать GSC (Google Search Console – по старому WMT). В нем можно посмотреть список страниц на которые были заходы и сайт выдал 404 ошибку (стоит добавить этот список в список редиректов если случайно пропустили).
    Ответ написан
    Комментировать