• Комментарии на сайт чтобы индексировались и не снижали скорость загрузки?

    @dady_KK
    PM
    Понимаю, что речь не идёт о том, что лучше - собственная система комментариев, работающая на том же сервере без лишнего функционала и сторонний сервис, типа дисскаса и прочей ерунды в виду каких-то ограничений. Но тут ответ один - свои комменты всегда лучше, все остальное будет либо избыточно и за эту избыточность придётся платить временем и скоростью загрузки страницы, либо ненастраиваемо и также тяжело и медленно. На одном проекте в самом начале для тестирования прикрутили гиперкомментс, работает до сих пор (временное - самое вечное), но плюёмся всегда, планы переписать простенькие комментарии есть, но там это очень второстепенный функционал. Если сейчас стоит вопрос сделать своё или что-то прикрутить и если это важный функционал, очень советую - не поленитесь сделать своё (или выделить на это бюджет).

    И по поводу того, что должно быстрее грузиться в начале и что потом: сама форма весит крайне мало, основная нагрузка при загрузке - это сам текст комментариев, поэтому прятать форму смысла не имеет, а имеет смысл ограничить количество выводимых при загрузке комментариев с кнопкой «Показать ещё», пагинацией или бесконечной прокруткой. Саму форму вместе со скриптом обработки можно вообще вызывать только по клику на кнопку (ссылку) «ответить» под комментариями и в самом конце (начале) блока с комментариями. Говорю это по опыту, если не позаботиться об ограничении комментариев при загрузке, то можно через пару-тройку лет получить проблему - у нас несколько страниц выросло до мегабайта в сжатом ганзипом объема, ну и как понимаете это были популярные странички - по сео особо из-за этого не просели (субъективно), но время загрузки превышало медиану раза в два.
    Ответ написан
  • Как скрыть от владельца сайта источник перехода по ссылке на его сайт?

    @dady_KK
    PM
    Обычная схема с внешними ссылками, как минимум так много кто делает, отчасти для поисковиков, отчасти для удержания посетителей: на сайте sub.ru делаете страницу чтобы при переходе на неё делала редирект, типа ссылка site.ru/redirect?to=recurs.com редиректила на recurs.com. В конфиге веб-сервера ставите заголовок Referrer-Policy: no-referrer и на поддомен или где угодно ставите ссылку site.ru/redirect?to=recurs.com, ну и для совсем чтобы все варианты использовать для добавляем в тег ссылки site.ru/redirect?to=recurs.com аттрибут rel="noopener noreferrer". Примерно вот как-то так
    Ответ написан
  • Можно ли по мета-тегу верификации сайта в вебмастере узнать владельца аккаунта?

    @dady_KK
    PM
    Даже если не впадать в крайности, как предлагал hint000, то существовала раньше возможность привязать несколько сайтов к одному владельцу через код аналитикса или метрики (айди был одинаков), как сейчас обстоит дело без понятия, но вполне возможно есть способ узнать и по хешу из тега, если знать особенности его формирования (если не рандом), но по поводу этого ничего не знаю. А вот по айди счетчика даже сервисы поиска связанных сайтов были.
    Ответ написан
  • Как полностью отключить кеширование cloudflare?

    @dady_KK
    PM
    Включить режим разработки (development mode) в личном кабинете сервиса или настраивать правила
    Ответ написан
  • Почему не запускаетс сервер в Gulp4?

    @dady_KK
    PM
    Так а может вначале нужно сервер запустить, а потом вотчер, а то у Вас вотчер таск сервера не запускает и мой совет, лучше все исходники держать в папке с исходника, а то у вас цсс генерируется в папку где лежат исходники (апп) и сервер из неё запускается, а собираете Вы в дист.
    Ответ написан
  • На сайте для перехода на внешние ссылки используется redirect: сайт/redirect?url=сторонний сайт. Что делать?

    @dady_KK
    PM
    Надо было продумать с самого начала и закрыть потенциальную дыру. А сейчас чтобы не было 404 сделайте редирект на главную или забейте, 404 не так смертелен как кажется, но лучше сделайте редиректор вместо 404. У нас на одном из проектов похожая ситуация с новостями с меняются УРЛ в зависимости от раздела и иногда правятся slug’и для новостей и куча 404, просто настроили редиректы со старых на новые, а там где вообще нет (битые ссылки вот как у Вас со стороних ресурсов), то поставили редирект на главную раздела, Гугл доволен пока что
    Ответ написан
  • Большое время загрузки страниц, в чем может быть причина?

    @dady_KK
    PM
    Причин может быть много, но обычно такое решается следующим: профилирование + оптимизация кода + использование кеша. СДН вопреки Вашему мнению не влияет на загрузку ДОМ настолько насколько Вам может помочь, т.к. оптимизация связанная с СДН нужна или для более-менее посещаемых сайтов (снижение трафика и снижение загрузки процессора) на ВПС, на шаред хостинге это полезно только для лимитного трафика.
    Ответ написан
  • Как понять суть обновлений безопасности Ubuntu?

    @dady_KK
    PM
    Бывают разные уровни «опасности» уязвимости и в зависимости от них зависит степень угрозы. То есть, если 0-day уязвимость есть и она позволяет без каких-либо усилий получить полный доступ к серверу извне, то это значит что скоро «китайцы» начнут сканировать в автоматическом режиме все сервера в поиске необновленных (если обновление есть) систем, вот в этом и опасность необновления.
    Ответ написан
  • Как скрыть ip сайта?

    @dady_KK
    PM
    На самом деле нужно просто указать веб-серверу что сайт должен показываться по конкретному сервер_нейм - а все остальные запросы - заглушка или вообще ничего. Кроме этого настройте фаервол, как советуют - откройте доступ только к айпи от СF - это даст хоть какую-то защиту (от большой атаки не спасёт, но любую мелкую выдержит)
    Ответ написан
  • Какие сервисы позволяют отследить человека по рекламному идентификатору?

    @dady_KK
    PM
    Трекать можно конкретный браузер - например через отпечаток ()s библиотека fingerprint2 например) - с этим бороться можно только искусственно мешая работе подобных библиотек, в фаерфоксе обещались такое сделать, но внедрили или нет без понятия. Кроме этого модно трекать по маку устройства (mac), но тут нужен доступ к устройству либо через блютуз или вай-фай (ну или локалка на худой конец) - от этого вроде как в айфонах меняется мак-адрес, но тоже точно не скажу. И ещё момент, обычно подобные меры позволяют получить обезличенные данные, то есть ни о каком имейл или номере телефона речь идти не будет (иначе это незаконно) и в случаях, описанных Вами про «пришло сразу письмо» - это действия одного из последних посещенных сайтов, где Вы оставили контактные данные при регистрации, либо сами, либо продали инфу партнерам (с чем Вы согласились приняв Политику конфиденциальности не читая)
    Ответ написан
  • Как сделать AJAX запрос безопасным?

    @dady_KK
    PM
    CSRF - почитайте про это, именно этот тип атак Вы описали в вопросе, для защиты используют обычно уникальные токены, которые рандомно меняются при каждом посещении (каждом просмотре страницы) и проверяются бекендом (совпал токен или нет). Таким образом чтобы запрос был успешно обработан в форме должен быть правильный токен для этого конкретного посещения
    Ответ написан
  • Испугает ли заказчика сайт на Django?

    @dady_KK
    PM
    Это больше не ответ, а просто история. Как нам в моей бывшей крупной компании понадобилось переписать один из мелких проектов поддержки в более крупный (дошла очередь), то его передали молодому, но крайне амбициозному РМ на отработку и дали полный карт-бланш. Кроме того, что человек был гавно (сильно мягко сказал) он выбрал в качестве ЯП - пайтон и решил использовать Джанго, заказал на фрилансе (у своего программиста) движок и через несколько месяцев оперативно проект был сдан. РМа уволили, так как работать с ним было нельзя и отдали мне проект, год с ним долбились из-за пайтона, так как мы работали только с пхп. В итоге за год переписали движок на пыхе. Сейчас я конечно уже более толерантно отношусь к пайтону, но все же Вам лично посоветую смотреть более широко и предлагать оба языка заказчикам
    Ответ написан
  • Как грамотно настроить gulp-imagemin чтобы удовлетворить PageSpeed Insights требование?

    @dady_KK
    PM
    Использовать сжатие с потерей качества (lossy) и использовать плагины для типов файлов, пример: pngquant для png. У imagemin есть к нему обёртка. Кроме этого, если это не хотелка заказчика или работодателя, то на это можно вполне забить. Ни Гугл, ни Яндекс не смотрят что у Вас с оптимизацией сайта: где расположены стили и скрипты, несколько минифицированы они и конкатенированы и насколько можно сжать картинки (если они уже сжаты) и никто кроме заказчиков и людей с завышенным ЧСВ на это не смотрит. Всем важна скорость загрузки сайта. Если скорость вполне приличная, то минификация на 30 килобайт увеличит скорость загрузки на 0,01%(утрируя), а если у Вас грузиться за 5+ секунд, то тут уж надо включать голову почему так, а не минифицировать картинки
    Ответ написан
  • Как сделать редирект с чужого сайта при наличии open redirect на нем?

    @dady_KK
    PM
    вариантов несколько:
    1. никак
    2. XSS
    3. взлом "обычного" сайта и прописывание своего кода для редиректа или установка своей ссылки
    4. использование других уязвимостей на "обычном" сайте
    5. попросить владельца "обычного сайта" сделать возможность редиректить что угодно куда угодно
    Ответ написан
  • Как временно скрыть сайт от поисковых систем?

    @dady_KK
    PM
    Если время простоя будет не более недели, то посоветовал бы 503 статус (Сервис временно недоступен) - пруф, по крайней мере гугл более-менее адекватно на него реагирует, но позиции, мне кажется, все равно просядут, но должны вернутся обратно. Делали так один раз - очень ненадолго (не более суток), но вроде бы гугл тогда особо на это и не прореагировал (но бот на сайте был в это время). Редиректы и канонические УРЛ не советую - ибо все будет долго возвращаться на место (на некоторых проектах меняли структуру УРЛ и кое-какие страницы со старыми УРЛ вылазят в выдаче гугла и через три месяца). Но что по Яндексу я даже не скажу - никогда на него не ориентировались.
    Ответ написан
  • Где файл конфигурации nginx?

    @dady_KK
    PM
    Попробуйте проверить вообще nginx установлен или нет (вполне возможно Вы работаете под апачем), если установлен, то в /etc/nginx/sites-available/ создайте любой файл, доступный пользователю nginx'а (прописан в /etc/nginx/nginx.conf в самом верху) и запишите в этот файл всю конфигурацию и поставьте симлинк на этот файл в /etc/nginx/sites-enabled/
    Ответ написан
  • Правильная установка gulp?

    @dady_KK
    PM
    Вам уже все правильно подсказали, я расскажу зачем эта папка нужна и почему такие проблемы если ее удалить. Сам gulp выполняет только одно действие - он запускает программы, которые Вы ему пишите в gulpfile.js (точнее какие именно и для каких файлов и в каком порядке), а эти все программы устанавливаются в папку node_modules и список этих программ с версиями записывается в packages.json (включая другую информацию по проекту, типа названия и описания). Так вот получается так - если в проекте используется gulp, то для него мы пишем вначале packages.json и там записываем (вручную или через параметр установки --save или --save-dev) какие программы нужны и простой командой npm install все устанавливаем (вот ту самую папку node_modules и создаем), затем пишем в gulpfile.js что должно выполняться в проекте и профит. Это почему нельзя работать без папки node_modules.

    Теперь ответ на вопрос, как же не тягать папку node_modules, а точнее одни и те же программы в каждый проект. Я лично делаю так (у меня проектов мало - мы продуктовая компания и продуктов всего до десятка, но вот версий очень много, поэтому часто мешает все это дело), в корне папки создал packages.json и gulpfile.js. В этой же папке я создаю для каждого проекта подпапку и ложу туда проект. Все действия для gulp описываю в gulpfile.js,, который лежит не в отдельной папке, как у Вас, а корне основной папке (в корне той папки где лежит сама папка с проектом) и указываю пути в эту папку. Это конечно не очень удобная практика, т.к. в одном файле gulpfile.js находятся все команды для всех проектов, но у меня специфика позволяет удобно этим всем управлять, т.к. новых проектов очень мало, а поменять путь к новой версии и прочему - это минутное дело. Хотя я стараюсь в последнее время делать как Вы, т.е. один проект - один конфиг gulp и своя папка node_modules, чтобы избежать путаницы.
    Теперь про сдачу на проверку - Вы сдаете только готовый продукт, верстку или что-то похожее и тянуть все не имеет смысла. Обычно делают так - в папке с проектом лежат в отдельной папке исходники и в отдельной папке уже готовые обработанные файлы, которые собираются из исходников - вот как раз эту готовую папку без исходников Вы можете давать на проверку и потом если все хорошо и все утвердили, то потом просто прикладываете к ней папку с исходниками, gulpfile.js и packages.json и ничего другого не нужно. Заказчик просто запустит в папке с packages.json команду npm install и ему все остальное установится (ну кроме глобального галпа) и ничего тяжелого в виде node_modules никому передавать не нужно.
    И совет, уже многие советовали пользоваться Git и публиковать свои проекты в отдельных репозиториях на github.com или bitbucket.com. Это очень удобно, т.к. можно просто передать ссылку на репозиторий заказчику и он оттуда сразу же скачает. Если заказчик против публичных ссылок, то можете это делать для себя в приватных репозиториях, например: у bitbucketа бесплатные приватные репозитории. Но для Вашей работы это очень упрощает очень многие процессы, типа хранения старых проектов и их изменения + передача другим разработчикам.
    Ответ написан
  • Как правильно добавить сайт с SSL в Google "Webmaster" (Search Console)?

    @dady_KK
    PM
    По сути Вам нужен только домен с S добавлять. Если Вы все равно или сделали или планируете их склеить и поэтому и www и обычный домен без S будут без трафика и в отчетах там будет почти пусто, а на основном зеркале будет вся статистика. У нас тоже добавлено три домена (https://www... не добавляли) и толку от того что там домены эти есть толку нету - по ним трафика нет, т.к. это неосновные зеркала.
    Ответ написан
  • Как вы делаете бэкапы?

    @dady_KK
    PM
    Мы делаем аналогично, но у нас на проектах очень маленькие базы. А Вам бы я посоветовал настроить репликацию мастер-слейв и делать бекап со слейва, в инете много туториалов на эту тему. Это должно решить вопрос с доступностью сайта + всегда можно дамп сжимать ганзипом и проверять после этого архив, а лучше делать распаковку и импорт в тестовую базу и следить за возникновением ошибок во время этого.
    Ответ написан