Нужен ли Вам сервис для поиска битых ссылок на сайте?

Недавно начал работать над проектом, который прямо таки кишит битыми ссылками. Хуже всего то, что если немного изменить роуты (проект на рельсах), то какие-то ссылки начинают работать, а какие-то обязательно отваливаются. Тестов нет и не очень понятно, как тестировать работоспособность ссылок хотя бы на главной странице.

Я написал небольшой скрипт, который парсит страницу на предмет всех ссылок и обходит их (асинхронно), генерируя на выходе список битых ссылок: Check pages status with em-synchrony crawler.

И тут меня осенило – а почему бы не сделать сервис, который после каждого деплоя сам бы проходил нужные страницы (либо все, либо из whitelist, например news/* проходит все новости) и присылал красивый email с нужной статистикой – сколько всего ссылок, какие битые, время отклика.

Нужен ли Вам такой сервис и что бы Вы еще хотели в нем видеть?
  • Вопрос задан
  • 3832 просмотра
Решения вопроса 1
Пригласить эксперта
Ответы на вопрос 6
sledopit
@sledopit
wget --spider -o wget.log -e robots=off --wait 1 -r -p http://site.url
Ответ написан
Комментировать
@egorinsk
Кстати, кому нужен такой сервис бесплатно и сейчас, советую посмотреть на утилиту skipfish от Google. Она не только ищет битые ссылки, но и ищет уязвимости, а также одновременно проводит стресс-тест приложения. Что может быть лучше?
Ответ написан
Комментировать
Rumickon
@Rumickon
Ещё у W3C есть Link Checker.
Ответ написан
Комментировать
ajaxtelamonid
@ajaxtelamonid
Laravel
Ответ написан
Комментировать
@MaxUp
по Win использовал Xenu's Link Sleuth
на MacOs Integrity
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы