dron_4r
@dron_4r
Пытаюсь сделать мир лучше...

Как скачать сайт полностью на компьютер?

Всем привет подскажите пожалуйста как скачать сайт www.bartek.wojtyca.pl/work/kceto.html себе на комп? Я качал через Teleport Pro, HTTrack но обе программы не полностью его качают! Они не могут скачать папку primary и все что в ней находится!
Жду ваших гениальных предложений!
  • Вопрос задан
  • 380357 просмотров
Пригласить эксперта
Ответы на вопрос 13
@Olejik2211
Чужой лендинг/сайт можно скачать с помощью webcloner.ru, если свой выгрузить хотите с сервера, то в помощь filezilla. Но если конструктор какой: тильда, викс, юкоз, то только через сервисы. Т.к. не дают они выгружать полностью сайт.
Ответ написан
@vilgeforce
Раздолбай и программист
wget -r?
Ответ написан
Комментировать
@MaratDog
Попробуйте "Cyotek WebCopy".
www.cyotek.com/cyotek-webcopy
Ответ написан
Комментировать
@lirostin
Чтобы скачать сайт целиком с помощью wget нужно выполнить команду:
wget -r -k -l 7 -p -E -nc http://site.com/

-r — указывает на то, что нужно рекурсивно переходить по ссылкам на сайте, чтобы скачивать страницы.
-k — используется для того, чтобы wget преобразовал все ссылки в скаченных файлах таким образом, чтобы по ним можно было переходить на локальном компьютере (в автономном режиме).
-p — указывает на то, что нужно загрузить все файлы, которые требуются для отображения страниц (изображения, css и т.д.).
-l — определяет максимальную глубину вложенности страниц, которые wget должен скачать (по умолчанию значение равно 5, в примере мы установили 7). В большинстве случаев сайты имеют страницы с большой степенью вложенности и wget может просто «закопаться», скачивая новые страницы. Чтобы этого не произошло можно использовать параметр -l.
-E — добавлять к загруженным файлам расширение .html.
-nc — при использовании данного параметра существующие файлы не будут перезаписаны. Это удобно, когда нужно продолжить загрузку сайта, прерванную в предыдущий раз.
Ответ написан
Комментировать
@archivarix
Можно попровобать еще эту систему скачивания сайтов - https://ru.archivarix.com
Сервис скачитвает сайт онлайн, потом готовый сайт отправляет на емайл в zip файле вместе с CMS. Это будет работоспособный сайт, с лоадером и возможностью редактирования файлов, а не просто набор html файлов и картинок, который обычно получают при скачивании другими даунлоадерами. В этом основное отличие сервиса, по сути дела он импортирует скачиваемый сайт на свою CMS из любой другой, это дает огромные возможности для последующиего редактирования контента, вроде удаления битых ссылок, счетчиков и рекламы, создание новых страниц в скачанном сайте на основе существующих и тд.
Для того, чтобы посмотреть сайт на своем компьютере надо будет поставить локальный Apache сервер, например вот этот - https://www.apachefriends.org/ru/index.html
Ответ написан
@kejinzo
Java Developer
Выкачивал сайты с помощью программы Offline Explorer.

Скачивал без всяких проблем со всеми страницами и ресурсами.

На рутрекере много крякнутых версий данной программы.
Ответ написан
@Borm
Пробовал webparse.ru - можно скачать мобильную версию и десктопную. Доступны различные тарифы. Тестовая скачка бесплатна
Ответ написан
@BeatTimy
Web Developer
Есть ещё saveweb2zip.com, можно бесплатно скопировать сайт в архив, а там дальше делай с ним, что хочешь.
Ответ написан
Комментировать
mlnkv
@mlnkv
JavaScript Developer
Ну так значит нет доступа к этой папке
Ответ написан
Комментировать
Nidora
@Nidora
Бонус 200 руб всем новым клиентам! VDS - 149 руб
Ответ написан
Комментировать
@ssaich
А есть команда WGET что бы докачать сайт ? день качалось не успеваю скачать все, хочу продолжить завтра
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы