dron_4r
@dron_4r
Пытаюсь сделать мир лучше...

Как скачать сайт полностью на компьютер?

Всем привет подскажите пожалуйста как скачать сайт www.bartek.wojtyca.pl/work/kceto.html себе на комп? Я качал через Teleport Pro, HTTrack но обе программы не полностью его качают! Они не могут скачать папку primary и все что в ней находится!
Жду ваших гениальных предложений!
  • Вопрос задан
  • 103718 просмотров
Пригласить эксперта
Ответы на вопрос 14
@Olejik2211
Чужой лендинг/сайт можно скачать с помощью webcloner.ru, если свой выгрузить хотите с сервера, то в помощь filezilla. Но если конструктор какой: тильда, викс, юкоз, то только через сервисы. Т.к. не дают они выгружать полностью сайт.
Ответ написан
nazartertyshny
@nazartertyshny
Govnocoder
wget -r -k -l 7 -p -E -nc -erobots=off --user-agent="Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/5З7.З6 (KHTML, like Gecko) Chrome/60.0.З112.11З Safari/5З7.36" www.bartek.wojtyca.pl

UPD: 30.09.19

Модификации :)

Для одного сайта:
wget -m -l 10 -e robots=off -p -k -E --reject-regex "wp" --no-check-certificate -U="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36" PASTE_HERE_A_LINK_TO_THE_SITE_YOU_WANT_TO_DOWNLOAD

-m (--mirror) - Включает рекурсию (чуть ли не до бесконечного погружения) и сохраняет списки каталогов
-l (--level) - Указывает на максимальную глубину погружения рекурсии
-e (--execute) - Выполнение команды. В данном примере - исключить роботов
-p (--page-requisites) - Эта опция заставляет Wget загружать все файлы, необходимые для правильного отображения HTML-страницы
-k (--convert-links) - После окончания загрузки (скачивания) все ссылки будут преобразованы, чтобы быть пригодными для локальной работы
-E (--adjust-extension) - Если файл типа application/xhtml + xml и URL-адрес не заканчивается регуляркой '\.[Hh][Tt][Mm][Ll]?' - в названии локального файла будет дописываться .html
-U (--user-agent) - Я думаю тут объяснять особо не нужно :)
--reject-regex - Исключает скачивание файлов, в которых есть часть их значения reject-regex. Почему я это добавил? Потому что я ненавижу скачивать страницы на wordpress. Это долго, очень много файлов и я не люблю wordpress. Тапками не бросаться!
--no-check-certificate - Не производится проверка сертификата сервера с доступными центрами сертификации

Для списка сайтов:
wget -m -l 10 -e robots=off -p -k -E --reject-regex "wp" --no-check-certificate -U="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36" -i ~/Desktop/sites.txt -P ~/Desktop/sites/

-i (--input-file) - Этой опцией Вы указываете, где располагается список сайтов/страниц которые необходимо скачать
-P (--directory-prefix) - Этой опцией Вы указываете, куда сохранять Ваши сохранённые сайты/страницы/файлы

Более подробно и без моего корявого перевода с английского можно увидеть кликнув здесь
Ответ написан
andreyvorobey1989
@andreyvorobey1989
Разработчик сайтов
Если у вас не получается скачать каталог сайта с помощью программ, может вам тогда попробовать через онлайн-сервисы это сделать? И это будет первым вариантом, как можно скопировать сайт целиком. Второй вариант это найти специалиста на фрилансе, кто спарсит вам эти самые файлы. Еще можно попробовать самостоятельно скопировать, используя php скрипт. Конечно, варианты как скопировать сайт полностью есть и их не один, не только с помощью программ можно же это сделать. А так, я бы посоветовал сразу искать специалистов, так как не факт, что скрипт даст результат лучше, чем специально разработанная программа. Погуглите по соответствующим запросам, типа "скопировать сайт онлайн сервис". Сейчас, думаю, что не составит труда найти, кто скопирует вам сайт целиком и за разумные деньги. Например, при беглом поиске мне выдал sitecopy.pro - сервис по копированию лендингов и с.... Вам нужно что-то подобное, то где вам сделают копию и не пропадут, как это бывает с фрилансом. Кстати, перед тем как пробовать копировать то, что вы хотите, заранее узнайте, проконсультируйтесь, попросите сделать копию для проверки. Платить деньги за неизвестный результат, конечно, не стоит. По идее вам должны либо подтвердить, что файлы не копируются, либо сделать копию и прислать ссылку на нее.
Ответ написан
@Borm
Пробовал webparse.ru - можно скачать мобильную версию и десктопную. Доступны различные тарифы. Тестовая скачка бесплатна
Ответ написан
skoder
@skoder
web программист
Пожалуй лучший сервис для скачивания сайта https://xdan.ru/copysite/
Ответ написан
@archivarix
Можно попровобать еще вот это - https://ru.archivarix.com
Сервис скачитвает сайт онлайн, потом готовый сайт отправляет на емайл в zip файле вместе с CMS
Ответ написан
@kejinzo
Java Developer
Выкачивал сайты с помощью программы Offline Explorer.

Скачивал без всяких проблем со всеми страницами и ресурсами.

На рутрекере много крякнутых версий данной программы.
Ответ написан
Nidora
@Nidora
Бонус 200 руб всем новым клиентам! VDS - 149 руб
@team_theup
В целом если хотите скачать не свой сайт, то можно воспользоваться сервисом copypolis.ru, а если свой то как вам написали Filezilla подойдет.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы
22 окт. 2019, в 23:57
100000 руб./за проект
22 окт. 2019, в 23:26
4000 руб./за проект
22 окт. 2019, в 22:57
6000 руб./за проект