Обновить
Комментарии 11

Тема интересная, сам давно ищу способы нормального бэкапа.


По делу. Если контент появляется после исполнения JS, иногда помогает получить конечный HTML в хроме "view outer html".


На мой взгляд, удобнее все сохранять в один html-файл. Чтобы не путаться и было сразу под рукой, если хочешь, например, на флешку скинуть. Ссылки на сторонние ресурсы надо заменять на абсолютные, стили и скрипты подсовывать в html-код, медиа — через base64. Иначе либо с папками, либо будут артефакты. В принципе, автоматизировать не сложно. Может даже кто и сделал это уже, идея в принципе на поверхности лежит.

вот интересно есть ли такая возможность у того же ChromeDriver через Selenium ?!?!? запустил страницу, сохранил файл в отдельный html и там уже все посчитано через JS в том виде, в котором надо…
IMHO архивировать сайт таким образом, это как брюки через голову одевать. Не проще ли потребовать доступ к web-панели или ftp? И еще такой способ архивации в состоянии «положить сайт» на дешевом хостинге — динамическая генерация страниц сервером знаете ли не дешевая операция по ресурсам. Да и что потом делать с этим контентом, кроме как разглядывать локально? Сомневаюсь, что потом удастся быстро поднять сайт на другом хостинге. Хотя бы потому, что url окажутся зашиты статически в html и будут связаны с именем сайта. А если в CMS еще и свой специфичный роутинг, плюс rewrite-правила у apache или nginx…
Поправьте, если ошибаюсь, но тут дело идет не столько об архивировании, сколько о выкачивании всего сайта на диск? Т.е. БД не сохраняется. Как это поможет при удалении сайта, ведь вы не сможете его восстановить из скаченной копии? Вернее, сможете, но это будет просто статика, без баз данных, без каких-то системных файлов, нужных для развертывания.
Если уж архивировать, то через ssh/ftp.
Статья о том, как проблема из альтернативной реальности, решается при помощи механизма, почти не имеющего отношения к названию статьи.
Было давненько такое ПО как Teleport Pro, делало то же самое, только еще и ссылки правило внутренние. Ведь если ссылка на сайте будет с явным указанием домена, то ваша локальная копия окажется неработоспособной. Развернуть из этого быстро новую копию тоже не получится, нету ни БД, ни скриптов, только статика. Поэтому расскажите своим друзьям, что в наше нелегкое время есть такая штука как Git и резервное копирование БД. Причем это резервное копирование может делаться и на удаленный сервер. Это будет гораздо надежней и практичней, чем ваше сомнительное изобретение.
wget исправляет ссылки при установке нужного ключа.
Иногда нужен только контент, без CMS и прочего.
Пользовался в своё время програмкой WebCopier. Основной бонус (на мой вкус) возможность в процессе закачки указывать, что качать, а что нет. Т.е. можно скачать какой-нибудь один раздел сайте без выкачивания всякого мусора.
Начало статьи нужно было не переводить дословно.

До недавнего момента я не сталкивался с задачей создания архивных копий сайтов,
но мои друзья попросили меня сделать копию (примечание переводчика, автор оригинала
похоже не знает про ftp и бекапы баз данных).
Такие угрозы делают архивирование веб-сайтов важным инструментом любого сисадмина.
(примечание переводчика, похоже автор не разу не был в панели управления даже самого дешевого хостинга, так, что о наличии возможности сделать бекап один клик и даже настроить его по расписанию не подозревает).
Особое удивление вызывает знакомство с unix и командной строкой, хотя может это пользователь Mac'a?
Проверено, что совсем не сложно самому написать архиватор-восстановитель сайта с указанием папок и таблиц БД для бэкапа и восстановления. При этом использовать библиотечку создания-распаковки архива и библиотечку дампов таблиц (легко самому написать специализированную). Идея в том, чтобы не сохранять все в огромных сайтах, а только то, что позволить одним кликом в админке по точке восстановления залить вместо испорченного. Точки восстановления можно делать автоматически заданием крон раз в день и неделю или делать самому. Практика показывает высокую скорость как сохранения таких ограниченных данных, так и моментальное восстановление.
На простых сайтах можно включить все папки и таблицы.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.