Как стать автором
Обновить

Комментарии 26

Вы бы лучше упомянули, как заливать на удаленный ftp ~20Gb бэкап варьируя скорость аплоада в зависимости от нагрузки сети.
Это уже достаточно частный случай, статья все-таки об основах организации процесса.
Ну как, «частный»? Даже небольшой файл в нужный момент может сделать проблемы.
Для этого наверное rsync подойдет
--bwlimit=KBPS limit I/O bandwidth; KBytes per second
mysqldump на сколько-нибудь большой да еще и живой базе обрадует вас очень долгим бэкапом и прочими прелестями.
Для MyISAM лучше использовать mysqlhotcopy, для InnoDB Percona XtraBackup (он и MyISAM может, но если надо только MyISAM то mysqlhotcopy гораздо проще).
Спасибо за комментарий. Конечно, в каждом конкретном случае к вопросу надо подходить исходя из актуальной ситуации на сервере.
Данная статья — это в первую очередь призыв новичкам организовать процесс резервного копирования.
пока в голове не пронесутся пару дней похеренно работы, никто ничего не будет делать, а если и будет, то не будет проверять целосность бекапа.

целосность и тестирование на целосность это по-моему самая большая проблема в создании бекапа, а вот про это как раз и не хватает статьи
Пойду перепишу свои костыли для этой задачи. Автор, спасибо за статью! =)
Пожалуйста. Рады, что статья оказалось полезной.
Чего только люди не сделают, чтобы bacula не настраивать (:
Было бы очень интересно почитать о способах организации инкрементальных бекапов. Так как часто тратить по 20Гб и более в день трафика на бекапы не всегда возможно.
а чего там сложного? можно тем же таром:
tar czvf /root/VPSbackups/VPSbackup.tar.gz -N"$LAST" --exclude-from=/VPSbackups/tar.excludelist.txt /etc/ /root/exportdb/ /home/username/ > /root/VPSbackups/backup.log 2>&1
##где tar.excludelist.txt - список исключений;
##а LAST - файл с датой в формате date +'%F %R:%S'
LAST=`cat /root/VPSbackups/lasttimebackup.log`
Хм, действительно, что-то я об этом не подумал. То, что надо. А то у меня всё была идея делать какие-то бинарные дифы и прочее… а всё оказывается гораздо проще. Спасибо!
Пожалуйста, у меня например, раз в неделю полный бекап, а потом каждый день инкрементальные по дате когда был полный. Думаю, список файлов для тарирования тоже можно вынести в отдельный файл, если он большой.
что-то мне подсказывает, что
mput $DUMPFILE
по дефолту работать не будет.
при mput спрашивается подтверждение на имя файла.
правильнее
put $DUMPFILE
либо добавить «prompt», который укажет клиенту не запрашивать подтверждения.
А я для пересылки бекапов использую scp с аутентификацией по ключу. Как по мне, это удобнее и безопаснее.

Скорость канала, кстати, можно отрегулировать при помощи CBQ или аналогичных.
В Debian есть утилита backup-manager, умеет инкрементальные бекапы, отправку на удаленный FTP, SSH, RSYNC, Amazon S3. Написана на Perl. www.backup-manager.org/about/
А я делаю так:
#!/bin/bash

cd /home/Backup
# Бэкап всего что нужно
tar -cvvzf /home/Backup/back-`date '+%m_%d_%Y'`.tar.bz2 \
/var/www/ \
/var/lib/mysql/ \
/etc/ \
/var/log/ \
/root/ \
--exclude=/home/Backup > ./last.log

# Стираем файлы бэкапа старше 30 дней
find . -mtime +30 -exec rm '{}' \;
# Стираем старые логи
find /var/log/ -type f -name *\.gz -exec rm '{}' \;


А с директорией /home/Backup можно делать что угодно, например с Dropbox ее синхронизировать. У меня сервер не большой, суточный бэкап ~300Мб, а за месяц около 10гигов.
Запуск по крону каждую ночь, понятно.
Dropbox на сервере или на десктопе?
Бэкапы сервера синхронизирую через десктоп в ручном режиме, но это из-за не желания покупать 10 гигов на dropbox — обхожусь спокойно 2мя бесплатными.

Ну а вообще, у dropbox при установке заводится на машине демон и нет проблем синхронизировать всю директорию.

Я ответил на ваш вопрос?
Заголовок не соответствует статье — бэкап всея сервера подразумевал, подразумевает и подразумевать будет сохранение / со всеми симлинками-датами-специальными файлами-специальными атрибутами.

Бэкап данных + конфигов + пользователей + системы == бекап сервера.
Раз все так элементарно, то почему вы не внедрили ранее backup в своих услугах и как минимум полгода кормили обещаниями мол очень скоро? ) (что собственно и стало причиной отказа от услуг)
В этой статье мы рассказываем о самостоятельном резервном копировании.
А централизованный backup мы, кстати, внедрили тоже.
Возвращайтесь :)
хороша ложка к обеду )
При коннекте к FTP нужно переходить в режим binary, иначе базы при передаче будут биться.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий