Как стать автором
Обновить

Комментарии 76

«Как сообщили в ГИБДД, в 2013 году с их помощью в области было выписано и отправлено 2,5 млн штрафов. Сборы с нарушителей превысили 1 млрд руб. Среднее количество нарушений, регистрируемых в Подмосковье за сутки, — 6849, это 2,7 млн руб. штрафов в день. Камеры не работали пять дней, потери от их «простоя» составили 13,5 млн руб.»

www.rbcdaily.ru/media/562949990265129
Собственно, даже если взять тройную стоимость программы для бэкапа, то 150 камер по 6 000 рублей всё равно копейки по сравнению с почти 3 млн штрафов в день с сети «Стрелок».
Иногда выгоднее «потерять» некоторые данные, особенно архив переписки :)
Когда у вас будет копия, вам будет легче гибко оперировать тем, что именно потеряно.
Спасибо M$ за очень качественные операционные системы, наполненные полезным функционалом, разнообразными полезными (запущенными по умолчанию) сетевыми сервисами. И с каждым годом полезного функционала всё больше. Вместо непонятных настроек — удобные красивые визарды с тремя галочками. Посмотреть хотя бы на системные требования — сразу виден прогресс. А бэкапы надо делать, да. Мы ведь все являемся заложниками высоких технологий и прогресс не остановить.
Причем здесь M$, когда речь про человеческий фактор и некомпетентность сотрудников?
Есть старое правило — в любой непонятной ситуации обвиняй M$
M$ не могла предположить, что ее декстопную операционную систему, которой исполнилось 10 лет, после выпуска еще трех версий систем вдруг в далекой России начнут использовать для систем видео фиксации нарушений.
Так же банальную установку антивируса никто не отменял.
Т.е. Windows XP Embedded не MS продавала? Или продавала, но все равно не могла предположить, что эту ОС станут использовать в встраиваемых системах?
НЛО прилетело и опубликовало эту надпись здесь
Почему-то обычно бардак выживает, а вот то что нужно — теряется. Да и при разборке бардака порой не туда нажал, и упс. Так что лучше сначала сделать копию всего (и бардака тоже), а потом разбирать…
Не всегда. Я вот например сделал бэкап всех фотографий (самое ценное) на внешнем харде, продублировав в SkyDrive. Так что даже в случае землетрясения — фотки семьи будут на месте.
*копия в SkyDrive — берется не с внешнего харда, а со встроенного в комп — так что тройной бэкап. Однако желания делать бекап ВСЕГО обычно не возникает.
Ну сделал же бэкап… Надо где-то начать. Сначала ручками. Когда надоест ручками — тогда попроще (поленивее) — софтом с расписанием. А потом когда ляжет диск с системой, тогда может и до всего руки дойдут (кстати не обязательно совсем то все бэкапить. Есть и системы исключения разделов, каталогов, и т.п.)
У меня уже была смерть харда, но все что там было удалось восстановить, а фотографии — через бэкап
Самое жуткое — смерть SSD. Оттуда даже прямым чтением микросхем уже ничего не достать.
Читаю такие статьи со спокойной улыбкой на лице. А все потому, что
>>Один раз проколовшись с хранением важной информации, некоторые задумываются над своим поведением и настраивают-таки резервное копирование важной информации

Сделал раздел, который бэкапится раз в сутки, и забыл.
Поймал вирус, забэкапил систему с вирусом.
Скачал фильм, забэкапил, посмотрел, стёр. Скачал ещё фильм, ещё забэкапил… И так несколько раз. Это — чтобы инкрементный бэкап не показался панацеей.
Место кончилось, старый годный бэкап стёр, остался с вирусным.

Чтобы сделать и забыть, нужно сперва делать и помнить.
Изкоробочные средства бэкапов или кривые как финские гвозди, или платные, или к ним прилагается напильник.
Домашние пользователи не осознают рисков связанных с ненадёжностью жестких дисков.

Для workstation'ов подобный показатель вообще потрясает воображение: до 95% рабочих компьютеров вообще не имеют никакого(!) резервного копирования данных.

Это лишено смысла, когда используется стандартный образ системы, а профили хранятся на сервере с настроленным резервным копированием.
Все зависит от набора софта. Если софт благоразумный и использует профили, и права у пользователей писать в C:\Work\MyFiles отрублены — тогда да. Но это надо рвы копать и стены выстраивать. Сколько таких организованных инфраструктур найти можно? Вот в том то и вопрос — что скорее всего разговор об этих 5% и идет. А 95% делается на авось.
Если так не делается, то отсутствие резервного копирования не главная проблема.
Возможно. Но рвы и стены вносят ограничения. Например что делать с юзером, который ноутбук домой уносит работать (а это какой-нибудь Генеральный Директор будет). Что если файлы по 20Гб у дизайнера — Roaming Profiles на них загибаются налево-направо. Ну и самое главное — Сервер надо копировать. А их то тоже игнорируют — те самые 70-75%.
Owncloud или BTSYNC спасёт директора, сделав копии на основной сервер компании.
Синхронизировать на сервер компании — очень неплохо. Кстати можно и без облака это делать. А сервер — бэкапить.
Owncloud трудно облаком как таковым назвать. Обычный веб-сервер синхронизации. BTSync прекрасно обеспечивает масштабируемость в плане нагрузки на операции чтения/вывода и ширины каналов. Я не говорю о крупных компаниях, где все глобальнее. Но под малый бизнес вполне успешно используется.
Мой личный вариант:
Три отделения, географически разнесенных по городу.
Раз в сутки по скрипту делается инкрементный бекап базы данных с версионированием с SSD на HDD (RAID нет, сильно ограничены финансово) В полночь просыпается демон BTSync на Debian-серверах. За ночь три сервера обмениваются данными за сутки.
Итог: даже в случае ЧП типа пожара данные сохранны минимум в двух других отделениях и восстанавливаются очень быстро. Цена решения минимальна с учетом того, что Linux и бесплатный софт.

P.S. Пользовался вашими продуктами раньше, до перехода на Linux. Вполне комфортно для домашнего пользователя на тот момент. Потом нужда отпала из-за большого количества прозрачных и легко настраиваемых opensource инструментов.
Вам повезло, видимо трафик не тарифицируется, мне например в этом случае много тяжелее :)
Задумываюсь о покупке простеньких nas с 2-мя HDD на пару Гб для своих клиентов. Вот только с софтом засада выходит…
Ха) Три 3G модема в отделениях от МегаФон) просто у него нет учёта ночью. Поэтому синхронизация запускается по ночам.
Эх, можно и так попробовать :) Вот только скорости у нас удивительные, то за 20 минут 2,5 Гб скачивается, то выше 5 кбит весь вечер не поднимается.
Вот именно поэтому локальные диски из плана сложно исключить…
Ночью терпимо. Только обязательно vpn, иначе шейпер зарежет торрент-трафик. У них DPI. Кстати, ничто не мешает добавлять вам ещё второй локальный сервер в BTSYNC. Будет и локальная реплика и внешняя.
Перемещаемые профили — это средство отложенной репликации, которому не требуется постоянная связь с сервером.
И я не верю в 75% серверов без резервных копий, скорее речь идёт об отсутствии регулярного тестирования или плана по Disaster Recovery с удалённым хранением.
Я тоже не верил, пока не увидел цифры опросов. Причем чем меньше серверов в серверной комнате, тем чаще бэкапа нет.
Сколько вы готовы потратить на софт для резервного копирования, чтобы быть уверенным в надёжном хранении ваших данных?
Я потратил 10 минут на настройку rsnapshot. И теперь все чувствительные данные бэкапятся на домашний сервер, а оттуда в дц. Это достаточно серьёзное вложение?

Поэтому даже если мой рабочий ноут внезапно выпрыгнет из окна, я не сильно расстроюсь. Даже наоборот, наконец-то появится причина обновить это старьё. (:
Хороший подход. Только домашний сервер есть не у всех, и хранилище в ДЦ тоже. Так что да — это серьезное вложение (с учетом железа).
Приятно осознавать что Хабровцы все-таки думают о сохранности данных. Дело за малым — привлечь побольше народу в Хабр :)
Правильно написали про хороший пример перед глазами. Потому что каждому пользователю приходится изобретать свой велосипед. И если средний пользователь хабра с этим во состоянии справиться, то 95% пользователей, которые упоминались выше, даже не знают с какой стороны к этому вопросу подойти.
От жеж, прочитал и… начал делать внеочередной бэкап :D
А за статью спасибо, интересно.
TimeMachine на двух машинка по сети копирует на Time Capsule + раз в сутки системные разделы Carbon Copy Cloner'ом на другие диски
win-ноут — копирует через Synology'вский Data Dublicator 3 на домашнию DS213j
все нужные файлы если это возможно — лежат на той же DS213j (с RAID1) (если не возможно — то на локальных компьютерах)
сама DS213j раз в сутки инкрементально копирует на внешний диск
почта… она в гугле все равно

оффсайт-бекап в облако в данный момент отсутствует

Вау. Вот это я называю системный подход к делу. Добавить облако — и будет идеально :)
Все более-менее важные данные — CrashPlan'ом на внешний винт + в облако, $6 в месяц за спокойный сон — более чем оправданная цена. Что-то большое восстанавливать из бэкапа пока, к счастью, не приходилось, но по мелочи уже не раз выручало.
$72 в год. Немало. Места надеюсь много дают?
Неограниченно, насколько я помню.
Ну неплохо. Особенно если используется — а если нет, есть попроще варианты. Главное чтобы бэкапилось.
$60 в год при оплате за год, место не ограничено. У меня там сейчас лежит где-то 150Gb + версии. В общем меня вполне устраивает, хотя надо признать что клиентский софт у них написан отвратительно, не знаю что надо было сделать чтобы оно так тормозило… Но сам процесс бэкапа от этого не страдает, только если запускаешь клиент, а я это делаю только при restore.
У меня рабочий лэптоп не бэкапится. Восстановление данных займёт некоторое время (часа два-три, а то и целый день), но затраты на бэкап (сколь бы малыми они ни были) помноженные на количество дней между потерями данных/лэптопов всё равно больше.

Мораль простая: нефиг хранить невосстановимые данные на консьюмерских железках.
Ничего себе дешевое рабочее время. Это же сколько мало надо в час/день зарабатывать чтобы спокойно целый день на рестор убивать.
Печально…
Стоимость рабочего времени никак не соотносится с высказанной максимой. Затраты на бэкап исчисляются в часах (точнее, в минутах, помноженных на количество раз, который делался бэкап). Восстановление — тоже в часах.

Так вот, частота гибели устройства достаточно низка, чтобы выгода от не-делания бэкапа перевешивала выгоду от «более быстрого восстановления».
А как восстанавливать данные если бэкапа нет? То есть «они должны выжить, потому что железо не консьюмерское». Эх сколько раз я такое слышал. Одни говорили «у нас все идеально, профессиональное оборудование, мы никогда ничего не потеряем». Прошло 6 месяцев. Дальше говорить что было, и зачем они снова позвонили? :)

Eсли ручками восстанавливать — ну там систему ставить, перепатчивать, драйвера заливать, приложения — то это работа, как минимум с точки зрения применения усилий. Поэтому стоимость этого времени выше — потому что в процессе восстановления из бэкапа можно делать другие вещи (там ведь только ждать). Можно спать например :)))

Ну а стоимость времени проще всего оценивается по стоимости рабочего времени — грубовато, но проще посчитать.
Хранить в распределённых системах. Почта на серверах, репозитории — на гилабе/гитхабе, фотографии — в соответствующих местах и т.д.

День восстановления — это переустановка системы, копирование настроек (типа vimrc), клонирование репозиториев, перескачивание стимовых игрушек и т.д.

Про бэкап сервера никто ничего не обсуждал, речь про консьюмерское железо. Там не должно храниться ничего невосстановимое. Тогда и бэкап не нужен.
Ну если ничего невосстановимого нет, то конечно и бэкапить не надо. Одна проблема — почти все хранят. Вот именно им бэкапиться и надо. Ведь вопрос не в решении — бэкапить или нет, а больше в осознании ценности данных. Бэкап это один из вариантов, наиболее простых — эту цель достичь. Но есть и почта на серверах, есть и гитхабы (если они бэкапятся), есть и другие варианты.
Сам факт понимания что данные важны и их надо защищать — уже 80% успеха. Остальные 20% — это просто.
Вот пример — история сообщений в Skype. Штука важная. Хранится локально. Вряд ли кто-то ее специально куда-то бакапит — это ведь вспомнить надо. И такого рода данные разбросаны по совершенно разнообразным местам в системе.
Насколько я знаю, скайп реплицирует логи между всеми устройствами, на которых залогинен пользователь.
Предлагаете держать скайп запущенный на NAS чтобы постоянно бекапил?
Ноутбука, телефона, планшета, компьютера — вполне достаточно.
Всё, что не жалко, храню на диске в самом ПК. Всё ценное (фото/видеоархив, рабочие проекты, etc) — на мини-сервере с программным RAID-зеркалом. Всё самое-самое ценное — в dropbox.
За живое прямо… :)
RAID для ценного — как же вирусы, баги и собственные ошибки? В большинстве случаев данные совсем не из за упавшего железа теряются.
Dropbox — так это ж синхронизация, не бакапа. Конечно кажется что раз копия где-то в калуде — то все супер. Но это не копия, а реплика. Он динамичная. Удалить локально, исчезнет и из дропбокаса. Так, конечно, версии есть — но кто-нибудь реально пытался восстановить, скажем, сотню файлов из этих версий? А если аккаунт удалить?
Dropbox в данном случае мне вполне поможет. Он установлен на нескольких компьютерах, в том числе на нетбуке, который я включаю в среднем раз в неделю, так что если что-то и произойдёт, то всегда можно будет вытянуть с какого-нибудь компьютера, который не успел синхронизироваться с «испорченной» версией данных.

Вирусов я у себя не встречал очень давно — за много лет привык работать осторожно — например, скачивать исполнимые файлы только с тех ресурсов, которым доверяю. Если есть малейшее подозрение — сначала пробую запустить в виртуальной машине. Конечно, полностью застраховаться таким способом нельзя, но мне пока удаётся.
Значит относитесь к категории «кто еще не делает бэкапы» :) Я работаю в Акронис 7 лет, и видел столько случаев потери данных в совершенно невероятных ситуациях, что жить становится страшно.

Вот например с dropbox. Есть важный документ (диссертация, например). Готовая — лежит и ждет. И вот возвращаетесь после двухмесячного путешествия по каким-нибудь Таиландам, открываете ее, и обнаруживаете, что файл пустой. Как? Да множество вариантов: сами удалили, сохранили и не заметили, word глюканул, битая RAM покаратила файл, девушка перед расставанием отомстила и т.п.

А что dropbox? А ему все-равно. Файл — есть файл. Он туда уже давно сихронизовался, а предыдущие версии после 30 дней подчистились. Копии на других компьютерах? Так это же dropbox — он и туда этот битый фал синхронизовал. Все.

Конечно, обычно находится какая-нибудь старая версия где-нибудь в почте, иногда просыпается инстинкт самосохранения и важные данные куда-нибудь копируют. Но по известному закону подлости, если что-то возможно, это рано или позздно случится. Причем в самый неподходящий момент.

В общем — делайте бакап, люди! Желательно автоматизированный, не зависящий от человеческой забывчивости и лени. Жалко 30 баксов на Акронис? Напишите простой скрипт. Есть и бесплатные тулзы — тот же rsync. Только не dropbox — он sync, не бакап.
Хм, а вариант: хранить документы в Gmail :)
И надеяться что Гугл бэкапит :)
Думаете всё так же, на 200-м пеньке крутиться? :)
«Оптимизация ресурсов компании» называется. В любом случае проще у АНБ спросить резервную копию :))))
Никогда не ставьте АНБ в СС — им надоело получать две копии.
Если никогда не удалять и доверять гуглу — вполне. Только найти и восстановить оттуда пару десятков (если сотен) документов — это сколько же времени понадобится?
Хм, просто скачать почту по pop3?
Вот например с dropbox. Есть важный документ (диссертация, например). Готовая — лежит и ждет. И вот возвращаетесь после двухмесячного путешествия по каким-нибудь Таиландам, открываете ее, и обнаруживаете, что файл пустой. Как? Да множество вариантов: сами удалили, сохранили и не заметили, word глюканул, битая RAM покаратила файл, девушка перед расставанием отомстила и т.п.

Там история версия — 100 снимков и хранятся 30 дней.
Плюс за 4 бакса можно получить
защищает удаленные файлы на тот случай, если вам необходимо восстановить их;
сохраняет старые версии файлов, чтобы вы имели возможность просмотреть их позже.
Функция Плюшкин службы Dropbox обеспечивает сохранение неограниченного количество удаленных файлов и старых версий.


Когда я случайно грохнул все 100Гб на дропбоксе, я обратился в саппорт, и чтобы руками не восстанавливать все тысячи папок, мне удаленно все сделали. Осталось тупо синхрониировать. Причем спросили за какое число и час версию вернуть
Я вот думаю и придумал пока такой желательный сценарий:

0) windows 7 лаптоп плюс внешний hdd.

1) backup plan — горячее (без WinPE и иже) клонирование образа диска
желательно инкрементально и обязательно по расписанию.

2) restore plan — выкрутить из лаптопа отвёрткой битый диск и вкрутить в лаптоп клон диска

Попробовал XXCLONE, но он через некоторое время делает клон НЕзагрузочным, а потом и вовсе сравнение файлов показывает ощутимую разницу. Более того — некоторое время назад он в журнале системы оставил код ошибки, и неизвестно когда была последняя хорошая копия. Теперь после 30 суток триала я не уверен, что хочу заплатить им 30 долларов.

Сейчас триал XXCLONE завершился и я пока добиваю клон через FreeFileSync.

Остальной софт либо не клонирует, либо требует сторонней boot-media, либо ещё какие-то глюки.

Кто нибудь может посоветовать что либо для реализации такого backup & restore plan?
Любой вирус или плохой апдейт или кривой драйвер — и он склонируется.
Лучше делать несколько копий используя снэпшоты и бэкапы образа диска.
Я вот так делал — клонированием (правда во времена Win2000, когда 2 клона нельзя было иметь) — и загрузил систему с клоном. Умерли обе.

Лучше иметь образ сжатый, с несколькими поколениями, и если место позволяет — еще и Day-1 оставить. Восстановить с внешнего диска займет, в зависимости от размера, в среднем 20-30 минут учитывая ребуты. Ну если сотни гигов — может 1-2 часа. Работает все на ура, по расписанию, и даже иногда быстрее клонирования. Почему? Потому что процессоры щас быстрые, а диски не очень — поэтому писать на внешний винт образ сжатый быстрым зипом быстрее, чем писать без сжатия.
Странно, примерно пол года назад потратил 4 часа на восстановление системы всего в каких-то 20Гб. Это немыслимо… само восстановление конечно прошло минут за 40. Куда ушло остальное время — на загрузку восстанавливающего софта и проверку бекапа перед восстановлением, без которой МУЗЫКИ НЕ БУДЕТ. И все это сопровождается неторопливой работой софта, который зачем-то просканировал все диски в течении минут 20 в поисках резервных копий и в итоге всеравно ни одной не нашел — пришлось указывать вручную.
Какой МУЗЫКИ?
В смысле действия.
Кривой софт ИМХО. Проверка перед рестором дело хорошее, но руки выкручивать и обязывать это делать нехорошо. А если поезд уйдет через полчаса (с)?.. И диски сканировать… Это же все увеличивает время восстановления — самый критичный параметр любого бэкап-решения.
Ну… Я завалил барахла на 950 гигов на имеющийся терабайт. Не могу сообразить куда мне на внешний терабайт (из которого, по идее в первый же раз останется только 50 гигов) кидать версионность.

Клонирование софтового косяка — действительно риск, который данным сценарием не предусматривается.

Но у меня в жизни было больше грохота дисков, чем грохота осей. Потому указанный bar-план показался лучшим.
НЛО прилетело и опубликовало эту надпись здесь
То есть без персонального бэкапа надеемся на бэкап Github/BitBucket/Dropbox/ВК/Picasa. А если?
Работаю дежурным на железнодорожной сортировочной горке на станции в Москве. Хорошие горки полностью автоматизированы и дежурный только отслеживает правильность роспуска. У нас автоматизация была похуже — задавалось количество вагонов в одном отцепе, путь на который отцеп должен уйти и все. То есть, автоматика крутила лишь стрелки и все.
В один день автоматика перестала работать. Оказалось, что поломался жесткий диск с программой автоматики. Диск был 90х годов. Естественно, никаких бэкапов не было.
Программа не имеет универсального вида, точилась под каждую горку. В итоге, создание новой программы стоит ~25 млн. руб. Никто таких денег платить не собирается, вся работа перешла на дежурного, который и так загружен выше некуда. И, конечно, аварийных ситуаций стало больше.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий