Открыть список
Как стать автором
Обновить

Комментарии 377

Храните в облаках, говорили они. Облака надёжны и никогда не потеряют ваши данные, говорили они.
да на том же хабре регулярные статьи как облако это хорошо, круто, дешево и просто мигрировать… в /dev/null особенно.
Так это не отменяет же. Облако это хорошо, круто, дешево и просто, но бэкапить все равно надо. Любой кто думает что что-то стало серебрянной пулей должен немедленно забыть что серебрянные пули вообще бывают.
забыть


Вы что-то нам не договариваете :)

Вот поэтому меня не берут в иллуминати. Все время пробалтываюсь

В каком месте облако это дешево? В абсолютном большинстве сценариев облако это дорого.

По сравнению с необходимостью держать свои физические сервера, обслуживать их, поддерживать, обеспечивать интернет, как по скорости так и по траффику, платить админам, которых надо где-то найти… Дешево, дешево

В сравнении с арендой физических серверов — дорого.
Пытаюсь найти ссылку, но там говорят, что not found.
Ох, не понимаете вы тонкой иронии.
К слову, уже в 2016м году было понятно, что среднее время жизни компании, управляющей облачным хранилищем, будет меньше средней жизни hdd. А если так, то нафига?
Простите мне мой серьезный настрой, работал без выходных. :)
Храните данные в двух разных облаках. Так вероятность потери действительно будет минимальной
НЛО прилетело и опубликовало эту надпись здесь
теория вероятности, уровень: бог
НЛО прилетело и опубликовало эту надпись здесь

У Вас оператор перед двойкой не тот — если вероятность отказа одного облака равна P, то двух сразу — не P/2, а P^2. В частном случае P=1/2=50%только в нем) эти выражения совпадают, но вообще нет (а вероятность отказа облаков, к счастью, намного меньше 1/2 — а значит, P^2 намного меньше P/2).
P.S. Конечно, можно говорить только о вероятности отказа в течение определенного срока (за 1 год, за 10 лет и так далее — чем больше срок, тем больше и вероятность отказа).

НЛО прилетело и опубликовало эту надпись здесь
тогда вероятность потери будет в два раза ниже чем в одном облаке

Вот эта вещь справедлива только в том случае, если вероятность отказа одного облака 1/2, а это совсем не обязательно.

НЛО прилетело и опубликовало эту надпись здесь
Товарищ, вы что-то свое понимаете под понятием вероятности. Если у вас есть два возможных исхода (либо потеряется, либо не потеряется), это еще не значит, что вероятность 1/2. Представьте, например ситуацию, в которой исход «потеряется» выпадает в двадцать раз чаще, чем результат «не потеряется».
Пользователь musicriffstudio просто изволит шутить. Не надо воспринимать всё так буквально)
Вы явно не учитываете одного такого… с квадратным логотипом… и доступом к кнопке))

А кто сказал, что вероятность потери файла от времени — величина постоянная и равная для любого файла?
Неиспользуемый давно файл с большей вероятностью будет перемещён или "потеряется", потому как законы природы и бизнеса одинаковы для обоих облачных провайдеров.

шанс потери с двух облаков, мой друг, это вероятность падения первого облака, умноженная на вероятность падения второго, и явно этот шанс не равен 1/2.
НЛО прилетело и опубликовало эту надпись здесь

Он и 1/4 явно не равен. Облаками никто бы не пользовался, если бы вероятность отказа была столь высока.

Вероятность отказа облака равна 1. Неужели это не очевидно?
Вероятность отказа любой системы хранения стремится к 1. Вопрос лишь в том, на каком временном промежутке?
На промежутке «рано или поздно..»
На промежутке времени «рано или поздно» мы все умрём. Так что если это — единственный промежуток времени, который вам интересен, то вам можно только посоветовать купить мыло и верёвку.
Ну а мне что вам на это посоветовать?
Предположим, что шанс облака имеют 50% шанс потерять всё в течении 5 лет, время восстановления с копии в одном облаке на второе 3,65 дня, какая вероятность, что 2 облака потеряют все в течении 5 лет? Для вылета надо, чтобы облака потеряли данные ~ одновременно, точнее второй вылет должен быть быстрее, чем за 3,65 дня от первого. Вероятность этого 0.1% (для приведенным мною цифр), а не 25%.
время восстановления с копии в одном облаке на второе 3,65 дня

Надо прибавить время реагирования. Если вы начнёте копировать данные на следующий день, то получится 4,65 дня.


А если это данные долговременного хранения, то узнать о том, что они умерли в каком-то из сервисов вы можете и через месяц (в моем случае более вероятно, через квартал, но допускаю, что я исключение).

НЛО прилетело и опубликовало эту надпись здесь
Есть два банка. Один говорит что мамой клянется и ничего никогда не потеряет, а второй говорит что всегда есть малая вероятность чего угодно и рекомендует страховку.
Изменилась картина, неправда ли?
На самом деле конечно все намного сложнее: облака не теряют данные каждый день, а самих облаков не миллионы, в результате статистики очень мало. Плюс, данные теряются не просто так сами по себе, как ядерный распад, в случайные моменты времени. Их если и продалбывают, то вот такие умелые миграторы.

В Амазоне, Майкрософте, Гугле есть большие облака и выстроена неплохая система защиты от таких умельцев. Но что произойдёт, когда, например, в AES найдут серьезную уязвимость и все трое дружно бросятся перешифровывать данные забив на свои правила тестирования и релизов — никто не знает. И дублирование облаков вас тоже в этой ситуации не спасёт.

А myspace на самом деле вообще никому сохранности данных не гарантировал, как получилось так и хранили.
Но это не так.
Я бы ещё добавил вероятность покупки первого облака вторым с последующим отказом.
Ещё бы добавил вероятность запрета на выдачу данных обоим облакам, если вы проживаете в регионе, который не по нраву правительству той страны, которая генерирует максимальную прибыль обоим облакам.
Ещё вероятность того, что в самом регионе решат закрыть интернет.

Сумма вероятностей в современном мире уже стремится к тому, чтобы привысить риски своего облака.
шанс потери с двух облаков, мой друг, это вероятность падения первого облака, умноженная на вероятность падения второго,

Нет. Падения двух разных облаков — это, мягко говоря, не независимые события.
Почему они должны быть зависимыми? (при условии, что ЦОДы все-таки разные).
1) Могут использоваться одинаковые/сходные версии ОС, с сходными уязвимостями
2) Может использоваться одинаковое/сходное железо с одинаковыми уязвимостями (Спектр, ага)
3) Могут находиться в одной юрисдикции (государстве)
4) Могут находиться близко географически (ураганы, землетрясения и пр. дизастеры)

А вот почему вдруг они будут независимы — это и правда интересный вопрос.
> А вот почему вдруг они будут независимы — это и правда интересный вопрос.
Всё вами перечисленное с приставкой «Могут не».
А также единичные баги/отказы/и человеческие ошибки, из разряда «вероятность нахождение 2 бомб в самолете»
Всё вами перечисленное с приставкой «Могут не».

Нет, вы перепутали причину и следствие. Если события независимы — то будет всё мной перечисленное с частицей «не». Обратное неверно.
Каюсь. Невнимателен.
> А вот почему вдруг они будут независимы —это и правда интересный вопрос.
Разные компании и следствие единичные баги/отказы/и админские ошибки, подтопления и удары молнии
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
То есть, сервисами хранения данных вы не пользуетесь?

Во-первых, 100% сохранность данных гарантировать нельзя в принципе. Вероятность того, что какой-нибудь псих получит доступ к ядерной кнопке и разнесет к чертям всю цивилизацию, конечно, невообразимо мала, но тем не менее, она все-таки больше нуля.
А во-вторых, если есть только 2 возможных сценария развития событий, то совсем не факт, что они равновероятны. Блондинки про это как раз и забывают.

Можно обойтись без ядерной кнопки.
Предположим Вы живете в Венесуэле и хранили данные в облаках двух венесуэльских провайдеров…
И что? Если такое произойдет, то эти данные — последнее, что должно вас волновать.
Так ведь они все гарантируют! )

Почему же только два? Только один. Возможность потерять данные точно есть.

НЛО прилетело и опубликовало эту надпись здесь
«На лекции по теории вероятности»

Теория вероятностей же!
Их много.
Сделать RAID6 поверх облако.
Несколько раз выручал псевдо-RAID1 — копирование всех файлов в две разные корневые папки. Для было актуально для флэшек и дискет, когда некоторые файлы могли не читаться. Очень пожалел что не сделал так с облачным хранилищем от Амазона — тоже некоторые файлы не смог скачать, т.к. бэкапов они тоже не делают.
Под виндой для организации такого рейда есть даже вполне вменяемая утилита stablebit drivepool.
А дедупликация в этом случае не подложила бы вам свинью? В двух папках могли бы быть ссылки на один физический файл…
Да, такое возможно, но я в облака только шифрованные архивы отправляю — т.к. подозреваю что с приватностью все так же запущенно как и с бекапами. При этом в 7zip при запаковке одного файла с одинаковым паролем хэши не совпадают, возможно из-за вписанной в заголовок архива даты и времени.
А лучше RAID 6 из облаков… Ps. пошел пилить стартапчик
Нужно как минимум 4 независимых «облака». Google, Amazon, Mega,… еще есть?
Яндекс+мылору на пару за один независимый от Google, Amazon, Mega сойдут?
OneDrive, который уже упоминался выше.
Раскажите уж, как надежнее то тогда, где вероятность отказа будет меньше 50 или 25%?

Я бы сказал, что низкой будет вероятность потери в двух хранилищах одновременно

Ну мне казалось, что это без уточнения понятно. Ясно, что если одна из служб загнется, данные со всей возможной скоростью нужно копировать в ещё одно место.
Но для это нужно переодически проверять на то что твои данные n-летней давности все еще на месте.
Этого мало. Надо ещё проверять что они не побились. А если в одном хранилище данные отличаются, то нужен способ выяснить где верные. Так мы приходим к необходимости третьего хранилища, и выше уже предложили делать Cloud RAID
Мы можем хранить таблицы контрольных сумм на обоих хранилищах, когда мы записывали файл.
Теперь, когда файлы отличаются друг от друга, все что нам нужно сделать — проверить совпадение контрольной суммы файлов и значения из таблицы. Где не совпало — там битый файл.
Тоже не факт. Возможно первый сервис например купит второй сервис. Или данные будут физически храниться в одном дата-центре, с которым что-то произойдёт. Или ещё что. Но вероятность такого небольшая конечно.
Одно облако потеряет Ваши данные, другое сделает их доступными всему Интернету (и забанит за нарушение авторских прав в итоге).
Хех.
Тогда уж как в классике: «одно их потеряет, другое — повредит».

А как же шифрование данных?

А вот как расшифруют перед выкладыванием во всеобщий доступ — так и узнаете, чего оно, шифрование, стоит (ну — конкретный метод).

Идея для стартапа: гипероблака.
Берем несколько облачных хранилищ и по аналогии с хранением данных в единичных облаках обеспечиваем целостность данных на нескольких облаках.
С одной стороны /sarcasm, а с другой ведь наверняка кто-то уже что-то такое намутил.

Пара софтинок есть на эту тему.

Больше абстрактных уровней богу абстракции)
Всегда мечтал упрощать такие конструкции, но пока что получается только строить)

Причем так, чтобы оба облака были свои, а не коммерческие

Облака то может и разные, а дата центры общие)
Храните на перфокартах, это надежно!)

Повреждённые данные можно и в 10 облаках хранить, только менее повреждёнными они от этого не станут.
А как понять, являются ли два облака несвязными? А то сегодня это два разных поставщика, а завтра у них сзади одинаковый бэкэнд.

А есть ещё один уровень: у них одинаковый софт который одинаково превращает данные в тыкву, если високосные секунды происходят в год, являющийся целым значением C для x²+y²=-C.
Сколько наблюдаю за облаками, не все облака одинаково живучи. На моей памяти только гиганты более-менее существуют на том же месте, остальные (провайдеры поменьше) то откроются, то закроются. Платить помесячно за два облака, просто чтобы узнать, что одно закрылось, а на другом сменился тариф или бизнес-цель облака по желанию его владельцев — знаете, я дешевле куплю много винтов и на них запишу, и буду сам отвечать за свои данные.

Почему-то до владельцев облаков не доходит, что облака — это не только бабло раз в месяц, но и ответственность каждую секунду. И не юзеры должны быть привязаны к облаку, а облака к юзерам, к их ожиданиям.

P.S. Серьезно, если завтра какой-нибудь AWS или Azure скажет, что их новое бизнес-видение подсказало им, что хранить блочные диски виртуалок немодно, и они дают месяц и по сотне долларов кредитов, чтобы юзеры очень быстро побежали и очистили свои диски, перейдя на новую, более современную, технологию хранения, это будет как бы более-менее честно в мире бизнеса, но ни разу не удобно тем, кто хранит данные: люди должны будут бросить всё, и срочно перестраивать всю свою систему. И если от Амазона я такого не жду, от Азура жду, но все же не очень верю, то от провайдеров менее масштабных (в России это будут облака Я и М, как по мне — посмотрим, как они лет через пять изменятся) вполне реально дождаться «революции». В общем, для долговременного и беззаботного хранения архивов я бы в одлака не поверил, ни в одно, ни в два сразу.

P.P.S. Напомню из «Одноэтажной Америки», про слепую веру в беззаботность:

В свое время я мечтал сделаться богатым человеком. Я зарабатывал много денег и решил застраховать себя таким образом, чтобы получить к пятидесяти годам крупные суммы от страховых обществ. Есть такой вид страховки. Надо было платить колоссальные взносы, но я пошел на это, чтобы к старости стать богатым человеком. Я выбрал два самых почтенных страховых общества в мире – петербургское общество «Россия» и одно честнейшее немецкое общество в Мюнхене. Сэры! Я считал, что если даже весь мир к черту пойдет, то в Германии и России ничего не случится. Да, да, да, мистеры, их устойчивость не вызывала никаких сомнений. Но вот в девятьсот семнадцатом году у вас произошла революция, и страховое общество «Россия» перестало существовать. Тогда я перенес все свои надежды на Германию. В девятьсот двадцать втором году мне исполнилось ровно пятьдесят лет. Я должен был получить четыреста тысяч марок. Сэры! Это очень большие, колоссальные деньги. И в девятьсот двадцать втором году я получил от Мюнхенского страхового общества такое письмо: «Весьма уважаемый герр Адамс, наше общество поздравляет Вас с достижением Вами пятидесятилетнего возраста и прилагает чек на четыреста тысяч марок». Это было честнейшее в мире страховое общество. Но, но, но, сэры! Слушайте! Это очень, о-чень интересно. На всю эту премию я мог купить только одну коробку спичек, так как в Германии в то время была инфляция и по стране ходили миллиардные купюры.
Никогда не испытывал необходимости в облачных хранилищах для файлов (dropbox, google drive и т.п.), но периодически пользуюсь хостингами видео и картинок.
За 10 лет:

Наиболее надежно, быстро и разумно — хранить файлы дома, с использованием mergerfs + snapraid.

Имеете множество серверов с небольшим объемом диска, но хотите его эффективно утилизировать?
Установите Tahoe-LAFS — распределенное избыточное шифрованное хранилище файлов, где storage-ноды хранят кусочки файлов, не зная их содержимое.

Схема взаимодействия компонентов Tahoe-LAFS

С Tahoe-LAFS можно хоть каждую минуту вытаскивать сраные диски, а файлы всё равно останутся доступны.
imgur вроде последние сколько-то хранит, а остальные не гарантирует.
А можно как то по-подробнее об этой системе, желательно с примерами развертывания? Просто как я понимаю, это же нужно отдельно заводить собственные сервера с хранилищами, кратное предполагаемой надежности количество раз? Есть какие то общественные хранилища? или же по принципу я тебе — ты мне?
Tahoe-LAFS поддерживает работу в обычном интернете, в Tor и I2P. Публичный пул есть только в I2P: tahoeserve.i2p, k1773r.i2p/tahoe-lafs/introducers
Авторизации нет, все могут загружать сколько угодно данных. Ноды-хранилища могут устанавливать срок хранения частей файлов, но по умолчанию эта функция отключена, и части не удаляются.
Алгоритм разделения частей устанавливает клиент, при загрузке файла. По умолчанию используются 2-7: чтобы успешно скачать файл, нужно иметь доступ как минимум к 2 частям, при этом на ноды загружается 7 частей.
Дополнительную информацию см. на www.tahoe-lafs.org и leastauthority.com (платный облачный провайдер, использующий Tahoe-LAFS)
О, это новое поколение облака! Поздравляю.

Когда невозможно даже найти ответственного за поломанный блок.

/sarcasm

где то тут была статья про восстановление распределенной ФС
Tahoe-LAFS

Не вижу бинарников под винду.
Как я понял серверной части, которая предоставляет, типа, хранилище, под Винду нет, а сам клиент размещения данных на конкретной машине называется Gridsync и он есть и под Винду в том числе…
Это все хорошо до тех пор, пока «дом не сгорит».
Особо чувствительную информацию все равно необходимо хранить в нескольких местах.
выбрали какие-то помойки, потом удивляетесь. Гугл, дропбокс, яндекс, box.com годами хранят и ничего не теряют.
>Гугл…
… Панорамио.
>Яндекс…
… Фотки.

Но конечно, надо было выбирать какие-то другие помойки, и надеяться, что там из контейнеров фиалками пахнет.
в гугл я пришел, когда там гугл фото уже было. Яндекс фотки все в Я.диск переехали без потерь. С 2007 года все файлы бесплатно в облаках лежат и ничего не потерялось.
Тем не менее фотки в Панарамио потерялись, так что всё возможно.

Вообще облака и «HDD на полочке» друг друга отлично дополняют: облака страхуют от пожаров, наводнений и соседей сверху, а диск на полочке — от головотяпства сотрудников облачной компании и угона паролей.

Лучше всего делать две копии — у туда и туда.
в гугл я пришел, когда там гугл фото уже было
Ну то есть вы понимаете, что вам просто повезло разминуться.
Вы небось еще и с фейлом клиента Я.Диска разминулись. Я тоже, ибо не держал.
Яндекс фотки все в Я.диск переехали без потерь
«Без потерь» — это значит, например, без всех пользовательских комментариев.
Я уже не говорю о том, что найти их на Я.Диске — тот еще квест. Я до сих пор знаю, как к ним добраться, только через «историю».
Зато бонусом ко мне на диск приехало несколько НЕ моих фоток, которые я туда совершенно точно не грузил, а заодно несколько тоже НЕ моих mp3; все чохом с одной датой загрузки.
Зашибись надежность, ящетаю. Так держать.
Сбой прошел мимо, гигабайты не подарили…
Найти не сложно… В корне яндекс-диска лежит папка с названием Яндекс.Фотки

Комментарии потерялись… но в качестве альтернативы тут предлагают файлопомойки на домашних насах с убогим интерфейсом и без всякой социальщины. Т.е. комменты к домашним бэкапам в принципе появится никогда не могли, а на яндексе вы ими лет 10 наслаждались, пока фотки работали.

Про косяки с чужими файлами, безопасность и надежность в целом — у меня, как дилетанта в администрировании серверов, ошибок будет точно на порядок больше чем у яндекса.

«просто повезло разминуться» — когда закрывался бесплатный тариф у Adrive.com, у меня было несколько месяцев, чтобы перенести файлы в другое облако. Не припомню случая, чтобы гугл не прислал уведомление, что сервис через несколько месяцев закроется.
Найти не сложно… В корне яндекс-диска лежит папка с названием Яндекс.Фотки
… В которой лично у меня лежит ОДНА фотка. Из двенадцати альбомов. Спасибо, кэп...
а на яндексе вы ими лет 10 наслаждались, пока фотки работали.
Это прекрасно, но когда мне на голубом глазу заявляют, что «переехали без потерь» — таки это высокохудожественный свист.
В случае домашней файлопомойки я и не закладываюсь на социалку. А в ЯФ опция была, теперь не стало, и все контакты тоже ушли в помойку. Это называется «без потерь», не перепутайте. Ладно, у меня контакты были почти все вторичные, пришедшие из оффлайна. А кто-то небось всерьез повелся…
Про косяки с чужими файлами, безопасность и надежность в целом — у меня, как дилетанта в администрировании серверов, ошибок будет точно на порядок больше чем у яндекса.
Вряд ли вы, как дилетант, напишете для своей файлопомойки на домашнем насе скрипт, который снесет вам содержимое диска С:\ — вы, как дилетант, его и писать не будете. Этим да, вы отличаетесь от яндекса (/сарказм).
При минимальном понимании процесса у вас ошибок будет на порядок меньше, чем у яндекса — просто потому, что ваша система на порядков на шесть проще. И это уже не сарказм.
Не припомню случая, чтобы гугл не прислал уведомление, что сервис через несколько месяцев закроется.
Лично мне фотохостинг нужен, чтобы публиковать свои фото в сети. И я в гробу видал бегать по всем ресурсам, где что-то публиковал, и судорожно менять ссылки. Даже если хостеры оказались столь любезны, что прислали уведомление за несколько месяцев.
(Справедливости ради: Я.Фотки таки сдержали слово, ссылки менять не пришлось. Правда, картинки все равно несколько месяцев не открывались, но потом все заработало).
В корне яндекс-диска лежит папка с названием Яндекс.Фотки
… В которой лично у меня лежит ОДНА фотка. Из двенадцати альбомов.

Чтобы просмотреть снимки с Яндекс.Фоток, нажмите на панели слева кнопку Архив → Яндекс.Фотки. Отсюда
Нажал.
У меня вообще никаких печатных слов не осталось. Нет, моих фоток там не лежит. Там лежит кучка каких-то рекламных материалов и скан результатов МРТ совершенно чужого человека. Из двадцати пяти файлов ко мне имеет отношение один. Часть файлов не читается, «ошибка загрузки страницы».
Яндекс, вашу мать, вы совсем охренели, перемешивать чужие данные?
Вот так это выглядит

У вас нажата вкладка «Почтовые вложения». Там у меня тоже куча мусора. Нажмите на «Яндекс.Фотки» справа.
Да, вы правы. Присыпаю голову содержимым пепельницы.
И даже чужому МРТ нашлось объяснение, стоило только полчасика поразгребать авгиевы конюшни в неиспользуемом ящике. В следующий раз постараюсь быть воздержаннее.
Яндекс: мои извинения.
Это да. Особенно после этого шикарного заявления: «MySpace не делал резервных копий всех пользовательских данных.» Меня, как мелкого сисадмина, за такое гнали бы с работы ссаными тряпками.
Для таких сервисов это коммерчески невозможно — таковы уж объемы данных, что их проще реплицировать в другие ЦОД, чем где-то еще хранить отдельно.
У облаков несколько другая модель disaster recovery. В Exchange online, например, тоже нету резервных копий.
Это точно — именно поэтому появились сервисы для «пожизненного» локального бэкапа из Office 365 (пожизненного — на сколько хватит денег и терпения добавлять жесткие диски в локальный storage) и сервисы для бэкапа Cloud-to-Cloud — но тут уже нужно смотреть на стоимость, возможности дедупликации и прочее.
Это да. Особенно после этого шикарного заявления: «MySpace не делал резервных копий всех пользовательских данных.» Меня, как мелкого сисадмина, за такое гнали бы с работы ссаными тряпками.


Скорее напротив, сочли бы некомпетентным, если бы вы тратили место на бекапы ненужных файлов типа /tmp

Речь идет о неокупаемом проекте, соответственно, файлы которого не представляют коммерческой ценности.

А поскольку фирма еще и не богатая, то приходится выбирать, включив голову, что хранить с резервными копиями, а что нет.

Вас бы гнали из MySpace ссаными тряпками, как вы выражаетесь, как раз за разбазаривание ресурсов.

Тоесть вы хотите сказать что затея с сохранением данных юзверей без объявления войны просто так по приколу потеряло эти самые данные и это нормально?
Храните в облаках, говорили они. Облака надёжны и никогда не потеряют ваши данные, говорили они.

Дело не в физической организации — облака там или нет.

Если речь идет о бесплатной услуге.
Если же речь шла о платной услуге, пусть и в облаках — это немножко другое дело.

Наверняка в договоре-оферте с MySpace было написано «можем удалить когда захотим сами, не за что не отвечаем».
В какой-то момент лет 10 назад потерял всю накопленную инфу на хард диске. Закат тех тёплых времён когда все хранилось на винтах и компакт дисках. На рынке появились потребные перонсные HDD, а интернет становился быстрее. Видео платформы ютуб и Вимео, социальные сети и файл хостинг платформы крепнут и поглащают большую часть наших потребностей хранения и шаринга контента. Появились бесплатные облачные хранилища!
Великий Майли ру дарил мне 100ГБ. Тут я ещё активно стал юзать электронные финансы и короче скинул файлик «с секретами» туда на всякий пожарный. Со временем собралось инфы на 90 ГБ. Туда сюда — пришлось что-то форматироватировать, дай думаю скину всё в облако. Сказано сделано.
В итоге с того момента перестал хранить инфу в принципе. Весь контент с тех 90ГБ был покрыт не тяжелыми конфигами сейвами, а тежяловесы представляли собой фото и видео вновь накопленное после первого файл-луза упомянутого в начале.
Все эти соц сети, весь этот контент с мобилок — все выгружалось туда и не дуплицировалось в личные архивы на компе или даже в облако. Пропала надобность хранить образы инсталлов игр и других тяжеловесов, так как «стим» например всегда разрешить скачать установочный дистрибутив игры без проблем.
В итоге лет г как, диск Д:/ на компе покрывается лишь временными файлами установленных игр, программ и все.
В моем случае это работает. Я не храню коллекцию любимых фильмов и т.п. Их я смотрю онлайне. Ну вы понимайте… а те Файлы в облаке так и хранятся и не повредились.
Да у гугла по умолчанию не большой объём облака, но в сохранности контента я не сомневаюсь. Уверен Смысл есть! Тем у кого есть такая необходимость. Покупка нескольких интересных пакетов даже у разных провайдеров облачного хранения — это достойный и современный ответ на ваши потребности в хранении данных.
Котиков храните в социальных сетях, коллекции фото и видео в облаках. Дистрибутивы игр и программ, документы. А остально вам всегда дадут скачать, тем паче скорости нынче и времена не те что раньше).
А остально вам всегда дадут скачать, тем паче скорости нынче и времена не те что раньше).

Учитывая грядущую суверинетизацию рунета я бы рекомендовал, наоборот, начинать запасаться всем тем, что качается извне — включая игры стима.

В моем случае такой необходимости нет. Не обитаю в России. Дорогое сообщество, повторяюсь — В МОЕМ СЛУЧАЕ!
А в случает тотально суверенизации вашей части и-нета, придётся подумать о миграции данных из облака МЕйл Ру Групп
Облако мейл.ру имеет одно неприятное свойство: превращаться в тыкву для отдельного взятого пользователя с ненулевым шансом. Т.е. берет и говорит: ой, кажется пользователь поменялся у аккаунта! Значит, теперь вам пользоваться аккаунтом нельзя (см. ToS $13.4.42). Ну а раз пользоваться нельзя, то и терабайт (100 гигабайт) вам больше не нужны.
Я просто описал свою модель хранения инфы. Никаких проблем в облаках гугла, Майл.ру и Майкрософта не происходило за много лет.
оказывается e-облака тоже развеиваются :D
у меня облака еще никогда не теряли данные, а винчестера и сидюки теряли неоднократно. (и можно не сомневаться, что по статистике шанс потерять данные в облаке ниже, чем дома. ) т.е. они говорили все правильно. но опять же, тут как с банками, если выбрать с самыми большими ставками, то можно попасть. а если выбрать серьезного вендора, то у него надежнее, чем дома под подушкой, дома иногда горят. ну и ценные данные надо бекапить (например, в другое облако)
C двд дисков еще ни одного информацию не потерял записаных с 2002г у меня их около тысячи, с облака маил.ру терял информацию.
а как вы проверяете целостность тысячи двд? про выбор серьезного вендора я уже говорил. вы ведь не надеетесь что-то сохранить на бесплатных болванках?
Вставлял каждый диск и запускал фильмы проматывая их скролером, сначала ради интереса проверил диски которые не читал мой старый привод и запинался на них, оказалось что новый привод без каких либо запинок их читает, далее ради интереса захотел найти диск который не читает новый привод и… не нашел. СD диски только нашел несколько штук старых 13-20лет на которых местами запинался и скорость считывания падала практически до нуля, но двд не нашел ни одного
просмотр скролером это не тест сохранности, тестом будет проверка контрольной суммы. вот как несколько старых сидюков умерло, так и двд начнут или уже начали, просто вы еще не обнаружили
Контрольные суммы на оптических дисках не меняются, это не дискеты и жесткие диски где такое случается при длительном хранении, здесь или прочиталось или не прочиталось, и даже если на диске есть плохое место и скорость копирования падает почти до нуля то все равно если скопируется то контрольная сумма и будет той же которая записывалась, я это все уже давно прошел, как никак давно уже занимаюсь.
Те старые CD у меня не умерли, некоторые причем это особо дешевенькие диски они то читаются процентов на 90-95, просто в некоторых местах есть проблемы, там если присмотреться к поверхности и точки можно обнаружить на них, а на более менее фирменых CD 20 летних все прекрасно ни точек ни просадок скорости, на двд коих у меня раз в 10 больше чем CD в том числе очень много старых 13-17летних все отлично на всех дисках что на фирменных, что на простых, поэтому сама технология двд понадежней будет, по крайней мере она точно другая и пока еще работают все самые простецкие диски
здесь или прочиталось или не прочиталось

Видеоплееры вполне могут пропускать испорченные участки, а при беглом просмотре вы могли через них просто перешагнуть.
Исключено, при протягивании скролера если где либо на участке фильма попадется плохо читаемый участок, как это я обнаруживал на некоторых CD дисках, то дисковод сразу задумывался, начинал издавать звуки головки и все подвисало, а вот на двд дисках такого не было ни одном.
Вот именно тот факт, что ни на одном DVD такого не было — должен бы был насторожить.

Да, видеоплееры могут пропускать участки и, более того, некоторые DVD специально со сбойными блоками делают — защита от копирования. Смотреть их можно, скопировать — сложно.
Все читается потому что они реально и читаются. Если диск имеет сбойные участки то это легко заметить на скролинге, вот старый дисковод на некоторых двд дисках иногда заикается и скорость считывания падает сильно, то есть на некоторых дисках возможно что некоторые участки выделяются более худшей читаемостью если их не может прочитать запиленный дисковод, но на новом дисководе ни одного проблемного двд диска не обнаружил, только CD, поэтому для двд все решает состояние дисковода, а время еще не пришло и для нефирменных двд дисков, они пока работают еще все, разумеется правильно хранились, в шкафу, это я про болванки говорил те которые сам писал, не заводские.
А где хранить, вот в самом деле? CD болванки вроде устаревают не так долговечны как считалось раньше. Ленточные накопители — это что, простым гражданам вот взять и начать закупать накопители? Вот хочу я дочкины фотки для неё сохранить, видео, ну вот это всё личное, что делать, куда бежать-то? На обычные HDD разве чтоль, и хранить кирпичи эти в кладовке.
Ну да, храним кирпичи. Вариантов же нет. Их не много, потому как старые такого объема что их легко слить на новые, в уголок.
На 2 hdd и регулярно сканировать на ошибки
Плюс копия в облаке на случай пожара/потопа.
«Облаком» может служить еще одна пара hdd расположенная у родственников/знакомых/родителей и т.д.
Все это добро синхронизировать та ещё морока.
Да ладно, какая морока дергать rsync?
рсинкать бекапы неправильно. если бекап (логически)повредился, то у вас будут две поврежденные копии. надо просто бекапить в несколько мест
Бэкап у родственников, говорите…
Смотрите чтоб он не был подключён. К моим родственникам забрался Шифровальщик, и весь backup в утиль сбросил, в то время когда я у себя определялся с железом, и надеялся что там уж точно ничего не может случится, и потом заберу бэкапы.
если он будет подключен, то его и руками по ошибке можно грохнуть
Да, именно поэтому нужно сочетать процессы синхронизации (получение резервной копии актуального состояния) — в том числе и на дискретные (временно подключаемые) диски, и процессы инкрементного/дифференциального резервирования.

В части синхронизации есть 2 опасности: 1) Если бекапные ресурсы (например, предоставляемые NAS'ом) прописаны на компе как логические диски, то шифровальщик спокойно доберется до синхронизированной копии — ведь шифровальщик будет прозрачно работать как с обычным виндовым диском. В том числе и поэтому я последние несколько лет никому не советую подключать сетевые ресурсы в качестве логических дисков — безопаснее использовать подключенные сетевые расположения — все равно они так же открываются в проводнике как папка, в Total Commander для ручной синхронизации сетевое расположение так же доступно в панели TC. 2) При полностью автоматизированной синхронизации на сетевой ресурс (в т.ч. облачный; локальный — неважно как подключенный) тоже велик риск затереть копии файлов зашифрованными — хотя, насколько я понимаю, тут есть множество вопросов — будет ли клиент синхро-софта отлавливать изменения содержимого файлов, если их размер и дата-время не менялись и т.п. — хотя для синхронизаторов, которые заявляют о способности синхронизировать только измененные части файлов, — очевидно что будет синхронизировать.

Если же использовать полуавтоматизированную (с ручным запуском, контролем глазами) синхронизацию на дискретные (ротируемые, временно подключаемые) диски (ну или опять же на сетевые ресурсы, повторюсь, НЕ подключенные как логические диски) — например, средствами Total Commander, или FreeFileSync, или GoodSync (который мне любезно подсказали в этой дискуссии) и т.п., то после анализа изменений, до щелчка кнопки «синхронизировать», вы увидите, что список файлов, предлагаемых к синхронизации, неожиданно длинный и нужно насторожиться, выборочно перепроверить и т.п.,… а в первую очередь — срочно отключить внешний диск! Ну а если синхронизировать на сетевое расположение — то срочно метаться не нужно — шифровальщик не прорвется в облако или на NAS… про NAS — под вопросом — есть же модели NAS под управлением Windows (в каких-то редакциях) и если шифровальщики способны перебираться между незащищенными компами в локальных сетях, то почему не прорваться и на такой NAS. Поэтому лучше наверное использовать обычные NAS с операционками в виде кастомизированно-урезанных линуксов.

Инкрементное или дифференциальное резервирование, в том числе и полностью автоматизированное, защищает нас от затирания резервных копий шифрованными оригиналами — ведь шифрованные оригиналы, являясь обновленными файлами (новыми версиями), будут зарезервированы в новые (последние в цепочке) инкрементные или дифференциальные тома в резервной копии — предыдущие тома затронуты никак не будут.
Ещё и следить надо за тем, чтобы вдруг не оказалось, что интерфейсы сменились и подключить HDD больше не к чему (((
Переходники для SATA-IDE свободно продаются.
Лишний повод мигрировать со старых IDE дисков на SATA диски. Благо, SATA диски не вчера появились. Раз в 15 лет вполне можно мигрировать с одних дисков на другие)

У меня многое на старом ноуте хранится, одна из копий. Проблем с совместимостью точно не будет. Насчёт долговечности наоборот, вопрос открытый.

Только вот какой процент людей реально готов этим заморачиваться? Даже среди тех, кто не хочет потерять данные.
И, для дополнительного спокойствия, старые харды, после копирования с них ценной инфы, никуда не девать — а как раз хранить их в дальней кладовке, лучше в другом населенном пункте — на случай падения самолета на основную точку хранения.
Я вот как-то раньше не подумал насчет использования старых хардов в этой роли — а теперь жалею, что лет 6 назад пристроил знакомым и даже продал дешево старых внешних хардов с USB 2.0 терабайтов на 6. Резона в пристраивании и продаже не было никакого — а так бы они у меня лежали тихонько в двойных плотных полиэтиленовых пакетах, в металлических коробах — в дальнем подвале.
Я думаю, если будет надобность, а какой-нибудь условный M.2 заменит SATA для подключения дисков, то можно будет вот такой гирляндой запустить IDE диск и спустя десяток лет (при условии его работоспособности, конечно).
www.amazon.com/Female-SATA-Adapter-Converter-bidirectional/dp/B001PYSAJI
www.amazon.com/SATA-NGFF-Adapter-Power-Cable/dp/B01FE8NKC2
Можно хранить компьютер целиком. Законсервировать вместе с мышкой и монитором, герметично запаковать и так хранить. Но скорей есть риск самому помереть раньше от инфаркта, чем этот комп пригодится.
Вы только что описали принцип работы Docker :)
Увы, риск того, что старый ПК не запустится после нескольких лет простоя, очень велик. А современным я вообще не доверяю. Какие-нибудь SSD вообще меньше чем за год могут протухнуть без питания.
Я нашел на барахолке рабочие станции «нулевых» годов, судя по их виду проработали они годы, думаю, что еще столько же проработают, т.к. железо фирменное.
Ни разу с таким не сталкивался. Если ПК работал, то он будет работать и после простоя.
SATA уже умер. Еще не разложился, правда. Просто для SSD он СЛИШКОМ медленный.
На SSD долговременно хранить смысла нет. В выключенном состоянии у них стекает электрический разряд и информация теряется. Во включённом состоянии у них ограниченное число циклов перезаписей, а при отказе диск перестаёт читаться целыми блоками, а не одиночными бэд-секторами, не говоря уже о том, что есть модели дисков с которых в случае сдохшего контроллера ничего уже восстановить не удастся и замена контроллера не поможет.
Так речь не про диск, тут я согласен полностью. Просто речь зашла что интерфейс SATA якобы еще не стар.
Для жёстких какие альтернативы?
А я не знаю. Просто в наше время одноразового го-на технического прогресса нельзя рассчитывать на долговечность чего-либо. Будь то стандарт, интерфейс или непосредственно некая железяка.

Сейчас вон, в блоках питания появилась новая мера качества — количество японских конденсаторов. Дожили. Скоро опять будем смотреть -а контакты золоченые? А микросхемы кто производил?
На несколько периодически подключаемых HDD, хранящихся в разных местах. У себя + у родственников, например.
8Тб HDD стоит 200 долларов. Можно поставить 3 таких диска в RAID-5, например.

Стримеры, как вариант. Желательно, одну копию держать в другой стране, на случай попадания в дом метеорита, или, «взрыва бытового газа».
RAID5 уже умер. Только RAID6.
Но тогда четыре диска, разве нет?

А на 4 дисках выгоднее RAID10, тот же объем но выге скорость. Хотя с точки зрения надежности он немного хуже...

Если RAID, то только шестой.
Нужно больше дисков. Особенно прикольно когда они из одной партии и когда один из них сдохнет (выработка ресурса или дефект), то при замене и дальнейшего ребилда от временного перегруза начнут подыхать остальные.
Два шестых рейда этому господину, собранных из дисков с разным налётом :-)
Плюс доставка и будет примерно российские пятнадцать тысяч.
Налоги и таможню еще забыли. Со следующего года правда.
Пока всё нормально, это в пределах 500 евро.
А так я за эти же деньги в прошлом году ссдшку на два терабайта на амазоне заказывал — нормально доехала. Винт в европах я тоже как-то покупал пятитерабайтный, но он был на тот момент на треть дешевле, чем в России. А с разницей в цене в 300-500 рублей лучше уж взять в России.
Какая ссдшка?
Как работает?
Crucial MX500. Работает как заявлено. Пока не так много времени прошло, месяца четыре.
500 евро? Ого, вот это халява! В Швейцарию около 80-ти, а в Германию вообще начиная с 20-ти.
Ну так в прошлом году ещё 1000 было. Со следующего 200 вроде как планируют. Народ, конечно, стонал и писал всякие петиции на заборе, но давно было ясно, что долго такая халява продолжаться не будет и рано или поздно осетра урежут вне зависимости от того, кто и как громко будет стонать.
Только рынок в Европе намного больше.
Я перед НГ купил WD Black 6TB — основным критерием выбора была НЕгелиевость диска. Toshiba уже предлагает такие объемами вплоть до 10ТБ — неплохо, очень неплохо.

Лет через 5 можно будет проапгрейдиться еще раз. :)
А почему НЕгелиевость диска была основным критерием?
Потому что гелий утекает, подозреваю.
Испаряется же.
Гелий «вытечет» через 3 года — и привет.
Другая страна это, скорее, на случай дернутого Интернет-рубильника.
Не понимаю, что не так? Если вам нужны ваши фоточки и у вас открытая виза, то переместить себя будет гораздо проще, если фоточки уже будут ждать вас в целевой стране назначения и не нужно с собой тащить собранный с любовью сервер в багаже; и наоборот, если рубильник дернут, а вы никуда не собираетесь, то тоже отлично — у вас есть копия с фоточками в стране пребывания. И вы немногое потеряете, если копия ваших фоточек в Амстердаме станет внезапно для вас недоступной.
Так что, как не крути (и для тех, кто уедет, и для тех, кто останется), но георезерв в две разные страны — отличная идея.
Желательно, одну копию держать в другой стране, на случай попадания в дом метеорита, или, «взрыва бытового газа».

Эхх, когда уже себя также забэкапить можно будет…
В «Видоизмененном углероде» эта концепция раскрыта по-полной.
Да, очень неплохой детективно-боевикастый цикл с закосом в киберпанк, мне нормально зашёл.
Ага, в итоге бекап доступен мультитрилиардерам.
Это очень плохой вариант — делать raid5 на таких объёмах. Шанс, что при восстановлении массива вы за эти 16ТБ наткнётесь на ошибку (или умрёт ещё один диск) крайне высок. Лучше взять больше небольших дисков и поднять либо raid6, либо иной вариант, выживающий при потере двух накопителей.
RAID5- как частный случай, и в него умеют чуть менее, чем все. От проф винды, до линукс боксов
А кому будут нужны эти данные, если в результате падения метеорита вас и вашей семьи не останется в живых?
Как это, не останется? я буду на работе, дети — в школе.
Сразу восстановим данные из бэкапа, из квартиры родственников

Вы всегда на работе, а ваши дети всегда в школе? Вы никогда всей семьёй не отдыхаете? Например, поход в кино может закончиться террактом, полёт на самолёте авиакатастрофой, поездка на автобусе дорожной аварией… Да тот же взрыв газа у соседа ночью, пока все спят. Второй вопрос, смогут ли ваши родственники, даже если им будет надо, получить доступ к данным? Знают ли они пароли от облака, от зашифрованного файла?

Ленточные накопитили для бекапов самое то.
m.habr.com/ru/post/422851

Ага, ещё была бы возможность на LTO через usb 3.0 кидать, а то только через FC или SAS, что для дома. не удобно.
Ну или какие переходники USB 3.0 — SAS/FC были бы…
Прошу прощения но я не имел виду бекапы для домашних компьютеров, когда оставлял ссылку на пост.
Для домашнего бекапа хватит и рейд копии диска.
Для домашнего бекапа хватит и рейд копии диска.
Шифровальщик, кража, пожар.
Так-то ту же пленку проще хранить, меньше беспокоясь о том, что её уронят, а объемы интересные даже не у последних поколений, особенно по ценам на авито.
А еще подтопление, и (ВНЕЗАПНО) фаза (380В) в розетке на 220В. Ну или молния, по вкусу.
От повышенного напряжения портится только электроника, а такую мелочь вам в любой профильной мастерской по восстановлению данных сделают (имел опыт таки связанный с грозой). Впрочем для дискового хранилища лучше брать системы питания HV-защитой.
RAID — это вообще не про бэкапы. Это только про бесперебойность работы.
Для обычных людей вот такие попроще будет делать: www.verbatim.ru/ru/prod/mdisc-lifetime-archival-bdxl-100gb--5-pack-jewel-case-43834
Само собой, если объёмы не терабайтами измеряются.
Все фото правда нужно будет перегонять в форматы попроще + взять программку для каталогизирования, вроде WinCatalog, или что больше по душе.
Само собой все диски нужно хранить не на балконе (регулярные перепады температуры нам не нужны), а в дальнем шкафу, подальше от собак, кошек и детей. Хорошо бы еще парочку экземпляров записать, и положить в другом месте.
обычные люди писали сидюки вербатим в том числе, а потом они все сдохли. а в рекламе тоже были вечные. еще и стоят дороже винта и пользоваться неудобно
Вот реально хз, пока что зарекомендовали себя как надежное решение. Стоят — да, дорого, условно 1000 рублей за 100 гигов. Но, обычная коллекция фоток, да и видео, которые ты очень хочешь сберечь, не большая.
Насчёт надежности, хотелось бы почитать что-нибудь.
Если же ты любитель каяков и хочешь все походы сохранять, то их будет сильно мало, там нужно или NAS покупать, или на ленту писать. Но это уже другой портфель.
В России не продают, видимо
Для этих задач обзавелся на барахолке вот такой магнитооптической прелестью. Пожалел лишнюю тысячу рублей на USB-версию и купил сказёвый. Уже год неспешно мучаюсь с подключением.
FUJITSU DYNAMO
Картинка побольше
FUJITSU DYNAMO


В качестве временного решения, пока она не заведётся, буду пользоваться M-Disc от Verbatim.
640 Mb хватит всем^Wне хватит CD-болванку забэкапить же. Это только для «холодных» данных же, получается?
Человек хотел для дочки фотографии сохранить и видео. Вполне себе подпадает под «холодные» данные, как мне представляется.
Что касается размера, у FUJITSU была целая линейка, вплоть до, кажется, 2 с чем-то гигабайт. Причем с обратной совместимостью.
да что-то мало. я на блюрей кидаю. а такую мелкоту проще в 3-4 облака разложить
Pinnacle Micro OHD-2600 или его сотоварищи былиб повеселее.
Третью копию домашнего фото-видео архива храню на DVD (+ корректирующие коды QuickPAR), уже 90 дисков. Самым старым дискам более 10 лет (тогда заменил CD на DVD), проверял в январе этого года — читаются без проблем. Думаю, лет 10 они еще проживут без проблем, а там перепишу на m-disk или что-то подобное.
Вторая копия в облаке mail.ru, первая копия на съемном 2.5" HDD. Нулевая — на 3.5" HDD в медиапроигрывателе.

Паранойя? Может быть, но ни одного файла за 18 лет не потерялось… :)
Все правильно, никакой паранойи. Я с 1989 года не потерял ни одного нужного файла — тогда появилась возможность использовать IBM-совместимый комп. До сих пор где-то (найду быстро) лежат уже непонятно зачем нужные файлы в форматах Лексикон, ChiWriter, Word&Deed и так далее. А в нынешнее время семейный фото-видео-архив хранится в 15 физических экземплярах (ротация внешних синхронизируемых хардов между несколькими разнесенными точками хранения + 2 синхронизируемые NAS в двух домохозяйствах, + собственно бэкап-харды. Количество логических форматов — 6 — просто синхронизированные файлы + бэкап в формате NAS + 4 формата очень-долго-играющих инкрементных бекапов, сделанных разными бекап-программами + облако + ну и сам первичный ноутбук. Харды подбираю одинаковых емкостей, но от разных производителей (которых, к сожалению, становится все меньше и меньше).

Почему так? Верить никому нельзя:
— можно ли верить производителю харда? нет — вполне можно напороться на серию с большим количеством брака (хорошо если посыпется сразу по всему миром хором и вы заранее об этом узнаете и можно метнуться-подстраховаться, а если брак отложенный?);
— можно ли верить производителю NAS? — тоже вряд ли.
— можно ли верить разработчику бэкап-софта? — нет — форумы переполнены плачем об отказе софта восстановить из бэкапа или просмотреть его содержимое, или продолжить бекап в инкрементную/дифференциальную цепочку (4 разных бэкап-инструмента я отобрал для себя в результате мучительного многолетнего отбора)
— можно ли верить облачному провайдеру? — нет, в любой момент может все потерять, а с его отказом об ответственности нам уже была предоставлена возможность согласиться, когда регистрировали учетную запись.

Мои инкрементные семейные бэкапы позволяют откатиться назад на 3-4 года с дискретностью примерно в 1 месяц — это на тот случай, если дражайшая супруга (она является «логическим» администратором массива) не найдет что и куда разложила и озадачит меня вопросом — а вот где папка «Бухаем на даче 2015 (2)»? И эти инкрементные бэкапы я уж постараюсь сохранить ближайшие лет 20.

Пословица: «пользователи делятся на тех, кто не делал бэкап и на тех, кто начал его делать» уже сильно устарела — в нынешнее время вынужденно-огромных объемов данных (причем очевидна долговременная ценность только некоторой части данных), тотального снижения качества (и предсказуемости — добротности) и железа и софта, невозможности быть уверенными в целостности инфы, пословица выглядит так:
пользователи делятся на 5 категорий:
1) те, кто никогда не делал бэкап;
2) те, кто начал делать (хоть какой-то) бэкап;
3) те, кто начал делать бэкапы разными средствами, на распределенную систему разнородных машинных носителей
4) те, кто начал проверять целостность бэкапов;
5) те кто начал проверять реальную возможность восстановления из бэкапов
(по категориям 2-5 есть еще подкатегории с уточнением «регулярно»).

Я нахожусь в категории 4 — нерегулярно устраиваю проверки целостности родными инструментами — следовательно, (легкомысленно?) доверяю разработчикам бэкап-софтов, в надежде, что хотя бы один из четырех не уйдет с рынка, не перестанет поддерживать предыдущие форматы и т.п. — в общем актуальность сохранится на 10-15 лет.
Формат «Просто файлы» на синхронизированных хардах — периодически, выборочно (по папкам верхнего уровня) провожу побайтовую сверку средствами Total Commander — тут более-менее можно быть уверенным в целостности файлов и что хард пока не битый.
Поделитесь, как все настраивали?
Какие софт/инструменты?
1) Про синхронизацию на внешние харды
1.1. N ротируемых внешних хардов 2,5" — Seagate, WD для зеркальной односторонней дискретной синхронизации средствами FreeFileSync — далеко ниже по этому обсуждению я написал большой комментарий-вопрос про возможно уникальный функционал FreeFileSync;
1.2. Периодичность — примерно 1 раз в 2 недели, очередной обновленный диск отношу в другую точку хранения (подвал, другое домохозяйство....); прямо-уперто этим не заморачиваюсь, но стараюсь обменять 1 пару дисков не реже 1 раза в месяц. На случай внезапных локальных проблем пожар/залив соблюдаю правило — два (и тем более — больше) ротируемых диска никогда не встречаются в домохозяйстве где находится исходный ноутбук, диски встречаются только в дистанционной точке хранения, непосредственно при обмене; продолжительность каждого сеанса синхронизации — обычно не более 10 минут.
1.3. Обеспечение сохранности в точке хранения — сам внешний диск плотно завернут в небольшой пакет, пакет — в полужесткий противоударный футляр, футляр — еще в один пакет. Это целесообразно для минимизации вероятности коррозии контактов USB 3.0 (хотя во всех точках хранения у меня все в порядке с влажностью и температурой, но я рассчитываю на очень длительный срок эксплуатации этих дисков — 10-20 лет, так как а) скорости USB 3.0 достаточно; б) семьей решили, что будем по возможности сопротивляться появлению видео в формате 4-8 К и фото по 100-мегапикселей (не нужно все это); в) расчет емкости показывает, что на них свободного места должно хватить, гм, до конца пенсии); футляр в пакете — в металлический (жестяной) ящичек-чемоданчик (ну типа от новогодних конфет для детей) — это нужно на тот всякий случай, если в условиях нынешней напряженной обстановки супостат применит нелетальное массовое оружие — например с мощным электромагнитным импульсом — предполагаю, что металлическая оболочка, пусть и тонкая, повысит вероятность выживания харда (особенно в точке хранения ниже уровня грунта) — но это гипотеза, тут я не спец;
1.3. Выборочные проверки — для отдельных под-под-папок — изредка побайтово проверяю средствами Total Commander; это позволяет выяснить, что некоторая (очень малая) часть файлов в порядке, а так же подтвердить, что хард в целом жив;
1.4. Тотальные проверки — не чаще 1 раза в 2 года — в другом (не там где исходный ноутбук) домохозяйстве подключаю 2 полностью синхронизированных внешних харда к другому ноуту и средствами Total Commander провожу тотальную побайтовую проверку всего массива, сразу на двух хардах. Занимает 14-16 часов, гарантирует целостность файлов, укрепляет веру в харды (это максимальная редкая нагрузка на харды, в целом получается что каждый из них работает не более 50 часов в год).

2) Про облако.
2.1. По очень большому кол-ву параметров избран таки Яндекс.Диск (анализ — это отдельная тема)
2.2. На нем специально заведена семейная учетка — чтобы не путалось с личными.
2.3. Все из корня синхронизируется с основной папкой на основном ноуте — синхронизация двусторонняя зеркальная, Яндекс.Диск по другому не умеет;
2.4. Родня обучена из мобильных устройств ПЕРЕМЕЩАТЬ файло в мобильный клиент Яндекс.Диска — периодически, по потребности. Это позволяет избежать ужасающего дублирования файлов при смене устройств и т.п.
2.5. Соответственно, в папку на исходном ноуте новые файлы попадают либо из других источников (и сразу синхронизируются в Яндекс.Диск) либо синхронизируются из ЯД.

3) Про синхронизацию из ЯД на NAS
3.1. Два NAS в разных домохозяйствах — каждое дважды в неделю синхронизирует файло из ЯД (односторонняя синхронизация ЯД -> NAS; со сдвигом по дням, то есть всего получается четырежды в неделю — четыре состояния ЯД — если почему то это состояние менялось так часто — что вполне возможно в длинные праздники, отпуска и т.п.). Почему не постоянно — потому что все-таки не нужно, NASы стабильно засыпают днем, ночью (т.к. не нужны) — уходят в гибернацию с автоматическим включением по утрам. В целом сеансы синхронизации в NAS занимают 10-25 минут в день (интернет 100 Мбит, ЯД реально быстрый) — если конечно в ЯД не появились 3 ролика по 5 Гбайт.

4) Про NAS
4.1. Однодисковые Synology — относительно свежие, 115 и 116.
4.2. Почему однодисковые? Потому что дома RAID не нужен, потому что локальный RAID не защитит данные от пожара/залива, а от аппаратных проблем защищаемся N-кратным резервированием на множество других носителей.
4.3. Почему Synology? — потому что самые тихие, электро-экономные, с более чем достаточным функционалом. Например, DLNA поддерживается отлично и зачем более горячие, с почти не отключающимися вентиляторами, Vendor1 или Vendor2, снабженные более мощными процами для видео-задач. Выбирал крайне капризно долго — у ряда других производителей сталкивался с настолько пародоксально-неожиданными недостатками в функционале, что просто нет слов… И поэтому применительно к NAS не получилось выполнить требование использовать оборудование разных поставщиков — получилось бы дорого-избыточно-бестолково.
4.4. Харды в NAS — WD Red (не Pro). Почему они — потому что у Seagate по крайней мере несколько лет назад было как-то победнее с хардами, рассчитанными на высокую или среднюю интенсивность пуск-стоп, а у меня NAS предсказуемо работают далеко не постоянно (пусть отдыхают мои верные сайнолоджишки...).
4.5. Трудозатраты администрирования минимальны.
4.6. На всякий случай — нужно иметь в виду — если NAS — значит бесперебойник, если бесперебойник — значит бытовой, если бытовой — значит никель-кадмиевые аккумуляторы, значит замена батарей 1 раз в 2-4 года.

5) Про резервирование на NAS
5.1. Каждое NAS дважды в неделю (то есть всего четырежды) резервирует семейный архив на внешний подключенный неперемещаемый диск (один WD, другой Seagate)
5.2. Инструмент — штатный Synology-агент Hyperbackup, дедупликация поддерживается.
5.3. Настройка занимает минут 5.
5.4. NASы репортят мне по почте о выполнении задач резервирования
5.5. Целостность индексов в архивах проверяю 1 раз в квартал (через веб-интерфейс запускаю, а потом приходит репорт) — занимает несколько часов
5.6. Целостность всего архива проверяю 1 раз в год — может занять много времени, поэтому в день запуска на этом NAS отключаю ночной переход в гибернацию.

6) Про инструменты локального инкрементного бэкапа на внешние харды
Применяю их все, с примерно равной интенсивностью (1 раз в 1-2 месяца), потому что верить никому нельзя. Три из них отбирал очень долго, отсеял множество дорогих, тяжелых, с провалами в функционале, инструментов и множество студенческих недоделок. Писать буду только про локальные бэкапы — во всех инструментах есть облачные возможности, но это отдельная тема.

6.1. Acronis True Image — года с 2005-го лет 8 для инкрементных бэкапов пользовался только им — в сочетании с синхронизацией на ротируемые харды считал достаточным для маловероятных задач розыска-восстановления предыдущих версий файлов и т.п. Версии Acronis True Image я обновлял регулярно, использовал его и для резервирования системных разделов дисков. Так бы оно и продолжалось, однако в 2013-2015 годах Акронис пошел по пути стремительно-принудительного ухудшения функционала и множества ошибок (типа не может найти резервную копию для проверки хотя вот только что в эту копию добавил еще один инкремент, или может проверить, но не может продолжить цепочку, хотя в конфигурации вообще ничего не менялось, то при попытке (на всякий случай) начать восстановление пишет что копия повреждена, однако при повторной попытке через полгода оказывается все в порядке (те же файлы, на том же диске...). Тут же нужно сказать, что это ухудшение функционала все-таки было остановлено, и поэтому Акронис «остался в обойме», но напряг создал. Пришлось пометаться и поискать альтернативы. В целом можно сказать, что последние пару лет Acronis — один из лучших инструментов бытового бэкапа — по функциональности, однако все-таки не лучший по стабильности и предсказуемости.

6.2. Backup4All. Умеет архивировать только файлы — образы системных разделов не создает. Я пользуюсь режимом инкрементного резервирования в стандартный коммерческий zip. Соответственно, дедупликация не поддерживается — перемещенный файл в новом расположении считается новым и (повторно? очередной раз?) попадает в очередной zip-том. Однако т.к. это стандартный коммерческий zip, то это единственный инструмент где целостность архива (очередного тома) я могу проверить НЕ средствами этого инструмента — например, могу заглянуть в архив используя Total Commander — это очень круто, и можно смириться с отсутствием дедупликации. Есть много полезняков и удобств. Например, в отдельном окошке для каждого отдельного zip-тома можно увидеть, по сравнению с предыдущим zip-томом, — какие файлы добавились (напомню — или были перемещены, т.к. нет дедупликации, то одинаковые копии таких файлов могут оказаться в нескольких томах — по количеству перемещений в исходной папке); какие — удалены, какие изменились. Таковая информация накапливается в отдельном bkc-файле, который связывает zip-тома между собой, при этом сами zip-тома никак не зависят друг от друга. Больше такого функционала нет нигде.

6.3. EaseUs — в целом настроек значительно меньше чем в Акронисе, и в разы меньше чем в Backup4All. Но здесь простота = надежность/добротность. все необходимое есть. Предсказуемо делает то, что должен. Без капризов. Из нечастных полезняков — есть возможность объединить (merge) несколько инкрементных и/или дифференциальных архивов — в принципе на перспективе нескольких лет может оказаться полезным — для экономии места можно будет исключить старые (замененные) версии файлов (хотя для фото-видео, с учетом изначальной дедупликации, эффект может быть минимальным — не делаем мы много отредактированных версий роликов или фото). Как и Acronis, EaseUs умеет, кроме файлов, делать образы системных разделов (применимо только в платной версии, т.к. в бесплатной нельзя исключать из процесса папки, которые не нужны в образах, поэтому образ может оказать бессмысленно-большим). Еще полезняк — можно в очередном сеансе вручную указать — инкрементный или дифференциальный очередной том мне нужен. В отличие от Акрониса, где схема — либо цепочка, либо только инкрементная, либо смешанная — настраивается в параметрах задания изначально, и во многих случаях схема не может быть изменена.

6.4 Ashampoo Backup Pro. Пользуюсь режимом резервирования с поддержкой БЛОЧНОЙ дедупликации — соответственно, получаем множество (десятки и сотни тысяч) мелких и сверхмелких файлов. По ряду причин — долго писать — не пользуюсь резервированием в zip — кое-что там кривовато. Решил использовать этот инструмент именно потому что кроме различий в поставщиках и инструментах решил поискать различие и в технологиях резервирования. Все вышеперечисленные софты архивируют в инкрементные (или дифференциальные) тома (т.е. файлы больших размеров), а этот — в россыпь мелких файлов. Было еще несколько софтов, которые используют эту технологию как базовую, но там были косяки. Ashampoo имеет странноватый интерфейс настройки заданий — очень уж много next-next шагов, причем на каждом шаге мало настроек. Может делать и образы системных разделов, но не позволяет исключать не нужные папки — опять избыточный размер образа.

Итак какие мы получаем защиты и преимущества:
— большое количество распределенных синхронизированных копий «просто файлы» и вообще большое количество распределенных физических копий защищает меня от сбоев техники и катастроф на уровне домохозяйств (пожары и т.п.; оговорка — не очень надежно от падения самолета на близкостоящие дома);
— большое количество подконтрольных мне копий защищает от опасности «отключат интернет»;
— «просто файлы» — всегда есть полностью синхронизированная или чуть-чуть недосинхронизированная копия для миграции на новый ноутбук;
— облако — защита от локальных технических проблем и падения самолета;
— высокая частота инкрементных копий на NAS — уменьшает опасность «что-то ценное скопировали и тут же случайно удалили»;
— разноформатность локальных инкрементных копий — защита от скрытых и планируемых косяков разработчиков бэкап-софтов;
— долгосрочность циклов локальных инкрементных копий — поможет при необходимости найти забытое, давно случайно удаленное (причем не сразу спохватились).

Необходимо отметить, что ни один из этих методов-способов не защищает в одиночку более чем от половины опасностей, поэтому в той или иной мере применять их следует все.

Нельзя сказать, что все это напряжно и слишком дорого — все как-то помаленьку выстроилось само собой, примитивно регламентировано и достаточно автоматизировано, много времени не отнимает.

Ну вот как-то так.
Мне в качестве малого NAS очень понравились ASUS VM45. Можно воткнуть один 3.5" диск или пару 2.5". И при этом — полноценный x86, можно ставить любой софт. Бонусом можно запустить хоть kodi, хоть какое-нибудь интернет-радио — есть hdmi и встроенные динамики.
вы щаз почту на статью накатали, остается скриншотов добавить.
Вопрос собственно только почему это бытовые ИБП только на никеле вдруг?
1) Про почту и статью не понял, извините;
2) Про тип аккумуляторов — не точно выразился, извините. Собственно тип аккумуляторов не важен. Важно то, что в бесперебойниках, доступных по цене для бытового использования, используются аккумуляторы попроще, с ограниченным сроком службы (выдачи приемлемой мощности).
Смысл в том, что если идти по методологии резервирования, предусматривающей наличие одного или более NAS, нужно еще учитывать необходимость установки бесперебойников. Причем начальные затраты — это в целом одноразовая мелочь, а нужно еще и понимать что:
— нужно настроить NAS, чтобы оно видело бесперебойник по USB и могло выключиться — по таймауту работы от бесперебойника или при достижении порога оставшейся мощности (ну и с последующим включением при восстановлении электроснабжения); соответственно, нужно озаботиться подтверждением совместимости бесперебойника и NAS (и у меня есть субъективные подозрения, что у Synology в классе бытовых NAS с этим важным делом обстоит получше, чем у других вендоров);
— нужно быть готовым, что при плановой замене аккумуляторов придется разобраться с тем, какие батареи покупать — через 2-4 года после покупки у поставщиков и бесперебойников и батарей несколько раз сменятся таблицы совместимости, кодовые обозначения и т.п. Например, я глубоко вскопнул эту тему, готовясь к замене батарей в одном из БП. Из всех материалов следовало, что подходящая батарея (как вроде изначально установленная в бесперебойник) относительно невелика по емкости и выглядит почти как правильный кубик. Что-то тут не так — подумал я на основе опыта с другими аппаратами этого вендора и других — сходных по габаритам. Пришлось заранее лезть, все включать, извлекать исходную батарею… и… к счастью убедиться в том, что отсек для батареи позволяет установить другую штатную батарею емкостью в 3 раза больше — так я и сделал — что несколько отодвигает очередной цикл замены; причем когда на сайте производителя после этого я ввел сначала код подходящей батареи + код бесперебойника, то подтверждения соответствия таки нашлось, а вот по коду бесперебойника список совместимых батарей был гораздо меньше;
— несмотря на то, что веб-интерфейс правильного NAS в целом объективно показывает ориентировочное оставшееся время работы от бесперебойника — а через полгода-год это время уже будет немного меньше, чем у новой батареи, нужно быть готовым к тому, что изредка нужно будет иными средствами проверять батарею — ну например, у многих поставщиков бесперебойников есть windows-клиенты и подключив ПК по USB можно посмотреть параметры батареи и т.п. Это слегка напряжно и я это делаю не чаще 1 раза в год.
— при этом нужно быть готовым в необходимости определиться со своевременным сроком замены — например, за 2 года время работы для всех обслуживаемых потребителей (которые допустим, не менялись) снизилось с 30 минут до 15. Уже бежать менять? Или подождать еще год? Или задуматься о том что деградация батарей — не линейная зависимость и к концу срока темпы снижения емкости быстрее чем в начале — и все-таки бежать — чтобы не рисковать NAS-ом?

Нужно закругляться — в общем, при использовании NAS нужно понимать, что абсолютно необходимым является еще один блок (слой) инфраструктуры — бесперебойное электроснабжение. Этот слой нельзя сказать чтобы требовал много денег, но требует понимания, внимания, и 1-2 дня в 2-3 года — суеты и беготни.

Если кто-то задумывается об использовании NAS, то подумайте о том, что облачные ресурсы — этот тоже некоторый малофункциональный NAS, который от бытового пользователя не требует никакого технического обслуживания — все вышеперечисленные хлопоты (меня не напрягают) берут на себя специалисты поставщиков.

==============
Уточнения, связанные с тем, что очень часто при обсуждении очень разных тем на Хабре возникают экологические аспекты:
— проблемы утилизации аккумуляторов от бесперебойников не существует — везде где принимают автомобильные, приму и эти, еще и копеечку заплатят;
1) Про почту и статью не понял, извините;
Почти.
То есть добавить скриншотов, фотографий, чуть подробнее расписать и вот уже из двух комментов — получается статья, под которой можно подискутировать с пользователями хабра и выработать какие-то новые решения.
4 разных бэкап-инструмента я отобрал для себя в результате мучительного многолетнего отбора

А какие именно инструменты?
Развернуто ответил на аналогичный вопрос — см. выше.
Мои инкрементные семейные бэкапы позволяют откатиться назад на 3-4 года с дискретностью примерно в 1 месяц
современные тулзы делают дедуплицированные бекапы, можно всю жизнь бекапить раз в сутки, места займет только на сколько там разного есть, как гит
современные тулзы делают дедуплицированные бекапы

Потерял в одном месте — потерял везде!
потерял все копии куска в одном месте. в разных местах копии разные. все как с гит.
Хранить везде, где можно. И в облаке тоже.

Самый оптимальный вариант bluray M-disk, $3 25Gbt, привод около $100. Данные прожигаются, размагничивагие, сбой контролера и т.п. не грозит.

Держатели патентов на технологию вроде разорились? Будущее туманно у этой технологии.
Вопрос в долговечности материала, из которого диск сделан. CD-болванки, например, очень боятся солнечного света, а некоторые и сами по себе за 10 лет мутнеют.
M-disk более стойкий (в т.ч. к солнечному свету) и, по уверениям разработчиков, обеспечивает хранение в течение 1000 лет.
по уверениям разработчиков, обеспечивает хранение в течение 1000 лет.

А я вот собираюсь жить не менее 1000 лет.
Пока всё идёт по плану.
Всегда было интересно как они проверили «1000 лет»?
Методики старения примерно везде одинаковые: усиливаем внешние факторы в 10 раз и смотрим на степень деградации. Другой вопрос — насколько можно доверять результатам этих исследований:
Испытания М-Диска, проведённые Министерством обороны США, показали, что этот диск более стойкий, чем обычные DVD-диски. Испытания проводились в климатической камере с температурой 85 °C, относительной влажностью воздуха 85 % и при освещении светом полного спектра.

Тем не менее Национальная лаборатория метрологии и тестирования Франции показала, что при температуре 90 °C и влажности в 85 % диск DVD+R с неорганическим слоем записи, такой как M-DISC, показывает не большую стойкость, чем обычный DVD±R.


1000 лет, конечно круто, но тут фишка-то даже не в этом: уже через 20 лет может стать проблемой найти устройства воспроизведения. Для LTO вообще может получиться, что то, что записано на одном стримере, при его поломке, на другом может не прочитаться. Люди начинают пробовать на разных и маяться с вытаскиванием инфы. Поэтому кроме бэкапов надо следить за актуальностью их носителей и своевременно обновлять аппаратную часть.
M-disk только не сильно дешёвые. Я обхожусь обычными болванками в 25Gb или 50Gb. Хранение почти идеальное — атмосфера жилой комнаты, в тёмном шкафчике)
А чем плох вариант двух различных облаков кроме двойной цены? Вероятность выхода из строя одного облака есть, но она мала, вероятность выхода из строя сразу двух облаков — микроскопическая. Если есть страх за личные данные, то можно просто зашифровать данные :)

Вероятность выхода из строя или утери носителя далеко не нулевая, особенно на протяжении большого срока.
Двумя разными интеграциями. К тому же, тот же webdav есть у полутора калек.
НЛО прилетело и опубликовало эту надпись здесь
На бобинах и виниле.
Может еще нотные тетради предложите?
Да.
500KB per letter sheet means 1TB is 2,199,024 sheets, or ~4400 reams (500 sheets each), or an 8'x16' room filled with 6' tall stacks. It would take 63.6 days of continuous printing to do this
+ ламинирование.
Есть проблемы с тиражированием, если хранить только на бумаге.
Два постоянно включённых NAS'а (желательно в разных места), с заменой дисков/NAS'ов по мере необходимости.
Зачем прям кирпичи? Можно блоки ;) 320GB Brick Storage
Ковбой! Видео тоже, покадрово?
Есть какая то технология для CD/DVD/Blu-ray для долговременного хранения. Вроде как с минеральным покрытием. Обещают тысячу лет. Ну, тысячу не знаю, но сотню то должен пережить. Учитывая, что обычные CD лично у меня 20 лет уже пережили нормально. И я не уверен, что мои семейные фотографии будут интересны правнукам. А оптическим дисководом я не пользовался уже лет пять как. У меня его и нету в компьютере даже. Не говоря уже о ноутбуке.

P.S. Обещали, точнее. Компания обанкротилась всего через шесть лет. Правда сайт ещё работает, но вот на их онлайн магазин мне зайти не удалось.
Мне советовали m-disk. Но пока думаю. Да и ещё найти в продаже надо.

Где угодно, при условии, что это минимум 2 разных места.

Покупайте долговечные болванки и никаких проблем.
Как уже сказали: m-disk, LTO, bluray, HDD.
Вот здесь множество способов хранения перечислено.
Ну и вот это почитать не помешает, я страдаю, например.
Как уже сказали: LTO, HDD.

Ну вот у меня есть кучка LTO-лент и старых HDD не очень больших объемов. И два ноутбука.
Удобная система бекапов из этого без внешнего сервера с sas контроллером для первых или какой-то доп.станции для подключения вторых, а лучше сетевого NAS с удобным способом смены дисков? Ну и как хранить HDD надо продумывать капитально.
Ну или через что-то подобное, ага, велосипедить для LTO:

Как уже сказали: m-disk, bluray
Выбор в РФ приводов и дисков никакущий, только оттуда тащить, а если нужно ещё и пересечение…

PS. DG7 внешний для ноута и хотелось бы USB 3.0 а не через два USB 2.0
У асуса есть — такое ощущение, что обычный не слим пихнули в внешний кейс.
У вербатиума только на сайте два есть, но где подобное можно купить — не гуглится…
Выгоднее блюрей если не m-disk, но будет ли он долговечнее LTO-пленки? Которая к тому же ещё и перезаписывается.
Приводов хватает, собираюсь покупать на днях. А HDD это несерьезно в плане долгосрочного архива.
высоокачественные блюрей, не мдиск, такие как панасоники, японские сони, японские вербатим изначально идут как способные хранить 50 лет при условии соблюдений правил хранения, что явно долговечнее пленки. По ценам примерно 500р японский 100гб вербатим, ни одного упоминания о вышедшем из строя хотябы одном подобном диске нигде не встречал, то есть надежность явно высокая. А как на прсотых дешевых блюрей не знаю. Если нужна перезапись это это уже и не архивное хранение, можно и на HDD посмотреть если для временных архивов. Мне лично нужен блюрей сейчас для 4к видео с камеры, фильм сделал и записал готовый, а там перезаписывать нет уже необходимости.
Ага, вот только яндекс маркет даже про такие не знает. По такой цене именно в РФ не нашёл…
Ну и смотрите:
LTO5 лента не вскрытая на авито — 1к, в магазине — 2,5к.
Емкость 1,5 Тб обещают плюс сжатие, но 1,3 где-нибудь впихнётся. То есть как 13 ваших блюрей дисков *50 = 12,5к на сходный объём.
С учетом, что чаще в эту же стоимость я вижу как раз таки 50 Гб, то уже 25к.
При этом бекапы изредка и обновлять можно, стирая старые, записывая новые.
Срок хранения 20-30 лет (если будет чем считать, да) и при этом места занимают мало, касету кидать к родственникам в стол раз в пару месяцев можно.

А так у меня только фоточки уже под 150-200 гигов, а я даже не фотограф и детей ещё нет. Есть и ещё инфа, которую тоже хотелось бы сохранять. Плюс просто так никто ещё и не прочитает её)

Правда пока это всё на внешние и из микросервера HP собрал NAS. Но ведь этого же мало! )
На авито продаются японские диски, конкретнно 100гб вербатим по 450р были. А так из-за границы можно заказывать, или покупать дешевые диски попроще. LTO и bluray давно изучаю и пришел к выводу что блюрей куда лучше и сжатие 4к видео не сработает на LTO.
Лента не конкурент этим высококачественным дискам из японии у которых сроки службы не менее 50 лет, с лентой и сравнивать нужно куда попроще диски, к примеру CMC 25Gb которые стоят 35рублей в среднем, то есть около 2100р за 1.5тб. Мне архивы стирать не нужно, то что нужно стирать это не архив и хранится у меня на HDD, а записывать дописывать новые можно и на блюрей.
И тем более лента не конкурент еще более дорогим MDISC которые могут сохранить информацию фактически навечно, и передавать семейный архив как реликвию из поколения в поколение, тогда как ленту и обычные недорогие блюрей диски уже желательно переписать лет через 20.
без внешнего сервера с sas контроллером для первых
Есть еще на FC. Карту в PCI слот ПК и вперед. Если нет компьютера, то да, проблемы наверное.
Выбор в РФ приводов и дисков никакущий, только оттуда тащить, а если нужно ещё и пересечение…
Как и с LTO в общем-то. Хотя у нас на барахолках достаточно много старых лент продают.
И два ноутбука.
Это главное. Сейчас у многих хорошо если ноут есть, а не вообще планшет.
Переходников с USB 3.0 на FC или SAS — ровно по одному через интернет нашел (в ссылках можете глянуть), первый не известно как работать будет на подобной задаче, второй стоит безумных денег (что сравнимо с мини сервачок с sas-контролером)
Как и с LTO в общем-то. Хотя у нас на барахолках достаточно много старых лент продают.
В интернет магазинах проблем с лентами не замечено, как бы достаточно популярный продукт. Год назад LTO 4 закупали на контору через поиск по я.маркету…
любым другим коммерческим сервисом

Здесь слово «коммерческим» явно лишнее. Единственный надежный способ хранения — у себя дома на HDD с периодической проверкой носителя и переносом, хотя и тут могут возникнуть проблемы. Однако такие данные все равно рано или поздно потеряются (например, после смерти владельца).

Насколько я понимаю на данный момент нет действительно надежного способа хранения данных. Единственное, что приходит на ум: высекать их в камне, но это подходит только для небольших текстовых данных. Однако у такого способа хранения хотя бы есть шанс пережить пару веков, а то и тысячелетий.
Камни тоже теряются, а потом археологи гадают, кто, что, зачем и на каком языке писал…
Камни теряются, но информация на них остается. Если археолог найдет CD через пару тысяч лет, то он вряд ли сможет его прочитать даже при наличии оборудования. Прочитать информацию с камня можно, но ее нужно расшифровывать.

Хранить инфу вместе с инструкцией по изготовлению читающего устройства или описанием формата данных на человеческом языке

Язык тоже меняется. Через 1000 лет не факт, что живые носители останутся. Вот инопланетянам шифровку отправили… ru.wikipedia.org/wiki/%D0%97%D0%BE%D0%BB%D0%BE%D1%82%D0%B0%D1%8F_%D0%BF%D0%BB%D0%B0%D1%81%D1%82%D0%B8%D0%BD%D0%BA%D0%B0_%C2%AB%D0%92%D0%BE%D1%8F%D0%B4%D0%B6%D0%B5%D1%80%D0%B0%C2%BB
Интересно, может есть решение для сохранения данных в печатном виде на бумаге? Что-то типа мега-QR кодов, с максимально возможной плотностью данных.
ollydbg.de/Paperbak
PaperBack is a free application that allows you to back up your precious files on the ordinary paper in the form of the oversized bitmaps. If you have a good laser printer with the 600 dpi resolution, you can save up to 500,000 bytes of uncompressed data on the single A4/Letter sheet. Integrated packer allows for much better data density — up to 3,000,000+ (three megabytes) of C code per page.
3,283,736 byte можно сохранить на бумаге с помощью QR кодов, если использовать 600DPI

Грубо говоря дискетта.

Увеличим до 1200 DPI и красота 13,120,179 байт

Если считать по формуле ((623.7(лист в см2) / 0.00000448027919(пиксель в см2 при размере DPI 1200)) / 31329(qr код 177х177 пикселей)) * 2953

Это если кто-то не придумает трех-мерную кодировку используя цвета. Хотя черно-белый не выцветет.

Если 9600 DPI было бы реально купить то добро пожаловать в 839,785,952 байт.

Только думаю при таких размерах потери будут гарантированы.

Ещё со времён негипертекстового фидонета
UUEncode

Самое надежное — золотые таблички. Проверено временем.
Южная америка, золотые галеоны…
Так что — только классика, только глиняные.
Имелась ввиду стойкость к внешней среде, не к грабителям, разумеется: ) А так тогда лучше всего в граните высечь и закопать. Керамика слишком хрупкая.
В QR-кодах довольно много можно сохранить.
Отлить в гранит, я настаиваю!
НЛО прилетело и опубликовало эту надпись здесь
Арвид! Где ты? Пора доставать VHS!
Или как Джонни-Мнемоник — всё в себе.
Аха, прям в ДНК.
Если данные важные, то оригинал дома под подушкой, а копия в облаке и тогда никаких проблем быть не должно.

Эх, так хочется вас плюсануть после той оргии, что выше по комментариям творится. Но не могу.

Спасибо, плюс принят)

Только многократная георепликация, плюс периодический бэкап на внешний винт доставаемый из тумбочки. Уже лет 20, полёт нормальный.

Есть два типа админов:
-те, которые делают бекапы
-те, которые будут делать бекапы.
Больше нравится другой вариант:
— те, которые делают бэкапы;
— те, которые теперь точно делают бэкапы;
— те, которые проверяют восстановление из сделанных бэкапов.
одна проблема у третьих, ни на что другое может времени ни остаться, если забэкапливается много, бэкапы идут всю ночь и внутри всё разносортное и никак скриптами это потом не прошерстить на валидность.
Это какими же кривыми ручками надо было выполнять миграцию ))

Скорей всего они тупо переехали на новые серваки, а старая инфа осталась на старых. Потом старые сервера тупо выключили, разобрали и продали — а то, что на них крутилась боевая инфа, знало 1.5 админа, которые… уволились )))))
кстати вот да, ВК хоть и не хранилище, но у старых фото осталась только превьюшка, а оригинал потерян
А, может, они и не обещали хранить?
ну я и говорю — не хранилище.
Совсем старые фото в ВК ЕМНИП изначально хранились в говеном качестве. Полноразмер стал сохраняться года этак с 2012го.
не не, там были превьшки (допустим 640х480), и можно было открыть оргинал фото. Где-то год назад это еще работало, сейчас если жмякнуть открыть оригинал, то открывается превьшка. Я достаточно часто обращаюсь к старым картинкам (схемы и прочие самоделки). И тут вот случился конфуз.

да конечно это касается старых фото
подтверждаю, ВК потерял видосы где-то 07-08 годов и некоторые фото
За примерами далеко ходить не надо — lastfm так поступает постоянно, периодически подчищая данные.
Вопрос в тему — а можно ли сделать вменяемую локальную копию хабра? Он весь, в общем-то и ни к чему, но отдельные хабы я был бы не против заиметь)
Плевое дело! /s Можно скооперироваться)
Я когда-то пытался HTTrack'ом сделать, но помню что-то не пошло. А весь сайт «буран» я когда-то так успешно снял.
Да, вполне. Натравить wget с флагами prerequisite и mirror, по желанию ограничить доменами/глубиной следования ссылкам. Для локального просмотра вроде -l, чтобы ссылки сконвертировать, а для архивационных целей (с метаданными) — в формате WARC.

www.archiveteam.org/index.php?title=Wget#Mirroring_a_website
Хм. Такое чувство, что перед миграцией уволили того, кто писал скрипт и… вместо копирования получилось удаление, а пишут о повреждении данных.
Читал в какой-то книге, что если пользователь доверил хотя бы один байт своей информации, не важно каким путем, – берегите этот байт как зеницу ока. :-)
MySpace как и множетсво соц сетей которые пыталась запустить Microsoft никогда не будут работать, потому что если они свой Windows не могут уже 20 лет переделать с 386 ядра, о чем вообще можно говорить. Бил Гейтс заработал себе денег на старость и все, кому это надо теперь заниматься компанией старика, смешно. Была гонка 2 людей в истории и один умер сойдя с дистанции, он пинал прогресс, хотя ему это не давали делать, а теперь эта гонка закончилась и все начинает приходить в упадок. Китайцы теперь рынком ролят, и я не удивлюсь если какая то китайская соц сеть после падения зановести просто накроет всю планету за щитаные недели.
Про китайские сети смешно написали, в плане недель. Я так понимаю, как-то занавес падет, то у всех пользователей на планете активируются нужные программы с мгновенной регистрацией и полной синхронизацией с фейсбуков.
А вы зря смеетесь, Фейсбук это не панацея от всего, просто никто недооценивает потанциал того что китайцы могут вытворять. Если уж АлиЭкспресс стала захватывать видео индустрию и выходить на рынок, конечно она пока не двигает всяких Sony и Paramaund но, мы не об этом. Потенциал просто огромный и он не выплескивается cдержаный барьером FireWall а Китайского. Это как была Альта виста, а потом Google просто всех подмял, может быть такая же ситуация.
А вы зря смеетесь
Мне смешны сроки, а не сами потенциальные возможности.
Соц сеть Like за месяц набрала аудиторию 5 мил. пользователей, это тоже смешно?
сейчас в ней 300 миллионов пользователей
Китайцы теперь рынком ролят, и я не удивлюсь если какая то китайская соц сеть после падения зановести просто накроет всю планету за щитаные недели.

Соц сеть Like за месяц набрала аудиторию 5 мил. пользователей, это тоже смешно?
сейчас в ней 300 миллионов пользователей

5 миллионов за месяц != 7 миллиардов за 2 недели.
А причем тут 7 миллиардов, по вашему когда говорится, что весь мир в интернете, значит все 7 миллиардов в нем сидят что ли, вы серьезно так думаете?
Тогда, что такое весь мир и
щитаные недели
?
Это, скорее всего, производное от «shit», но нельзя полностью исключить и просто безграмотность.
Итак уважаемый, Весь мир — это территория — это понятие говорящее о том, что в большеносые планеты земля где проживают цивилизованные люди куда возможно попасть транспортом и где есть блага цивилизации — в этих местах появится.
Щитаные недели — это временной интервал говорящий о скорости, а точнее о высокой скорости распространения
3 миллиарда за 3 недели — можем взять такие цифры?
Я не аналитик и не дочь Ванги. не могу в цифрах мерить которые вы предлагаете
Так, а писать выше вы можете, но ответить за слова — нет? Значит
Китайцы теперь рынком ролят, и я не удивлюсь если какая то китайская соц сеть после падения зановести просто накроет всю планету за щитаные недели.
— это просто вода, и не более? Если да, то ниже мне было смешно с таких данных. Вы же в ответ что написали? То есть, в начале вы Ванга, а уже потом не Ванга?
Не понимаю, где выше? Ну наверное если сидеть и смотреть на мир через окно ноута, то все можно так воспринимать. Поживите в Китае пару лет, поймете, что вода а что пиво. Я Ванга для одного и не Ванга для другого, не подменяйте мысли
Не понимаю, где выше?
Выше по тексту.
Я Ванга для одного и не Ванга для другого, не подменяйте мысли
Благодарю за внимание, я так понимаю, что прогнозы весь мир за считанные недели — это гадание на кофейной гуще… так сказать, что и требовалось доказать.
Благодарю взаимно, какое кофе такое и гадание
НЛО прилетело и опубликовало эту надпись здесь
а что неясного то я тут рассказываю?
Вы не в курсе, так откройте папку Windows у себя и поищите файлы и директории i386
НЛО прилетело и опубликовало эту надпись здесь
Не могут уже 20 лет переделать с 386 ядра. Какие дыры закрывать для старого софта, вы о чем? Уже 3.1 и NT ушла в вечность навсегда, Microsoft уже даже за эти годы отказалась поддерживать Internet Explorer так почему не разработать новое ядро, что денег не хватает. Просто никому это не надо, эта мысль и была в моем первом посте
НЛО прилетело и опубликовало эту надпись здесь
Вы что в проводнике искали что? У меня так полно папок с библиотеками
Уважаемый мы ушли от темы, мысли в другую сторону пошла, я не об этом пишу вообще и свою мысль высказываю. Тут статья о соц сети и цель моего поста СОЦ сеть. А что не так с Windows можете такой запрос написать в Yandex и получите 20 000 ответов, я тут не это обсудить хотела.
Видимо, вместо файлов ярлыки скопировали.
На дискету, по заветам классиков. ;)

После нескольких случаев потери дорогих мне данных из за багов флеш памяти, напротив, стал относиться к вопросу более "философски". Можно сделать сколько угодно бэкапов всего, кроме себя...

Это точно, почти каждый раз делая «большой бэкап» и думая о судьбе наших данных приходит мысль, что себя не забэкапить. А дорогие сердцу фотографии и файлы в лучшем случае проваляются где-нибудь на пыльной полке и постепенно сотрутся в результате размагничивания. Или кто-то просто выбросит устаревший HDD в помойку.
А вы любите смотреть свои старые фото\видео? Где вы молодой, красивый а многих рядом с вами уже нет в живых? Я часто задаю себе вопрос — зачем я всё это храню?
Как старый параноик, храню самое ценное, помимо облака, на нескольких жестких дисках в разных физических локациях.

Почему-то вспомнился фильм Blade Runner 2049 — там упоминается какое-то «отключение», после чего мама одного героя (лысого администратора) очень горевала из-за его детских фоточек. :)
А мне при упоминаниии «бакапа себя» вспоминается «Kaiba», и эпизод с регулярной распаковкой забакапленных предков и последующей упаковкой. Да и тема торговли воспоминаниями там раскрыта доступно и жестко.
Ну а по самой статье: ломается всё и вся. Даже Амазоновские облака теряют данные , причём постепенно и незаметно для потребителя
Но лично я резервные копии я всё равно дублирую в облако, лишним оно в наших условиях
точно не будет.
Стоимость хранения падает экспоненциально (правда в последние 4 года застой — стоимость практически не упала вообще, но через пол года падение возобновится), а вот количество данных у одного юзера растёт линейно (даже с учётом ухода юзера). Поэтому хранить можно бесконечно долго в перспективе. Сейчас ещё дорого, но уже через года два стоимость хранения всей этой инфы упадёт в 2 раза, а ещё через два — в 4 раза. Хотя видео дорогое, да.
Если бы не эта новость, никто бы и не вспоминал про MySpace. Кто-то еще им пользуется?
*Участил бэкапы с Dropbox и GDrive на локальный RAID в два раза*
Эхх, потерял видосики с репетиций группы :(
Ну чтож поделать. Никогда не стоит забывать о бекапе.
Ай-ай-ай, а мы-то думали, что наши фоточки лежат сплошь на CLARiiON'ах!
CLARION — это про СУБД/язык, который ровесник Clipper?

Не, это такой мегавинчестер за сколько-то мильонов от EMC, использующийся в банках и устойчивый к катастрофам, потому инфа на нем реплицируется между континентами

Коллеги, а вот еще такой аспект — сначала напишу о последнем достижении-облегчении при зеркальной односторонней дискретной синхронизации «просто файлы» на внешние харды, а потом задам вопрос.

1. Долгое время для дискретной синхронизации «просто файлы» на внешние ротируемые харды я пользовался бесплатным Personal Backup (PB) — все хорошо, задание на синхронизацию одно, потому что N хардов по одному подключаются под одной и той же логической буквой, структура целевой папки на всех одна и та же; преимуществом Personal Backup перед многими другими инструментами является опция «проверять сразу после копирования», что в рамках одного сеанса позволяет сразу же проверить копии новых (добавленных в исходную папку, в т.ч. и со старыми датами) и измененных файлов. Т.к. в целевой и исходной папке никаких файлов индексов и конфигурации задания синхронизации не лежит, то в этот процесс можно при желании безболезненно вклиниться синхронизацией Total Commander (TC), а потом следующий сеанс опять сделать средствами Personal Backup.

Красота! Но…

2) Проблемой подобных дискретных синхронизаций (средствами PB, TC или подобных) является проблема перемещения файлов в исходной папке — при наведении, например, порядка, в фото-архиве (перемещение в другие папки, переименование папок...). То есть эти файлы уже есть в целевых папках на ротируемых дисках, с ними ничего делать не нужно — их нужно синхронно переместить в новые местоположения внутри структуры каталогов целевой папки. Если наведение порядка приводит к необходимости перекопирования и проверки таких файлов на несколько гигабайт, то это не особо напрягает (особенно если в эти же сеансы требуется еще синхронизировать столько же или больше добавленных и новых файлов). А вот если наведение порядка привело к перемещению десятков гигабайт, то это уже печалька — десятки минут (неважно — с проверкой или без) на каждый ротируемый диск, бессмысленная нагрузка на диски и т.п.)

3) Решение нашлось в лице FreeFileSync — в настройках заданий синхронизации есть опция «Обнаруживать перемещенные файлы» (скриншот например здесь ironfriends.ru/rezervnoe-kopirovanie-i-sinhronizatsiya-fajlov-v-programme-freefilesync — под строкой «Выберите режим резервного копирования «Зеркало» и нажмите «ОК».»).
В разных версиях (локализации?) эта опция может называться типа «Контроль перемещения файлов» — не суть.
Суть в том, что в исходной и целевых папках FFS создает индексные файлы sync.ffs_db в которых и хранится информация о предыдущих (по состоянию на конец предыдущего сеанса синхронизации) расположениях файлов в исходной и целевых папках.

Соответственно, теперь затраты времени на разборки с перемещениями сократились почти до нуля — независимо от количества перемещенных файлов и их суммарного объема. Обратная сторона — теперь синхронизацию можно выполнять только средствами FFS — чтобы изменения прописались в индексных файлах; теперь вклиниваться с помощью PB или TC или чем-то подобным — нельзя. Так же FFS не поддерживает проверку копий — но это не очень существенно — можно сразу после синхронизации побайтно выборочно сравнить файлы в исходной и целевой папке средствами TC.

Вопрос — подскажите, какие еще есть программы для синхронизации, которые поддерживают такой функционал — отслеживание перемещения файлов; отслеживание производится во время очередного сеанса дискретной синхронизации, результаты отслеживания сохраняются в специальных файлах?
Речь идет только о «зеркальной односторонней дискретной синхронизации». Он-лайновые (непрерывные) синхронизации (в т.ч. на локальные NAS), инкрементные бэкапы с дедупликацией (что предусматривает исключение перемещенных файлов из обработки) — это все другие методы для других ситуаций/задач.
Я отсмотрел кучу разных… Sync'ов… — нигде ничего подобного не нашел. Может пропустил? Неужели FFS только один такой?

=============
Примечание для заинтересовавшихся — я задал вопрос для упрощенной ситуации, когда FFS синхронизирует файлы из исходной папки только в одну (физическую, на одном физическом харде) целевую папку. На самом деле, FFS разбирается и с ситуацией когда синхронизация производится в несколько разных (на разных хардах) целевых папок, причем между сеансами синхронизации в исходной папке могут произойти перемещения файлов, — которые, само собой, отслеживаются в индексе в исходной папке, но не обязательно нужно тут же отследить в каждой целевой папке. То есть не нужно синхронизироваться абсолютно одинаково последовательно (при одном и том же состоянии исходной папки) сразу на несколько целевых хардов. Тут есть пара нюансов — если интересно — напишу.

Разработчикам FFS — респект!
Кажется у Goodsync есть такой функционал. Это я все про 9.х версию. Это платный продукт.
В настройках задания есть галочка: «определять перемещения и переименования файлов». Не знаю как качественно это работает, но галочка есть.
При этом прога хранить свои файлы в синхронизируемых папках. В настройках можно отказаться, и хранить файлы в папке программы, но, наверное, суть от этого не изменится.
В настройках есть еще один, по-умолчанию отключенный пункт: «не смотреть в папки, верить файлу состояний». У него вот такое описание: «При включенной опции перед полным Анализом проверяется наличие изменений файла временных меток на медленной серверной стороне, созданного при синхронизации. Если этот файл не изменился, то полный Анализ не производится. Если опция отключена, то всегда производится полный Анализ.»
В общем, мне показалось, что это то, что вам нужно. И вообще, вся прога достойна внимания.
Уважаемый trimtomato! Спасибо огромное! Плюсую много раз — мысленно, т.к. не хватает кармы для плюсования по факту…
1) Опция "определять перемещения" — точно работает — срочно проверил в пробной версии;
2) Опцию "и переименования файлов" — пока массово проверить не удалось, разберусь по ходу;
3) В левой и правой папках создаются скрытые папки _gsdata_ — внутри них какие-то индексные файлы — по аналогии с индексным файлом, который делает FFS.
4) Насчет «не делать Анализ на медленной стороне» — пока не проверил, но если это работает — то это супер-прорыв для синхронизации большого кол-ва файлов в серверные и особенно облачные ресурсы — буду разбираться; если синхронизировать аккуратно (и особенно — если односторонне и только из одной левой папки) — то это будет сильно экономить время
5) Goodsync я подробно анализировал года 2 назад, тогда таких опций не было (ну или были спрятаны где-то глубже)
6) В Goodsync в настройках, рядом с подсказанной Вами опцией, есть еще и опция «Сравнить контрольные суммы MD5» — этого нет (пока) в FFS и это реально полезно — не нужно отдельно (выборочно) проверять копии файлов, созданные в целевой папке; все сразу можно сделать в одном процессе.
7) Для меня критична именно опция «определять перемещения» — еще в одном каком-нибудь инструменте — не только в FFS, потому что в ситуации с использованием N ротируемых дисков есть некоторая проблема — нельзя перепутать физические целевые папки (на разных ротируемых дисках), т.к. при таком ошибочном сеансе синхронизации сама синхронизация-то состоится все-таки беспроблемно, но займет (иногда — гораздо) больше времени — потому что версия индексного файла в целевой папке перед синхронизацией не будет соответствовать индексу в исходной папке (… и, соответственно, FFS не отловит перемещения файлов, и будет копировать а потом удалять в изначальных расположениях в целевой папке). Соответственно, нужно смотреть на логическую букву, под которой подключается очередной ротируемый диск — как-то это контролировать, бдеть… Поэтому я и подыскивал еще какой-то инструмент с такой же функциональностью — индексы FFS и GoodSync само собой никак не будут пересекаться, а в конфигурациях заданий синхронизации я укажу исключения для индекса «параллельного» инструмента — чтобы не затирать в целевых папках. Ну или вообще изменю регламент — часть ротируемых дисков синхронизировать только FFS, часть — только GoodSync.
Проверю все в триале, запущу в регламент.
СПАСИБО!
… жизнь-то налаживается…
— Админ в сердцах сказал: «господь, здесь уже нечего не исправить, жги.»
И это тот самый случай, когда господь услышал.
НЛО прилетело и опубликовало эту надпись здесь
До моего коммента вряд ли кто прочитает, но все же…
К примеру, у меня стоит автоматическая выгрузка фото в облачные хранилища. Их парочка. Если удалить файл с телефона, то в хранилище фото остаётся.

Спустя продолжительное время зашёл посмотреть что там в хранилище. А там оказывается сохранено много такого, чего не жалко удалить вовсе. Чтобы вычистить это все — нужно себя сильно заставить, а то места же ещё дофига! Данные прибавляются — сервера пыхтят и увеличиваются.

Смею предположить, что у большинства обычных пользователей в этих «бесплатных» тарифах облаков лежит куча ненужной им чухни. На содержание всего этого нужны средства, которые покрываются платежами других пользователей. И так как наверняка у многих стоит автовыгрузка как у меня, то дело лучше не станет.

Вот дропбокс уже ввёл ограничение на бесплатную синхронизацию только трёх устройств на бесплатном тарифе. Дальше больше.

Так и есть, моя супруга за пару лет такой синхронизации умудрилась забить 90гб в OneDrive, в основном фото и видео "ни о чем".
Так и лежит неподъемным грузом, никакого желания перебирать тысячи файлов вручную.
Удалить скопом тоже жаль — там видео нашего маленького ребенка, плюс есть путешествия.

Смех, блин, смехом, но «аудиофайлы» семейные с 50х годов на бобинах прекрасно читаются по сей день.
Кинопленка по-прежнему цела, не рассыпалась.
Фотопленки целы.

Единственное — бумажные фотографии со временем блекнут.

Я ни к чему не призываю, просто плата за плотность информации и удобность манипуляций — долговременность хранения, и ничего с этим не поделать.
На пленку хоть сегодня можете начать писать, вопрос только в финансовых возможностях. С плотностью там тоже все хорошо, а если раскошелиться на библиотеку — то и с удобством будет вполне себе ничего.
На блюрей выгоднее удобнее и долговечней чем и на пленку, собираюсь покупать на днях.
Это зависит от объемов, с которыми вы работаете.

не осилил все комментарии. там выше кто-нибудь писал, что нужно было смотреть на users agreement с mySpace и если очень уж были нужны гарантии сохранности, то искать облако за деньги с подходящим SLA?

Невозможно сохранить всё и навсегда, тем более, когда это поручается лицу, которое в этом вообще не заинтересовано (бесплатный хостинг и т.п.). Для этого и существуют музеи, личные и государственные архивы и т.п. Для текущей деятельности — бэкапы действительно важного (банковские счета, и т.п.). Мы не можем сохранять всё сплошняком, не категоризируя информацию по важности и сроку хранения.
> или по миллиону других причин.
перечислите хотя бы тысячу
Как минимум, их можно записать на ленточный накопитель и перенести в дешёвое долговременное хранилище.


Цифровой бутерброд.
Мы с фотографиями решили вопрос так — раз в год делается семейный альбом с подборкой самых интересных фоток.