Pull to refresh

Comments 103

Кажется, я от тебя тогда узнал про DrivePool — купил и пользуюсь уже на втором микросервере. Спасибо!

Вот вы меня напугали с аккаунтом от MS, который я на eBay прикупил месяца 3 назад, но до сих пор работает. Также для Duplicati взял, только всё никак порядок не могу навести в фотографиях, чтобы начать выкладывать. А так помимо этого делаю бэкап на внешний диск, основное же место хранения — домашний медиасервер.
У меня структура несколько отличается: разбито просто по годам и там на события разделено с указанием месяца, фото с мобильных устройств лежат кучей в отдельном каталоге за год или изредка поддиректорией в событии. Видео также рядом, последнее время задался вопросом сжатия, использую Handbrake (под Windows, но может и под другие платформы есть).
А вот каталогизатор не использую, зачем? Сколько там за Lightroom выходит в год, кстати?
Есть какой быстрый путь (лучше консольный) по конвертации .raw в .jpg? Нередко возникает желание показать фотографии с телефона, а грузить с домашнего сервера в .raw не лучшая идея, но и хранить .jpg при наличии .raw тоже сомнительная.
Аккаунты с ebay, как сказал, штука очень рэндомная. Плюс там в недостатках то, что это часто корпоративный аккаунт, то есть его админ — не вы. А кто-то другой (даже не MS) может спокойно залезть и поинтересоваться вашими файлами.

Лайтрум, если память не изменяет, что-то в районе 7,5 тысяч в год стоит. «Подписка для фотографа». Лайтрум — это каталогизатор плюс пакетная обработка. Каталогизатор нужен для того, чтобы было удобней было фотографии отбирать по разным параметрам тогда, когда нужно их выбирать за пределами одной единственной папки.

Про консольный конвертор в равы ничего не скажу (xnview, возможно — там был convert), но тот же faststone viewer при задании конвертации равов в jpeg просто выдирает превьюшки, а не полноценно конвертирует. В минусах — разрешение что-то типа 1900х1400 получается у моём случае, но зато очень быстро всё происходит. Полсотни файлов за 20 секунд (ну, учитывая, что дело на ssd происходит).
image

Я так купил аккаунт от google drive, написано что безлимитный, но ограничение рамер одного файла не больше 5ТБ, так вот, аккаунту уже года полтора, пока работает. Бэкапы еще с 17 года там валяются.

Так там же Team Drives, который только из браузера доступен, как вы туда заливаете?

Есть сторонний софт, который это дело поддерживает.
Подскажите или дайте направление на 4пда.
4pda.ru/forum/index.php?showtopic=889003 тут посмотрите. Я так, Полистал немного, но сам не думаю, что буду всерьез связываться. Разве что для теста.
Не разобрался, как на Debian его воткнуть. Он на Go написан, нужно через какой-то инструмент его собирать? Статус загрузки/выгрузки он показывает?
Там довольно много тонкостей с покупками и ограничениями.
На 4пда отдельная тема есть про такие аккаунты, с советами как, что и у кого брать.
Истории заблокированых там тоже были.
Своё, большей частью из отпусков.
хорошая программка DrivePool, я долго занимался ручным дублированием, и наверное если бы она попалась мне тогда… в какой-то момент плюнул и завел себе аппаратный адаптековский raid 6, сейчас ~15Тб

по поводу хранения картинок
1. невосполнимые исходники (равы с цифры + сырцы видео с толстым битрейтом)
2. чуть менее невосполнимые исходники (сканы с пленок ~1.6Гб/пленка)

цифра и сканы хранится в виде дерева: год/месяц/номер сьемки + тема, так-же если не лень прописываю ключевые слова в .xmp, ещё есть текстовый файл, шпаргалка куда записываю отдельные темы, что-где искать.

3. проходные работы с исходниками, результаты разбора, прикидки, эскизы, размышлизмы :) — по обьему столько-же или больше чем исходников… иногда чищу
4. проекты над которыми работаю — важно, жалко
6. «филе» проектов, без промежуточных и версий — очень важно, единственное что храню в виде парольных архивов ещё и облаках.

7. Так-же отдельно храню все картинки подготовленные «для интернета», места занимают не много но позволяют быстрее найти иллюстрацию какой-нибудь своей идеи — считаю эту папку важной

все это бекапится в два или три места (внешние диски) в зависимости от степени важности.

для бекапов, и сохранения версий пользуюсь FreeFileSync — есть немножко платная и бесплатная версии, наверное не лучшая программка но к этой я привык.

из нереализованного, сохранение контрольных сумм для проверки целостности дерева и его ветвей (всего под 100К файлов), я перепробовал несколько программок, и что-то не нашел готового и аккуратного решения. То есть я что-то пытаюсь делать с помощью батча с md5deep64 но как-то это :-/

А какие диски используете в массиве?
3тб тошиба, цифры и буквы не помню
RAID для дома я не люблю из-за того, что там диски менять очень сложно (добавлять-убирать). А из драйвпула в несколько кликов диски добавляются и убираются без развала массива.

Проверка целостности у GoodSync есть, можно принудительно заказать у любого бэкапного задания — сравнить с оригиналами. Но, как пишет, оно very slow, особенно если с облаком сравнивать.
image
я правильно понял что в драйвпуле или без избыточности, или зеркалирование?

не агитирую за raid но для меня, моих объемов и задач это оказалось неожиданно очень удобно… к тому-же скорость линейного чтения-записи 600-700-800Mb/c (в тестах)… в реальности все немного не так, но вот например про файл подкачки фш на рейде… диски менял и добавлял происходит не мгновенно, но без каких бы то ни было сложностей.

с контрольными суммами нужно вот что: я беру некий произвольный диск и сравниваю его с хешами которые генерировал ранее, получаю внятный и развернутый отчет, на основании которого решаю что что-то мы добавляем в базу хешей, а в каких-то файликах проблемы… ну и чтобы прога понимала перенос файла или папки в другое место на диске… чтобы прога понимала файлы появившиеся после последнего изменения в базе…
Drivepool даёт две вещи:
1) Массив вида jbod, с возможностью свободно добавлять и вынимать оттуда диски. При нажатии кнопки «изъять диск» он автоматом информацию оттуда на другие диски перенесёт. Плюс всё поверх обычной ntfs работает, никакой собственной разбивки — можно подключить диски к другому компьютеру и спокойно достать всю информацию даже без драйвпула.

2) Дублирование на уровне папок. Зеркалируется не весь диск, а только нужные папки. Причём можно на несколько дисков сразу настроить дублирование, если у вас дисков в массиве больше двух.

Иногда ещё драйвпул используют в паре со snapraid, но в эту сторону я вообще не копал ни разу. Надо на досуге почитать.

диски менял и добавлял происходит не мгновенно, но без каких бы то ни было сложностей.

А удалить диск можете? Или разной емкости диски использовать? Мне это очень важно, потому что позволить себе сразу четыре по 8ТБ не могу, к примеру.

По контрольным суммам у гудсинка только прямое сравнение оригинала и копии.

1) Массив вида jbod
2) Дублирование на уровне папок

ну вот я все это делал в свое время руками на 4-5 дисках, и устал :)

А удалить диск можете?

нет (наверное), только заменить

Или разной емкости диски использовать?

с ограничениями, можно ставить больше чем то что уже стоит…

у меня массив в рабочей станции, что помимо всего дает прирост скорости дисковых операций. Если я буду заполнять его с той скоростью как сейчас, то забью его до состояния не комфортной работы где-то через год-полтора… понятно что можно что-то перенести в оффлайн, ну да надо будет что-то делать, что не знаю… пересортировать массив из 6тб, или менять идеологию хранения.

Если я правильно понимаю в NAS с файловой системой zfs можно собирать массив из чего угодно с любой степенью избыточности… хотя возможно заблуждаюсь :)
ну вот я все это делал в свое время руками на 4-5 дисках, и устал :)

А тут оно автоматом. К осени будет уже шесть лет как я этой программой пользуюсь — в сентябре 2013 обзор на хабре писал. За всё время — «ни единого разрыва». :)

нет (наверное), только заменить… можно ставить больше чем то что уже стоит…

Вот-вот. RAID, в первую очередь, нужен там, где требуется непрерывная работа в случае смерти диска. Объединение дисков в кучу — вещь вторичная. А уж вынимание диска из кучи…

в NAS с файловой системой zfs можно собирать массив из чего угодно с любой степенью избыточности

Примерно так, но вынуть или заменить диск не особо проще, чем в классическом RAID, если не ошибаюсь. Они и добавление дисков не так давно прикрутили.
А уж вынимание диска из кучи…
А зачем вынимать диск из кучи?

у меня райд один большой, быстрый и "не залипучий" диск, расширяемый. За все время был один эпизод смерти диска, неспешно дошел до лавки купил новый заменил… и да мне нужно чтобы я мог заниматься тем чем занимаюсь даже в случае не поладок… ну и внешние бекапы, конечно да, по хорошму надо бы образ всего массива снимать но вот до этого я пока не дошел, бекаплю по файликами на кучку 2-3 Тб дисков
У меня сервер микро, я с ним ограничен четырьмя дисками. Так что «вынуть один, чтобы затем поставить другой» бывает нередко.
UFO just landed and posted this here
Системный не считаю. Хотя, конечно, можно с флэшки грузиться, тогда пять дисков под данные отдать получится.
Могу посоветовать плату поставить с парой SAS портов (типа HP P421) и можно будет спокойно добавить больше дисков в дополнительную коробку (например, ‎www.pc-pitstop.com/8-bay-bare-12g-jbod )
UFO just landed and posted this here
Я осознанно выбирал микросервер и был готов жить с четырьмя дисками. Если бы надо было больше, то взял бы другой корпус.

"RAID для дома я не люблю из-за того, что там диски менять очень сложно "
Если нет необходимости в windiws в месте хранения, то с mdraid под linux можно разобраться за минут 30 (если система стоит не на массиве). Заодно и многие другие "пакетные" вопросы иногда проще решать

Mdadm — это простой программный raid.
Удалить диск из массива (вообще удалить, не для замены на такой же) там нельзя, насколько я знаю. Да и диски разного размера тоже нельзя полностью использовать, по-моему.
FreeFileSync — очень помогает дискретный (в очередной сеанс синхронизации) механизм проверки (не отслеживания!) перемещений файлов (ну и переименований папок) в мастер-копиях данных. Благодаря этому сильно сокращается время синхронизации, если файлы ранее уже были синхронизированы в ведомую копию, но были перемещены в мастер-копии.
Такой же функционал есть и в GoodSync.
Прошу сильно не пинать, но объясните мне, не фотографу, зачем хранить RAW'ы? Неужели нельзя из них сделать нормальные Jpeg'и без особой потери качества?
Понимаете, там сколько не потеря качества, а потеря возможности обработки. Файлы JPEG не тянуться так же хорошо, как это можно сделать с RAW.
Раньше я снимал только RAW, ибо мне не нравилась обработка проца у Nikon. И куча равов так и осталась лежать, ибо нет времени все это перебрать и конвертировать.

Сейчас я снимаю RAW+JPEG (128+64 ГБ карты в A7 III), и оставляю равы только на то, где JPEG не хороший и нужно подтянуть. Зачастую, это фото со вспышкой.
все упирается в цели и задачи… мне например нравится работать с архивом, я печатаю вылежавшиеся картинки… и на печать отправляю 16 битные tiff, потомоу что могу ;) с другой стороны можно сразу снимать в jpg, современные камеры это делают не плохо.
В RAW больше информации. Такие штуки хороши для каких-то особенных пост обработок.
Из рава jpg можно сделать всегда, это несложно и, в общем случае, быстро.
Наоборот — невозможно. Потому лучше хранить исходник.

Я не обрабатываю так сразу все подряд файлы. Есть пресет на импорт с базовой обработкой, персональная обработка начинает только только тогда, когда файлы для постов в блоге выбираю, к примеру.

ИМХО (из того с чем столкнулся, не фотограф)
Когдато захотел напечатать большие фотки и оказалось что цветовой профиль устройст сервиса печати совсем не sRGB, в итоге при печати ищ стандартных jpg-к идёт сильное снижение качества передачи цветов на некоторых оттенках. Выхода 2 — raw->jpg(tiff). с нужным цветовым профилем или согласиться что цвета при печати "немного" не те что в реальности.

Я в итоге к этому и пришел, снимаю в RAW c 2005 года. Просто со временем приходит понимание, что всё мимолётно и временно. Храню в равках только самые смачные пейзажи и портреты иногда их приятно достать через несколько лет и обработать как-то иначе.

Есть еще опыт когда софт значительно улучшался и старые равки, проявленные по-новому, показывали улучшенную тоновую и частотную детализацию.

Аналогично использую Microserver, правда 7 поколения, с установленным на нем DrivePool. ОЗУ 4ГБ, и Quadro P400. Изначально была GT1030, но там nVidia зажали NVENC…
ИМХО, но RAID должен быть таким, как есть DrivePool.
Остальные реализации, будь то Intel RST, или прочий «cвятой» RAID на контроллерах я считаю хламом, ибо они забрали у меня пару лет жизни и много волос с головы, когда железо улетало.
А вот DrivePool — отличный софт, именно такой, за который не жалко денег и работает на все 100. Винты у меня стоят 2 WD Red 4 TB + Seagate Skyhawk 3TB + Seagate IronWolf 3TB.

Фото и рабочие папки синхронизирую с ПК по расписанию в планировщике при помощи FreeFileSync — работает нормально.
Сортирую вручную, сразу при заливке с камеры — дата + описание содержимого.
Каталоги LR или C1 не использую — не прижилось.
А еще он у меня крутит медиа при помощи Emby/Jellyfin.
Emby был отличным, но пришлось перейти на форк Jellyfin. Он мне нравится гораздо больше, чем плекс. Плюс, Jellyfin бесплатно умеет транскодировать с Nvidia NVENC (стоит Quadro P400).

Вот этим пользоваться гораздо приятнее, чем внешними винтами. Хотя, я все равно дополнительно делаю бекап на внешник от Сигейта и на Blu-Ray диски. И видео сразу играет на Chromecast и два древних SMART TV с DLNA по квартире. Жалею, что не купил все это раньше.
RAID — это отдельная сущность. У него есть свои ниши и напрямую он с драйвпулом не пересекается. Использовать рейд только для того, чтобы диски в кучу объединить — неправильно. Он для непрерывности работы нужен. Вылетел диск — сервер продолжает работать и людей обслуживать.

А блюрэй не прижился. Объёмы файлов очень резко выросли, перекрыв даже диски на 100 гигабайт. Дешевле делать копии на старые винты и складывать их на полочку где-то.
Да, про старые винты Вы правильно пишите. Я вот как-то не дошел до этой мысли и лет 5 назад, по мере распространения винтов c USB 3.0, попристроил старых винтов терабайтов на 6. И напрасно — лежали бы сейчас затаившись в дальней точке хранения, хранили бы совсем старые бэкапы для душевного спокойствия.
И еще в этом Вашем комментарии — полезная концентрированная мысль про RAID. Буду цитировать когда меня просят помочь с домашним резервированием (или в совсем маленьких офисах — малонагруженные среды с малым количеством пользователей) — перебой в работе простенькой СХД на пару дней несмертелен, а тратить несколько десятков тыс. руб. за собственно RAIDность (как свойство СХД) и за еще, как минимум, один внутренний диск — не совсем оправдано. Гораздо полезнее (для надежности) несколько меньшую сумму потратить на внешний диск, на который по расписанию резервировать данные из однодисковой СХД.
Не обязательно внешний, главное — постоянно подключенный, чтобы бэкапы сами с нужной периодичностью делались. Я бы три винта предпочел — мастер, бэкапы в том же системнике с необходимымой частотой, хоть каждую минуту и третий внешний или просто на другом компьютере, куда пореже можно сливать бэкап. Ну и теневые копии включить, это юзеров чаще всего спасает, до других бэкапов сильно реже приходится добираться.
UFO just landed and posted this here
Россыпь внешних дисков гораздо менее удобна, чем «громоздкая коробка».
Самое главное в громоздкой коробке то, что она работает сама и не пропускает время бэкапов, как это делает человек. Ну и плюс ее можно нагрузить сторонними задачами, начиная от загрузки торентов и кончая всем, что придёт в голову.
UFO just landed and posted this here
Можно. Но зачем извращаться так?
Внешний диск — это либо перенос информации, либо записал и убрал на полку. Ну может ещё расширение памяти для ноутбука.
Иметь же несколько дисков постоянно подключенными просто неудобно. Если не хочется отдельный NAS заводить, можно хотя бы usb-коробку на четыре диска взять, она не так уж дорого стоит, но занимает всего один порт. Да и смахнуть со стола не так просто будет.
UFO just landed and posted this here
Не считая того, что 4 диска подключенных к ноутбуку будут смотреться странно.
UFO just landed and posted this here
Да я не спорю, что это возможно, но выше писал, что «главное в громоздкой коробке то, что она работает сама и не пропускает время бэкапов». Как только есть зависимость от действий мешка с костями: забыл подключить диск, диски подключал, но не в то время, когда срабатывает бэкап всё становится очень плохо. А когда у тебя ноутбук, то и подключение-отключение предполагается регулярным.
С другой стороны — только ротируемые внешние диски обеспечивают возможность хранения синхронизированных копий в нескольких дистанционно разнесенных точках хранения. Простой ненапряжный регламент — сходил к родителям — обменял пару дисков, сходил в подвал — еще обменял… Все копии подконтрольны, доступны на случай отключения интернета. Дистанционно разнесенные физические устройства повышают вероятность сохранности данных при пожарах, наводнениях, кражах мастер-устройств. Само собой, желательно использовать диски от разных производителей, каковых осталось всего три.
UFO just landed and posted this here
Без какой-либо иронии — всего 2 строки комментария — а какой плаcт вопросов обозначен! Дело в том, что вопросы гарантированного(?) сохранения больших объемов данных достаточно сложны и комплексны…

1) Насчет «уронить» — и вообще про обращение с ротируемыми дисками, на которых хранятся синхронизированные (не архивные!) копии.
1.1. Непосредственно про «уронить» — в 99% ситуаций все манипуляции с диском, извлеченным из защитного футляра, должны производиться над столом, на высоте 10-20 см. от поверхности, в выключенном состоянии. Во включенном состоянии к дискам лучше не прикасаться — диск просто лежит на столе непосредственно рядом с мастер-устройством.
1.2. Обеспечение сохранности при недалекой транспортировке и в дистанционной точке хранения — сам внешний диск плотно завернут в небольшой пакет, пакет c диском — в полужесткий противоударный футляр, футляр — еще в один пакет (само собой эти манипуляции должны проводиться над столом). Пакеты целесообразны для минимизации вероятности коррозии контактов USB 3.0 (хотя во всех точках хранения у меня все в порядке с влажностью и температурой, но я рассчитываю на очень длительный срок эксплуатации этих дисков — 10-20 лет, так как а) скорости USB 3.0 достаточно; б) семьей решили, что будем по возможности сопротивляться появлению видео в формате 4-8 К и фото по 100-мегапикселей (не нужно все это); в) расчет емкости показывает, что на них свободного места должно хватить, гм, до конца пенсии); футляр в пакете — в металлический (жестяной) ящичек-чемоданчик (ну типа от новогодних конфет для детей) — это нужно на тот всякий случай, если в условиях нынешней напряженной обстановки супостат применит нелетальное массовое оружие — например с мощным электромагнитным импульсом — предполагаю, что металлическая оболочка, пусть и тонкая, повысит вероятность выживания харда (особенно в точке хранения ниже уровня грунта) — но это гипотеза;
1.3. Выборочные проверки — для отдельных под-под-папок — изредка побайтово проверяю средствами Total Commander; это позволяет выяснить, что некоторая (очень малая) часть файлов в порядке, а так же подтвердить, что хард в целом жив;
1.4. Тотальные проверки — не чаще 1 раза в 2 года — в другом (не там где исходный ноутбук) домохозяйстве подключаю 2 полностью синхронизированных внешних харда к другому ноуту и средствами Total Commander провожу тотальную побайтовую проверку всего массива, сразу на двух хардах. Занимает 14-16 часов, гарантирует целостность файлов (кросс-проверка ведомых копий является досточно достоверным доказательством того, что и с мастер-копией все в порядке), укрепляет веру в харды (это максимальная редкая нагрузка на харды, в целом получается что каждый из них работает не более 50 часов в год).

2) Про ленту. Внешние жесткие диски являются достаточно самостоятельными устройствами — 2,5 дюйма завязаны только на стандарт USB (ну, да, и оговорка — на достаточность питания по порту — контроговорка — легко решается USB-кабелем с двумя хвостиками «в ПК» или USB-хабом с внешним питанием); 3,5 дюйма завязаны на такой же проводок и на внешнее питание — которое, к счастью, уже все более стандартизируется — в частности, целый ряд моделей внешних хардов WD и Seagate имеют блоки питания одинаковые по электрическим параметрам и геометрии разъемов.
Диск с синхронизированной (или быстро досинхронизируемой) копией я могу в любой момент взять с собой — чтобы скопировать что-то объемное знакомым и т.п.
А вот для ленты мне потребуется еще одно дополнительное мастер-устройство, скорее всего, из стоимостных соображений, — в единственном экземпляре, который будет подвержен напастям поломок, пожаров, заливов (а вот кражам? — непонятно, сообразят ли воришки, что таковое устройство не просто продать-пристроить?). Если устройство для работы с лентами выйдет из строя, то весь массив данных на лентах и процесс резервирования на них станет недоступным — до устранения поломки ( и не дай бог — до замены самого устройства).
Если же закашляет один (из нескольких!) внешний диск, то перепроверив, что проблема физическая (а не сбой файловой системы), я даже париться не буду — регламентно уничтожу его, почитаю обзоры и куплю на замену новый — единственные потери — это небольшие деньги и 10+ часов на первичную синхронизацию из мастер-копии (оговорка — в нынешнее время тотальной глобализации все сложнее соблюдать регламент «приобретать для одной цели изделия разных производителей» — чтобы минимизировать зависимость от брака, допущенного одним производителем; производителей самих дисков осталось всего 3).

3) Про срез на какую-то дату. Распределенные синхронизированные копии — на N разных физических устройств (допустим, одного типа — внешние диски) — это оперативная и нересурсоемкая защита от одной группы проблем, преимущественно технического и аварийного характера. Бэкапные (архивные) копии, в которых сохраняются многие (или почти все) версии файлов и т.п. — это защита от другой группы проблем — преимущественно — от проблем ошибок пользователей. Очевидно, что регламенты, методологии, технологии и инструменты для процессов синхронизации и для процессов архивирования в значительной степени отличаются и совместить их достаточно сложно. Например, оперативная (и при небольших размерах изменяемых файлов — быстрая) он-лайновая синхронизация (в надежное хранилище) никак не защитит от ошибок пользователей — затирание файла «неправильной» версией или ошибочное удаление будет он-лайново синхронизировано в хранилище). В то же время, архивирование с высокой частотой может оказаться и весьма ресурсоемким (при изменениях файлов средних и больших объемов) и не очень осмысленным — все-таки пользователи совершают ошибки не каждую минуту и не каждый час — нужна некоторая дискретность. Нужно как-то разграничивать — и для архивирования я использую ряд других инструментов — Backup4All, Acronis… — FreeFileSync для архивирования не очень подходит.
UFO just landed and posted this here
Да, Вы совершенно правы:

— насчет лезущих родственников — дело не только в уронить, а могут и выбросить не разобравшись что ящике/чемоданчике — диски или ленты (хотя диски им на глаза иногда попадались и могут предположить что это что-то полезное; а про ленту — не очевидно); в том числе и поэтому я использую множество устройств в разных точках хранения (кстати, в некоторых точках кроме меня никто годами не бывает), массовый «субботник» с утилизацией хранимого без моего участия маловероятен;

— насчет выборочных проверок — недостаток избирательности очевиден, именно поэтому я использую редкие полные проверки (и тут возможен бессмысленный спор о том, что полезнее — частые тотальные проверки, которые если не снижают ресурс пластин, то ресурс привода головок (незначительно) и ресурс электромотора (заметнее) — уж точно снижают, при этом, я просто чаще (допустим, 1 раз в месяц) получаю подтверждение, что все в порядке, но при этом ожидаемый срок службы диска снижается, допустим, до 7 лет; или относительно редкие проверки, которые подтверждают что все в порядке 1 раз в год, при этом ожидаемый ресурс службы диска окажется, например, 12 лет);

— насчет распаянного контроллера… — согласен, поводов для «гибели» дисков (что внутренних, что внешних) немало — от электрических, аппаратных, программных, человеко-уронительных… — поэтому я и использую большое количество копий на разных физических устройствах — синхронизируемых более 10, архивируемых около 10. Само собой стараюсь защититься и от перечисленных проблем — электропитание бесперебойное, оборудование стараюсь использовать правильное, на этом не экономлю (ну или не нацеливаюсь на финансово-проблематичное).

Насчет ленты Вы правы в том смысле, что «гибель» устройства (для записи-чтения лет) не означает гибель носителей (самих кассет с лентами) — в отличие от диска, где если есть физические проблемы, то лучше и не пытаться — если есть другие копии, то умерший диск нужно тупо регламентно уничтожить и про него забыть.
Но ленты — это ж охренеть как дорого… — я так понимаю что не менее 30 тыс. руб. за устройство (или я ошибаюсь?), (и еще нужно разобраться с настройками, и т.п.), + по 1 тыс. руб за картриджи — причем дело не только в объеме — мне же нужно несколько штук для независимой ротации.
И в продолжение вопроса совместимости — вот у меня два внешних 3,5 дюйма диска начала века, которые уже давно не находятся даже в умеренной эксплуатации, хранятся как сентиментальный раритет, хранимое на них уже стократно продублировано на других носителях. Перед написанием этого комментария я специально смахнул пыль с чемодана, подключил поочередно диски — старые фотки и файлы прекрасно пооткрывались, несколько rar-архивов я протестировал внутренним тестом (отмечу — полную проверку не делал).
Все что мне потребовалось для работы с устройствами 2002-го и 2003-го годов — это USB-провод и блоки питания (отмечу — блоки питания старые, многопиновые — тогда использовались напряжения 5 и 12 вольт; сейчас такие нельзя назвать стандартными, но такие есть и наверное будут, да и с моими блоками вряд ли что случится в процессе недвижимого хранения) — в общем, 0 финансовых затрат. А вот допустим через 10 лет выйдет из строя устройство для работы с лентами? Куда бежать? Понятно, что ленты — это «промышленные» долгоиграющие стандарты и скорее всего совместимые устройства наверное можно найти — но сколько это будет стоить? А вдруг все-таки возникнут проблемы совместимости?
Страдаю я.
Опять посмотреть что ли в сторону Blue-Ray (в т.ч. в жутко дорогом варианте M-Disc?). Так же как и с лентой — гибель привода не означает гибель носителей… Приводы дешевле, предположительно сохранят работоспособность в течение пары десятилетий… Но тут есть новый пласт проблем — нужно же будет проверять целостность данных не только на приводе, на котором данные записаны, но и перепроверять читаемость на других приводах, обязательно другого производителя. Сколько времени на это будет уходить, особенно если применять тотальные проверки?
UFO just landed and posted this here
Понятненько...., итак:

1) Ленты для домашнего архивирования неприменимы — т.к. даже за значительно бОльшую стоимость мы не получаем дополнительную (к уже применяемым технологиям и инструментам) гарантию аварийного восстановления в перспективе 10-20 лет (из-за возможной несовместимости, сложности поиска оборудования взамен вышедшего из строя и т.п.);

2) Применение Blue-Ray (в дополнение к используемым технологиям и инструментам) так же представляется сомнительным по следующим причинам:
2.1. С самого начала применения этой технологии нужно использовать 2 разных физических привода, разных производителей — для поочередной записи и перепроверки записанных данных — нужно (тотально?) проверять записанные данные на другом приводе, а не на том, на котором данные были записаны; если так не делать, то не выполняется принцип «никому не верить» (никому — производителям оборудования разных типов, разработчикам софта для архивирования и т.п.) — т.к. в данном случае получалось бы, что мы доверяем производителю единственного задействованного BD-RE привода;
2.2. На запись и полную проверку будет уходить очень много времени — судя по всему на диск BD-R 100 ГБ на запись и проверку требуется не менее 4-х часов; проблема не только собственно во времени, а просто жалко компы и ноуты, которые будут просто заниматься малонагруженной работой; кроме этого, при использовании нескольких дистанционных точек хранения наборов BD-R дисков затраты времени увеличиваются кратно кол-ву точек хранения; ну и заодно — если в течение нескольких лет один из двух приводов выйдет из строя (кстати см. еще уточнение ниже про ASUS) мне для поддержания концепции «двуприводность для перепроверки» придется приобрести еще один привод — кстати примерно по цене одного внешнего диска 2,5 дюйма на 1-2 ТБ);
(по Blue-Ray это основные проблемы; считаем что (пока?) еще можно купить BD-R диски приличного качества — Verbatim, TDK...??)

3) Несмотря на отрицательное заключение по перспективам задействования Blue-Ray, для справки, слимовые внешние приводы BD-RE относительно доступны:

www.regard.ru/catalog/filter/?id=MTUwMjc7NDYxLDE3NzA7NDYyLDE3Nzg=

www.dns-shop.ru/catalog/7b3312cd65a14e77/vneshnie-opticheskie-privody/?order=1&groupBy=none&stock=2&f[nb]=2ho

www.citilink.ru/catalog/computers_and_notebooks/parts/odds/1102565

это ссылки на страницы «правильных» ритейлеров — если товар указан с ценой, значит доступен для заказа.
Слимовые других вендоров и неслимовые так же можно найти. Из личного опыта отмечу, что ASUSовский слимовый (с квадратным отверстием в корпусе для установки на комплектную «дизайнерскую» подставку) у меня намертво вышел из строя после записи 2-3 BD дисков и нескольких DVD (намертво означает что перестал определяться на всех компах, независимо от подключения обычным USB или с двойным хвостиком, или плюс с подачей доп. питания — там был разъем под 5 В; это было несколько лет назад, модели и начинка могли и измениться; или мне уж попался такой экземпляр.
— Спасибо за дискуссию!
Насчет лент я и так думал в весьма абстрактно-философском плане, а насчет BD-R по результатам дискуссии прояснилась критичная необходимость использования двух разных приводов, что явно несколько избыточно.
UFO just landed and posted this here
был бы благодарен тому, кто повторил бы интерфейс Panoramio, где можно было увидеть все свои фотографии с геопривязкой, прям на земном шаре. даже денег бы дал
А хочется именно шар, плоской карты не достаточно будет?

У меня, правда, не все фотографии с геотегами, но где есть — лайтрум показывает исправно.
image
UFO just landed and posted this here
У фликра есть подобная карта, но там со сменой владельца началась мерзкая политика ограничений на количество фоток.

ИМХО, купить БУ супермикро и набить его дисками да поставить на работе организовав ВПН между ними.
В качестве софта borgbackup самое оно

Супермикро с дисками на работе не всегда реально.
Да и по цене может быть выгодней тогда, когда у вас действительно большие объёмы, а не пара-тройка терабайт.
А так — допустим, 10 тысяч за супермикро, пара дисков на 6 терабайт в зеркало (чтобы мой объём вандрайва получить) — 2*12 = 24 тысячи.
Итого 34 тысячи — больше десяти лет оплаты облака.

Против борга ничего не имею. Но у duplicati интерфейс удобней.

Импонирует только полный контроль над своими данными, за 10 лет многое чё может измениться

У супермикры вспухнут кондёры, один из дисков в зеркале посыпется и придётся покупать новый, на работе будет пожар, потоп или землетрясение и т.п. :)

С облаками, даже с шифрованием, не стоит связываться только в том случае, если ваши файлы очень личные. У меня подобных в районе одного процента, остальное могу в сеть вывалить в открытом виде и ничего не потеряю (но не значит, что так буду делать :)).

Ну и хранить в облаке ничего не стоит. Это просто одна из копий, offisite backup на крайний случай. Конечно, облака тоже падают, но сомневаюсь, что оно упадёт строго в то время, когда и мои локальные копии вдруг станут недоступны.
Когда вижу фото Microserver Gen8, на глазах наворачиваются слёзы, дрожащей рукой снимаю очки, наливаю себе кофе и вспоминаю как не купил этот новенький «почти взаправдишный сервер» с computeruniverse всего за 12 тыс. руб…
Если поискать, то сегодня его можно не купить гораздо дороже. :)
UFO just landed and posted this here
Я свой брал за 17 или 18 с целероном и 4 гигами. Ещё 4 переставил со старого gen7. В прошлом году поставил 16 гигабайт и xeon.
А я Syncthing использую, в основном для мгновенной (с задержкой в секунду) синхронизации рабочих папок с винды на домашний сервер.
Я им пользовался когда-то для аналогичных целей, но он постоянно диск во время работы насиловал. Подозреваю, что трёхтерабайтник на сервере у меня не в последнюю очередь из-за него посыпался.
Он может начинать синхронизацию по получению события от файловой системы при изменении файла, там есть такая настройка, называется "Fs Watcher Enabled". Нет необходимости делать полное сканирование раз в секунду, конечно же. У меня полное сканирование вообще на большое значение, типа раз в несколько часов, установлено.
А одна секунда только потому, что это минимальная задержка, которую можно установить для Fs Watcher.
Я думаю 99,9% из всех этих терабайтов никогда не будет просмотрено повторно. Я даже не знаю сколько у меня фото потеряно на дисках или в облаках. Небольшого бумажного альбома и принудительного показа от гугл фото «посмотри каким ты был год назад» мне более чем достаточно.
Я достаточно часто старые фото из поездок пересматриваю. А к тем отчётам, что выложены в интернетах, даже спустя несколько лет комментарии приходят.
Вот к чему точно не возвращаюсь — так это с фотографиям со всяких гулянок.
Зачем брать на гулянку фотоаппарат?
Мелкий фотоаппарат у меня часто в кармане лежал. Перестал носить где-то года два назад, когда решил, что камера телефона меня теперь устраивает для чего-то большего, чем съёмка ценников.

А вообще — «если вам стыдно смотреть на фотографии с пьянки — значит праздник удался».
UFO just landed and posted this here
Давно избавился от привычки всё хранить — приятно чувствовать себя свободным, с одной флэшкой и 200мб временных данных. :)
Я не раз что-то стирал или выкидывал, а потом жалел об этом. Потому, по возможности, стараюсь все хранить. Важное — ещё и бэкапить.
Через лет 20 захочется посмотреть «что было», а негде :(. В социальные сети всё не выложишь.
Путь монаха. До этого нужно дорасти внутренне.
Но до этого можно поразвлекаться игрой в прятки от смерти.
> До этого нужно дорасти внутренне.

Можно просто один или два раза все потерять. После такого начинаешь смотреть совершенно иначе на этот вопрос.
Какие бесплатные каталогизаторы посоветуете для ведение библиотеки нормативных документов компании? Фактически хранятся скан — копии документов (считай фото).
Или каталогизатор для хранения (учета) просто электронных книг, но тогда с возможностью добавления новых справочников-классификаторов. Хотелось бы доступ через web (корпоративный портал).
Так же пользуюсь Duplicati. Сначала смущало то что Beta, но на данный момент больше 3х лет на домашнем пк и чуть больше года на работе(на 5 машинах). 1 раз настроил и шуршит себе тихонько, делает шифрованные бэкапы в облако. За это время ни одного сбоя не было(кроме сбоев в головах людей, которые забывают пароли на шифрование), а выручала система многократно.
Я не хотел бы чтобы фото семьи были в облаке, сколько бы меня не убеждали. Храню 4ТБ фото и видео в домашней локальной сети. Есть NAS и рабочий комп куда поставил диск 4ТБ. Периодически с NAS копирую на диск 4ТБ. Вопрос с каталогизацией решил просто, на верхнем уровне папки с годами внутри папки с названием событий, так все легко находят, события легко запомнить, к примеру поездка на море, день рождения и т.д. Отдель есть еще внешний диск 2ТБ, самое ценное копирую туда вручную.
Я и не убеждаю. Но нужен обязательно внешний (оффсайт) бэкап. У меня в этом качестве выступает облако, но могут и другие варианты быть. В своё время арендовал целый железный сервер под это дело, к примеру. Ну, там не только бэкапы были, кончено.
Жизнь однако научила что все оборудование надо заземлять, забил 2 штыря по 2м и заварил шину к ним, так проблемы с индуцированным током решил. Подключил еще оптичный интернет, т.е. оптика прям до дома, так уберегся от молний. Еще поставил повсюду удлинители с защитой от перенапряжений, в общем где-то 5-6 штук, так гасятся импульсы напряжения. А рабочий комп и рутер, НАС подключил через UPS с регулятором выходного напряжения.
От потопа или пожара заземление не спасает.
Хотя, конечно, штука нужная.
Что-то мне подсказывает что в случае пожара пропавшие фоточки и личные файлы будут наименьшей из возникших проблем.
Непосредственно после пожара — да. Но через некоторое время возникнет желание
их получить обратно.
Duplicati — замечательная программа, несколько лет ей пользовался (2.5 Tb данных). Но есть у неё одна особенность. Её архивы — это не независимые файлы, а цепь, где каждое звено (почти всегда) требует предыдущего для распаковки. Достаточно повредиться одному биту в одном архивном файле — и половина массива может вылететь в трубу. А при перекачках терабайтов вероятность этого не так уж и мала. Собственно, я даже столкнулся как-то с этой проблемой при тестовом восстановлении бэкапа. Дней пять вытаскивал файлы по кускам (скорее из спортивного интереса), но всё равно остались потери.

По-хорошему, архиватор таких больших данных должен складывать их в независимые друг от друга куски. Так что если повреждается один, то только он и теряется.

Я в итоге написал своё решение (хотя уверен, что на рынке должны быть нехудшие аналоги).
Лишняя причина не архивировать все терабайты одним куском, а разбивать на более мелкие.
Так речь же выше о том, что если хотя бы один из кусков будет повреждён, то восстановлению не подлежит. Не думал, что так плохо устроено, надо будет проверить.
У вас по отдельному бэкапу на год, к примеру. Если и погибнет один из бэкапов, то потеряете только один год, а не все сразу.

Но вообще в документации рассмотрено восстановление из поврежденного бэкапа: duplicati.readthedocs.io/en/latest/08-disaster-recovery
Спасибо за статью!
А напишите, какая у вас начинка в микросервере?
И если сейчас покупать — он лучше, чем если просто купить какой-нибудь NAS от Synology?

И ещё сорри за вопрос, уже задавался, кажется, в соседних темах, но я ещё раз спрошу.
У вас 1.6 терабайта фоток, и они все лежат в одном каталоге lightroom?! O_o И что, Lightroom при этом с нормальной скоростью работает?

Я по привычке создаю под каждую съёмку отдельный каталог, потому что раньше lightroom не умел работать с каталогами, в которых больше нескольких тысяч фотографий (10к — точно предел был). Всмысле он умел, но переключение между фотографиями и любое изменение в режиме develop занимало невыносимо долгое время. И ещё все статьи по организации photo workflow на fstoppers говорила о том, что нужно создавать каталог под каждую съёмку. Но так да, теряется главный прикол каталога — чтобы вешать на фотки теги, людей находить и т.д.
Процессор — Xeon E3-1265L SR0G0. Охлаждение оставил стоковое, на тестах на нагрев он у меня выше 80 не грелся.
Памяти 16 GB какой-то неясной с ebay (продавали как самсунг, на нкалейках самсунг, но на самом модуле написано апасер). Но вроде себя ведёт нормально уже больше года, потому я не страдаю.
SSD под систему в пятом отсеке и винты 8+5+4+3 в основных отсеках.
ОС — Windows Server 2019 (до недавнего времени 2012 был).

Лучше NAS'a он тем, что это более гибкое решение. На момент покупки — ещё и более дешевое. С xeon — более производительное. Но сегодня, наверное, я бы в сторону самосбора смотрел. Потому что gen8 всё же несколько устарел (не больше 16 гигов памяти), а gen10, на мой взгляд, не слишком удачен, да и дорог в нормальной конфигурации. А купить младшую и потом сделать апгрейд не выйдет. А NAS… Даже на х86 он просто NAS и далеко за пределы его ОС не выйти. Хоть там зачастую всяких плюшек вагон, вплоть до запуска виртуальных машин. Но я всё равно предпочитаю полноценную ОС — потому что на ней меня ничто не ограничивает.

Да, все фото у меня в одном каталоге лайтрума. И работает он с приемлемой скоростью Не молниеносно, но вполне терпимо. К тому же у меня каталог на ссд уже очень давно живёт, а в декабре я ещё и фотки на ссд перетащил — купил на распродаже диск на 2ТБ.
Меня в скорости работы, в первую очередь, не устраивала долгая отрисовка превьюшек, когда в папку заходишь, где давно не был и превьюшки протухли. С ссд они стали отрисовываться очень быстро. А работа с одиночным файлом не изменилась практически.
когда снимал много, очень много, у меня был общий каталог с ~60-80К картинок, работал тогда в LR 2-3 + отдельные каталоги в которых разбирал конкретные съесмки, но после сохранял xmp и все вместе экспортировал в общий каталог.

сейчас снимаю сильно меньше (~6-7K в год; средняя съемка ~20 кадров), и у меня один рабочий каталог в котором храню картинки приблизительно за 1 год, которые потом переношу в в архивный каталог.
Чем обосновано использование Windows Server 2019, а не бесплатной Ubuntu? Такое дорогое решение может отпугнуть законопослушных пользователей.
Конкретно 2019 сервер не обязателен, все то же самое вполне можно на любой версии Windows запустить, хотя лучше professional. 2019 у меня просто стоит «посмотреть», так то я 2012 пользовался. Насмотрюсь на 19 — откачусь обратно. Ну или приобрету, если решу, что его плюшки для меня столько стоят.

А линукс мне просто неудобен. Настолько, что я лучше заплачу за Windows.
Какие удобства обеспечивает именно в задаче «хранения» windows на сервере?

У меня тоже есть обычный системный блок: делаю туда rsync и ssh mount обратно — вот и все что нужно от него. Зачем платить за это чуть более чем за бесплатно? )
Хранением задачи сервера не ограничиваются.
В плане хранения я не знаю под линукс ничего настолько удобного, как drivepool.
У самбы есть ограничение на длину имен файлов раза в два короче, чем у Windows.
Sign up to leave a comment.

Articles