Pull to refresh

Comments 46

В итоге получаем диски, смонтированные в директорию /storage/sd${i}, где ${i} ― одна из букв нашего диска.
А как вы потом всё это объединяете в один массив?
А они и не объединяют, поди программно отслеживает сколько свободно на каком диске и туда пишется! ИМХО
да, почти так:

— у каждого блочного устройства есть как минимум объем
— для каждого устройства есть «карта пользователей»
— gui при заведении нового пользователя предлагает «оптимальное» размещение, которое оператор может принудительно поменять (оптимальное исходя из оставшегося места, а также исходя из того, какое кол-во пользователей уже пишут в этот раздел)

в случае удаления пользователя место очищается, происходят изменения в «карте» и все пошло-поехало дальше.
UFO just landed and posted this here
для важной информации — иная стратегия бекапов, также как и место их хранения.
В данном случае показан пример бекапа лептопов/рабочих станций.
Мы у себя используем смесь rsnapshot и Duplicati — рабочие станции на винде, макаоси и линуксах. Полёт нормальный уже который год. Пару раз требовалось откатиться — проблем не было. Разумеется, пользователи _вообще_ не задумываются о самом резервном копировании — всё автоматизировано.
Ребят ну вы реально не ищите легких путей. Особенно здорово с головняком в 24 диска. При этом использование RAID6 даст приемлемую надежность и отсутствие
«Что будет, если умрёт один из дисков, на котором были бэкапы пользователей?» ― спросите вы. Попросим забэкапиться ещё раз после замены диска. Вероятность того, что один из 24 дисков умрёт вместе с ноутбуком сотрудника, действительно мала. В крайнем случае мы попытаемся восстановить утраченную информацию.
В данном случае нам не нужен рейд, о чём и было сказано. Если будет рейд — мы дольше будем ребилдиться, чем начинать процесс бэкапа пользователей на новый диск.
Ничего что при ребилде у вас при этом данные пользователей не только не теряются, но еще и бекапиться без проблем можно? Опять же добавление hotspare проблему нам надо срочно поменять диск уберет.
Ребилдиться можно параллельно с бэкапом или восстановлением.
Да на лету все ребилдится прекрасно. :)

Вы, видимо, поддерживаете также и production badoo, и у вас инерция мышления. На production-сторадже действительно отдельные диски — самое эффективное решение, но для задачи бэкапов офиса raid6 подходит прекрасно.
мы достаточно рассказали о причинах такого применения, что не заставляет вас следовать по нашему пути.
в данном топике бОльший интерес представляет програмная составляющая, а не то есть ли RAID.
Аргумент про максимум объема принимается, OK :)
Объединение в массив+дедубликация, полагаю, дала бы больше гибкости, удобства и в итоге пространства чем распихивание руками по 24 отдельным дискам.
дедубликация на такие обьемы требует солидное количество памяти на сервере, а в статье сказано про бюджетное решение!
Солидное это сколько гиг? А то 16 гиг сейчас вполне бюджетно посмотавить.
для ZFS вроде это значение 10Gb на 1Tb дедублицированных данных
Интересно за сколько выгорит SSD под l2arc на такой машине? Практического опыта с ZFS не имею!
Полагаю, там over 90% — операции чтения, сколько у вас данных заливается в день? Подсчитать примерное количество блоков(пусть по 64к), вычесть те что дедублицируются и умножить на 320 байт. Получим ежедневную запись на SSD, дальше смотрим сколько производители гарантируют жизни при каких объемах записи. В соседней вкладке 20гб/сутки и 5 лет ocz обещает.
Ну не у меня, я никакого отношения к badoo не имею! Насколько я понял их схему там как раз операций чтения то мало и они редки, там больше запись. И я думаю что периодически(раз в неделю\месяц) туда делаются полные снимки систем и далее только инкрементальный! Может создатель топика раскроет текущие обьемы записи в месяц!
Простите, почему-то подумал, что вы — автор. Про операции чтения я имел в виду именно обращения к таблице хешей для дедубликации а не запись данных.
На счёт «ненадежности» SSD у меня асус ееерс 701, купленный в апреле 2008 года, в мае на нём был разбит экран и он приспособлен под файлопомойку + качалка торрентов (freenas) Два винта по USB и кеш ZFS на SSD
Я был уверен что диск умрёт, даже извещение о кончине настроил себе в мыло

5 лет — жив
Нет. Решение расчитано на то, что это и проще настраивать и проще в будущем поддерживать. Чуть выше про ребилд уже написал. Потерять на время малую часть данных, которая восстановится вполне быстро, оптимальнее, чем потерять большую часть.
Ага по дискам в ручную распихивать данные проще чем один раз настроить RAID6 с hotspare и извещения о смерти диска.
А ещё интересно — к чему у вас эти 24 диска подключены?
вы это серьезно спрашиваете? вас что именно в подключении интересует?
Шасси, контроллер, сколько их, или вы мультипликторы используете? Это действительно очень интересно. Обычно такое количество дисков ставится только в специализированные хранилища.
бюджетный корпус Supermicro на 4U, LSI MegaRAID-контроллер (по-моему, до 128 устройств) + бекплейн, который идет вместе с корпусом. Повторюсь, что от контроллера нам не нужно большой отдачи, т.к. работает он напрямую с отдельным диском, не занимаясь подсчетом контрольных сумм, зеркалированием и прочим.
Т.е. изначально задача была такой:
— делать бекапы на рабочие станции и лептопы;
— охватить все ОС;
— не дорого;
— просто в эксплуатации (т.к. это все на поддержке HelpDesk);

в результате мы получили систему, которая отвечает всем нашим требованиям.
24-ти портовый MegaRAID? За $1.2k? Бюджетное решение? Если это он, то использовать его без RAID-а только как хост-контроллер, ну знаете.
Хорошо, всего $700. Тогда ещё нужно шасси с экспандером на 24 порта. ИМХО — не бюджетно!
Бюджетно, это когда натыкать SATA-multiplier-ов в штатные порты на материнской плате, или 6 штук копеечных 4-х портовых SATA-контроллеров.
понятие «бюджетное решение» в рамках того, сколько пользователей вам надо бекапить — трактоваться может по-разному. Если вам нужно бекапить 10 человек, то подойдет и обычнй tower, например, соотв. и бюджет будет сильно ниже. В данной статье автор уделил минимум внимания «железной» состовляющей, т.к. эта часть может очень сильно разниться. Цель — показать то, насколько просто можно реализовать удобную систему резервирования для офиса.
Цель — показать то, насколько просто можно реализовать удобную систему резервирования для офиса.
Тогда статью стоило бы назвать «Простое решение ...»? В «бюджетном» варианте названия, очень бы хотелось увидеть цифры (бюджет=цифры) — во сколько вам обошлась система, сколько стоит бэкап в пересчёте на одного пользователя, а также сравнение с не-бюждетными решениями. Хотя «простое», тоже не совсем подходит, так как вы придумали себе сложности в виде отказа от RAID-а и привязки пользователей к конкретным разделам. А как быть, если на каждом разделе останется по «хвостику», недостаточному для бэкапа очередного пользователя, но в сумме этих «хвостиков» хватит ещё на нескольких? Т.е. осталось по 200Гб хвостов (всего 200х24=4.8Тб свободного места!), а забекапить пользователя с его 300Гб вы уже не можете.
мы, мне кажется, достаточно сказали о причинах того, почему нет рейда. В случае, если у нас 24 диска по 3Tb каждый, то 4.8Tb — это не так много.
думаю, что если оно вам на самом деле интересно — автор может сделать фотографию машинки. Она сильно симпатичнее показаной вами.
Зачем? Четырехюнитовый супермикро можно и на сайте посмотреть.
На мой взгляд, backuppc делает тоже самое и даже больше.
Идея осуществлять резервное копирование встроенными средствами представленный в заголовке ОС: Time Machine (OS X), Backup and restore (MS Windows), ну и что_угодно (Linux).
Backuppc + OS X — расскажите, пожалуйста, возможно, что мы что-то упустили.
а у вас виндовый бэкап работает? У меня нет. Не может закончить операцию. МС в курсе. фикса нет.
Да, пользователи бэкапятся, и тестировали несколько раз, как бэкап, так и рестор. Всё было в порядке, по-моему.
Впервые слышу. С windows проблем, на самом деле, меньше всего — бекап просто работает, абсолютно прозрачно для пользователя. Вот восстановление чуть менее тривиально, но тоже вполне работоспособно.
Хочу представить на суд exdupe
консольная утилита сжимает с поддержкой дедупликации на больших расстояниях.

Так базы 1С(каждодневные) 2ТБ ужимает до ~100Гб.
По скорости помню что упирается в основном в жесткий диск у меня было что-то в районе 50-70мб\с средняя скорость на Athlon || x2 1.6 ГГц.
А вот памяти 4Гб ставил.
Создает дифференциальные архивы.

прога бесплатная и регулярно обновляется. Мне страшно подумать что было бы если я винрар скормил 2Тб.
Написали бы статейку по использованию!
Sign up to leave a comment.