Comments 46
В итоге получаем диски, смонтированные в директорию /storage/sd${i}, где ${i} ― одна из букв нашего диска.А как вы потом всё это объединяете в один массив?
0
А они и не объединяют, поди программно отслеживает сколько свободно на каком диске и туда пишется! ИМХО
+1
да, почти так:
— у каждого блочного устройства есть как минимум объем
— для каждого устройства есть «карта пользователей»
— gui при заведении нового пользователя предлагает «оптимальное» размещение, которое оператор может принудительно поменять (оптимальное исходя из оставшегося места, а также исходя из того, какое кол-во пользователей уже пишут в этот раздел)
в случае удаления пользователя место очищается, происходят изменения в «карте» и все пошло-поехало дальше.
— у каждого блочного устройства есть как минимум объем
— для каждого устройства есть «карта пользователей»
— gui при заведении нового пользователя предлагает «оптимальное» размещение, которое оператор может принудительно поменять (оптимальное исходя из оставшегося места, а также исходя из того, какое кол-во пользователей уже пишут в этот раздел)
в случае удаления пользователя место очищается, происходят изменения в «карте» и все пошло-поехало дальше.
+1
UFO just landed and posted this here
Мы у себя используем смесь rsnapshot и Duplicati — рабочие станции на винде, макаоси и линуксах. Полёт нормальный уже который год. Пару раз требовалось откатиться — проблем не было. Разумеется, пользователи _вообще_ не задумываются о самом резервном копировании — всё автоматизировано.
0
Ребят ну вы реально не ищите легких путей. Особенно здорово с головняком в 24 диска. При этом использование RAID6 даст приемлемую надежность и отсутствие
«Что будет, если умрёт один из дисков, на котором были бэкапы пользователей?» ― спросите вы. Попросим забэкапиться ещё раз после замены диска. Вероятность того, что один из 24 дисков умрёт вместе с ноутбуком сотрудника, действительно мала. В крайнем случае мы попытаемся восстановить утраченную информацию.
+2
В данном случае нам не нужен рейд, о чём и было сказано. Если будет рейд — мы дольше будем ребилдиться, чем начинать процесс бэкапа пользователей на новый диск.
-1
Ничего что при ребилде у вас при этом данные пользователей не только не теряются, но еще и бекапиться без проблем можно? Опять же добавление hotspare проблему нам надо срочно поменять диск уберет.
+1
Ребилдиться можно параллельно с бэкапом или восстановлением.
0
Да на лету все ребилдится прекрасно. :)
Вы, видимо, поддерживаете также и production badoo, и у вас инерция мышления. На production-сторадже действительно отдельные диски — самое эффективное решение, но для задачи бэкапов офиса raid6 подходит прекрасно.
Вы, видимо, поддерживаете также и production badoo, и у вас инерция мышления. На production-сторадже действительно отдельные диски — самое эффективное решение, но для задачи бэкапов офиса raid6 подходит прекрасно.
0
Объединение в массив+дедубликация, полагаю, дала бы больше гибкости, удобства и в итоге пространства чем распихивание руками по 24 отдельным дискам.
+2
дедубликация на такие обьемы требует солидное количество памяти на сервере, а в статье сказано про бюджетное решение!
0
Солидное это сколько гиг? А то 16 гиг сейчас вполне бюджетно посмотавить.
0
для ZFS вроде это значение 10Gb на 1Tb дедублицированных данных
0
l2arc?
0
Интересно за сколько выгорит SSD под l2arc на такой машине? Практического опыта с ZFS не имею!
0
Полагаю, там over 90% — операции чтения, сколько у вас данных заливается в день? Подсчитать примерное количество блоков(пусть по 64к), вычесть те что дедублицируются и умножить на 320 байт. Получим ежедневную запись на SSD, дальше смотрим сколько производители гарантируют жизни при каких объемах записи. В соседней вкладке 20гб/сутки и 5 лет ocz обещает.
0
Ну не у меня, я никакого отношения к badoo не имею! Насколько я понял их схему там как раз операций чтения то мало и они редки, там больше запись. И я думаю что периодически(раз в неделю\месяц) туда делаются полные снимки систем и далее только инкрементальный! Может создатель топика раскроет текущие обьемы записи в месяц!
0
На счёт «ненадежности» SSD у меня асус ееерс 701, купленный в апреле 2008 года, в мае на нём был разбит экран и он приспособлен под файлопомойку + качалка торрентов (freenas) Два винта по USB и кеш ZFS на SSD
Я был уверен что диск умрёт, даже извещение о кончине настроил себе в мыло
5 лет — жив
Я был уверен что диск умрёт, даже извещение о кончине настроил себе в мыло
5 лет — жив
0
Нет. Решение расчитано на то, что это и проще настраивать и проще в будущем поддерживать. Чуть выше про ребилд уже написал. Потерять на время малую часть данных, которая восстановится вполне быстро, оптимальнее, чем потерять большую часть.
-2
А ещё интересно — к чему у вас эти 24 диска подключены?
0
вы это серьезно спрашиваете? вас что именно в подключении интересует?
0
Шасси, контроллер, сколько их, или вы мультипликторы используете? Это действительно очень интересно. Обычно такое количество дисков ставится только в специализированные хранилища.
0
бюджетный корпус Supermicro на 4U, LSI MegaRAID-контроллер (по-моему, до 128 устройств) + бекплейн, который идет вместе с корпусом. Повторюсь, что от контроллера нам не нужно большой отдачи, т.к. работает он напрямую с отдельным диском, не занимаясь подсчетом контрольных сумм, зеркалированием и прочим.
Т.е. изначально задача была такой:
— делать бекапы на рабочие станции и лептопы;
— охватить все ОС;
— не дорого;
— просто в эксплуатации (т.к. это все на поддержке HelpDesk);
в результате мы получили систему, которая отвечает всем нашим требованиям.
Т.е. изначально задача была такой:
— делать бекапы на рабочие станции и лептопы;
— охватить все ОС;
— не дорого;
— просто в эксплуатации (т.к. это все на поддержке HelpDesk);
в результате мы получили систему, которая отвечает всем нашим требованиям.
0
24-ти портовый MegaRAID? За $1.2k? Бюджетное решение? Если это он, то использовать его без RAID-а только как хост-контроллер, ну знаете.
0
на данном примере стоит вот это store.lsi.com/store.cfm/MegaRAID_Controllers/9265_Controllers/LSI00278, диски как JBOD
0
понятие «бюджетное решение» в рамках того, сколько пользователей вам надо бекапить — трактоваться может по-разному. Если вам нужно бекапить 10 человек, то подойдет и обычнй tower, например, соотв. и бюджет будет сильно ниже. В данной статье автор уделил минимум внимания «железной» состовляющей, т.к. эта часть может очень сильно разниться. Цель — показать то, насколько просто можно реализовать удобную систему резервирования для офиса.
0
Цель — показать то, насколько просто можно реализовать удобную систему резервирования для офиса.Тогда статью стоило бы назвать «Простое решение ...»? В «бюджетном» варианте названия, очень бы хотелось увидеть цифры (бюджет=цифры) — во сколько вам обошлась система, сколько стоит бэкап в пересчёте на одного пользователя, а также сравнение с не-бюждетными решениями. Хотя «простое», тоже не совсем подходит, так как вы придумали себе сложности в виде отказа от RAID-а и привязки пользователей к конкретным разделам. А как быть, если на каждом разделе останется по «хвостику», недостаточному для бэкапа очередного пользователя, но в сумме этих «хвостиков» хватит ещё на нескольких? Т.е. осталось по 200Гб хвостов (всего 200х24=4.8Тб свободного места!), а забекапить пользователя с его 300Гб вы уже не можете.
+1
-3
Идея осуществлять резервное копирование встроенными средствами представленный в заголовке ОС: Time Machine (OS X), Backup and restore (MS Windows), ну и что_угодно (Linux).
Backuppc + OS X — расскажите, пожалуйста, возможно, что мы что-то упустили.
Backuppc + OS X — расскажите, пожалуйста, возможно, что мы что-то упустили.
0
а у вас виндовый бэкап работает? У меня нет. Не может закончить операцию. МС в курсе. фикса нет.
0
Да, пользователи бэкапятся, и тестировали несколько раз, как бэкап, так и рестор. Всё было в порядке, по-моему.
0
Ну вот для примера:
social.technet.microsoft.com/Forums/en-US/w7itprogeneral/thread/3f96d794-df4a-47a3-9cb8-e210f4527005/
Куча статей на эту тему… Бэкап либо вылетает, либо залипает…
social.technet.microsoft.com/Forums/en-US/w7itprogeneral/thread/3f96d794-df4a-47a3-9cb8-e210f4527005/
Куча статей на эту тему… Бэкап либо вылетает, либо залипает…
0
Хочу представить на суд exdupe
консольная утилита сжимает с поддержкой дедупликации на больших расстояниях.
Так базы 1С(каждодневные) 2ТБ ужимает до ~100Гб.
По скорости помню что упирается в основном в жесткий диск у меня было что-то в районе 50-70мб\с средняя скорость на Athlon || x2 1.6 ГГц.
А вот памяти 4Гб ставил.
Создает дифференциальные архивы.
прога бесплатная и регулярно обновляется. Мне страшно подумать что было бы если я винрар скормил 2Тб.
консольная утилита сжимает с поддержкой дедупликации на больших расстояниях.
Так базы 1С(каждодневные) 2ТБ ужимает до ~100Гб.
По скорости помню что упирается в основном в жесткий диск у меня было что-то в районе 50-70мб\с средняя скорость на Athlon || x2 1.6 ГГц.
А вот памяти 4Гб ставил.
Создает дифференциальные архивы.
прога бесплатная и регулярно обновляется. Мне страшно подумать что было бы если я винрар скормил 2Тб.
0
Sign up to leave a comment.
Бюджетное решение для бэкапа целого офиса