Как стать автором
Обновить

Комментарии 193

Учитывая то, что основные задачи для домашнего сервера — это файлопомойка плюс виртуалки, хотелось основного удобства именно по ним.

При всех достоинствах unRAID, виртуалки там можно только включать и выключать. Больше он ничего не позволяет делать. Бэкап - ручками или скриптами. Поставить что-то нестандартное (например Mikrotik CHR) - гугл и CLI. Хотелось бы, чтобы разработчики хоть немного поработали в этом направлении.

Понятно, что он не специализированный гипервизор.
Unraid — это решение для домашних гиков, кому уже мало synology, но ещё не хочется разбираться с теми же proxmox'aми и прочими esxi. Но если виртуалки первичны, лучше всё же разобраться.

Не хочется разбираться с универсальными утилитами линукса, которые могут пригодится в будущем, но хочется разбираться с уникальными особенностями платного решения на базе линукса? Это еще более странно, чем на базе Windows Server делать.

Я не хочу разбираться в устройстве двигателя и трансмиссии автомобиля. Хотя это может и пригодится в будущем.
Но я хочу разобраться в том, как водить автомобиль и что у него какие кнопочки на панели делают. Ну ещё куда бензин и масло заливать. А двигатель перебирать не хочу.

Раз уж пошли автомобильные аналогии, то знать из чего складывается тормозной путь хотите, или у вас тачка крутая и все сама сделает? )

Это относится к использованию, а не к копанию во внутренностях.

Зато это не относится к кнопочкам/лампочкам. Это — кусок матчасти, такой же, как и устройство трансмисии. И знание этого кусочка однажды может предотвратить влетание на большие бабки или даже спасти жизнь: вашу или чужую.

НЛО прилетело и опубликовало эту надпись здесь

На инжекторе-то? А вы давно ядро сами собирали? )


А вот знание принципов работы подвески и трансмиссии, особенностей сцепления с дорогой, не раз спасало.
Водителю не нужно уметь чистить карбюратор или выставлять свечи чтобы водить машину — только чтобы срезать косты на обслуживании. Это можно сравнить с тюнингом sysctl или служб в реестре.

НЛО прилетело и опубликовало эту надпись здесь
оно, видите ли, старое

Так если оно старое — у дебиана есть backports. Ну или взять Proxmox, в котором ядро и zfs довольно свежие.


Ибо ядра пересобирать самому как-то уже надоело людям

И благодаря этому практически любой дистр предлагает несколько затюненых ядер на выбор, кроме того есть бэкпорты, и кроме них еще и пользовательские репо — бери, не хочу.


бы все задачи решались тюнингом службы в реестре

А они где-то так решаются?)

НЛО прилетело и опубликовало эту надпись здесь
добавить ад-авторизацию. всего лишь

Лет 8 назад все околосамбовые фичи успешно завелись на Zentyal. Но с тех пор это направление не слишком интересно.


Извините, но это уже ближе к переборке карбюратора

Так и ваша задача, похоже, ближе к перекидыванию бензинового движка на дизельный… ну или к переделке на газ. Или этот что-то пропустил, и самба перестала быть чужеродной?


ну уж файловую хранилку на винде вообще без тюнинга можно поднять

— Ха, черточка, ха, черточка, — сказала  Шindows Vista, и с тех пор каждый раз надо вспоминать, как правильно танцевать с бубном на конкретной версии винды.
Если, конечно, не заводить сразу в ad.


Карма, видимо, плохая стала…

Ну, злоключения у вас специфические. Если бы проблемы подобного рода были массовыми, народ бы выл. Следовательно, вы что-то делаете не так.
А вот что именно и почему — с этим надо разбираться, желательно не в одиночку и не в горячке спора.

НЛО прилетело и опубликовало эту надпись здесь

Не так, тут аналогия скорее "я не хочу разбираться в том, как движется по земле любая колесная техника, вместо этого я возьму танк, и детальнейше разберусь в том, как он на гусеницах по болоту ездит. А живу я в городе, и на бездорожье не езжу".

Нет, не катит такая аналогия.

Либо сел и поехал, а что зеркал заднего вида нет — ну придумаю в пути что-нибудь.
Либо сперва надо собрать машину из горы деталей, а потому уже только ехать. Не забыв взять с собой все оставшиеся детали, потому что мало ли что.

Так это вам кажется, что она не катит, и потому вы выбрали такой инструмент. А мне кажется, что аналогия как раз верная, и этим я попытался объяснить вам, что вы зря тратите свое время на эту штуку. Но т.к. время ваше - разумеется вы вольны тратить его любым способом на что вам хочется :)

Я уже «сел и поехал». Да, у unraid есть недостатки, но «зеркала» я прикручу по пути.

На базе бесплатного линукса же условно аналогичное по функциональности решение без глубокого закапывания в конфиги и cli — это только omv. Но там менее удобный gui, задачи на снапшоты и проверку массива в крон придётся запихивать руками, как там сделать кэш для массива — вообще непонятно c какой стороны подходить, bcache есть, но там чуть ли не на каждый диск в массиве по ссд требуют…
В общем, примерный аналог собрать можно и он даже поедет, но на это потрачу кучу времени и полной функциональности не получу. Так что я уж лучше заплачу и сразу начну пользоваться, решая вопросы использования, а не разработки.

proxmox backup
proxmox mail gateway
proxmox pve


если привыкли юзать windows — то конечно сложно прочитать мануалы и подключить это всё в одну связку, вопросов нет

Дома — совершенно не хочется. Хочется кнопку «сделай как надо».
Конечно, в Unraid такой кнопки тоже нет, но он для меня всё же ближе к ней, чем proxmox.

Для бэкапа что докеров, что VM есть плагины - CA Backup / Restore Appdata, VM Backup

"отличный" выбор между OMV обозванного нашлепкой на пингвина и UNRAID так не обозваного, браво!

вопрос который не дает мне покоя - зачем домашнему серверу платное ПО ?

имхо проплаченная статья

OMV обозван нашлёпкой из-за того, что его можно поставить сверху на обычный debian. Proxmox — это такая же «нашлёпка», никто не мешает его поставить отдельно из репозитория.
А вот unraid вы к готовому линуксу не приклеите, он одним куском ставится. Как truenas, к примеру.

зачем домашнему серверу платное ПО ?

Домашний и бесплатный — не синонимы. Никто не заставляет платить. Можно использовать то, что хочется. Можно бесплатное, можно коммерческое пиратить (та же xpenology — это натуральная пиратка), можно за коммерческое платить. Решение выбирается по потребностям и возможностям.

имхо проплаченная статья

К кому за деньгами обращаться?
НЛО прилетело и опубликовало эту надпись здесь
Unraid, по слухам, когда-то слакой был.
НЛО прилетело и опубликовало эту надпись здесь
в живую систему на флешке, на основе модулей (отдельно модуль с ядром, отдельно графическая подсистема, отдельно можно было любую программу либо набор программ модулем сделать и т.п.), который к тому же позволяли использовать LZM сжатие для минимизации места под систему. А так же работать из оперативки, с сохранением или без изменений, ударно стартовать на куче железок без установки и т.п.

Ну вот анрейд как-то так и выглядит. Какие-то настройки на флэшку можно писать, но большая часть сносится после перезагрузки.
Так что тут действительно может быть проще запускать mc через докер, чем пытаться засунуть его в систему.
Впрочем, mc-то как раз имеется. Но вот настройки его слетают после каждой перезагрузки.
убил пакет с профилем пользователя, загрузился до сохранённых пакетов
На что только люди не идут, чтобы не использовать ZFS…
НЛО прилетело и опубликовало эту надпись здесь

Ну, этот сейчас использует самописные скрипты для обновления uefi-исполняемого ядра во время apt-upgrade. Есть мысли, как доделать до полноценного телепорта в обновленную систему перезагрузкой, но некому напинать под пушистый зад, чтоб довести работу до конца. Плюс, давно уже хочется на арч, что не стимулирует продолжать работу под дебианы (но — нет времени/лень/тапочки мешают — взять и переехать, и так уже год).
Из требований: EFI, systemd-boot и ESP с гиг. Можно иметь, в зависимости от упаковки модулей в initrd, до трех десятков вариантов загрузки при гиговом esp.

НЛО прилетело и опубликовало эту надпись здесь

Тогда не было вариантов других )
Для продактовой системы это не слишком подходит, кмк, а вот для экспериментов — почему бы и нет?

НЛО прилетело и опубликовало эту надпись здесь

И монтировать корень по NFS?
Возможно, где-нибудь в узкой нише специфических тонких клиентов, вроде кассовых аппаратов или IP-телефонов… Но с ними, как правило, другая беда: не хватает ресурсов на сетевые ФС, а собираемый образ весит единицы МБ, и его проще зашить прямо во флеш.

НЛО прилетело и опубликовало эту надпись здесь
Глуп тот человек, который никогда не меняет своего мнения.

вопрос который не дает мне покоя - зачем домашнему серверу платное ПО ?

Затем, что я его воткнул и оно сразу заработало. И мой HBA сразу обнаружился и заработал. И даже докер-контейнеры там ставится одной кнопкой. Всё это очень сильно отличается от моего остального опыта работы с линуксом.

имхо проплаченная статья

Присоединяюсь к вопросу ОПа: куда обращаться за чемоданом?

НЛО прилетело и опубликовало эту надпись здесь
Если есть время и желание, попробуйте упомянутый xpenology, кастомного там только загрузчик, сама операционка вполне оригинальная ставится. Вариант не идеальный, но вот это вот «взял и используешь» перекрывает минусы(например все еще нет загрузчика под новую мажорную версию операционки).
Спасибо, как-то упустил это нововведение. Погонял тесты и в итоге перевел основной NAS на DSM 7.0.1

Может денег у ТСа много

НЛО прилетело и опубликовало эту надпись здесь

Мне больше нравится ESXI + xpenology, я таким пользуюсь, вариантом

Так это хорошо, когда есть то, что нравится.
Гораздо хуже, когда сидишь и думаешь «Если бы губы Никанора Ивановича да приставить к носу Ивана Кузьмича, да взять сколько-нибудь развязности, какая у Балтазара Балтазарыча, да, пожалуй, прибавить к этому ещё дородности Ивана Павловича...» и не находишь удобного варианта.
после неудачного обновления потерял часть данных (к сожалению уже не помню что конкретно произошло). Зарекся юзать подобный софт, перешел на OMV

Если там и правда такой крутой стор, то стоит попробовать.

Сам пока на OMV сижу и вполне доволен, для бытовых задач с головой. Но у меня дисков конечно поменьше - 2 hdd чисто под фото и 1 ssd для всего остального. Интерфейс там может и не очень, но я туда крайне редко захожу, один раз папочек насоздавал, права раздал и все. Все остальное все равно в портейнере делать приходится.

Мой набор таков: docker, portainer, qbittorrent, torrserver (чтобы не качать торренты, а сразу на телеке смотреть), nextcloud (мега комбайн с ультимативным набором интеграций). Чего бы еще поставить так и не придумал

Еще бы для телека что-нибудь придумать, а то встроенный andoid tv отказывается воспроизводить торренты больше 40 гигов. Читал про всякие приставки, но там то нетфликс не поддерживается, то железо слабое, то интерфейс от планшета.. Ультимативное решение конечно есть - nvidea shield pro, но цена что-то кусается

Ради одного только аппстора сюда идти не стоит, тут мне в комплексе понравилось решение. Включая метод работы с массивом. Сам же аппстор просто на хорошем уровне сделан, но не более.

torrserver через докер крутится? все хочу тоже повесить, да руки не доходят. Долго буфер пополняет?

Надо было конечно через докер, но я что-то поленился тогда. Скорость наполнения буфера у меня очень сильно зависит от количества раздающих, если с этим все хорошо, то секунд 10-20.

Я сначала пробовал сервер на телевизор ставить, там тоже все было неплохо, но потом подумал, что жирные торренты тормозят именно из-за сервера и поэтому переместил на OMV, как оказалось не в этом дело было

Чего бы еще поставить так и не придумал

pihole

Вы удивитесь сколько "мусора" отправляют ваши девайсы.

На скрине выборка топ10 заблокированных отправление на домены за 7 дней из домашней сети ~40 устройство в т.ч. iot

я после qnap ушел на OMV, очень доволен, самое главное развязанные руки. По интерфейсу у меня притензий нет, весь необходимый функционал есть из коробки + вагон плагинов.

развязанные руки.

Да, это основное отличие универсальных решений от специализированных. Впрочем, omv всё же в хостовой системе мутит со своими сервисами. К примеру, почтовый сервер я как-то пытался поднять на хосте — не срослось, пришлось в виртуалку пихать.

А не нравится мне в нём то, что они уходят от плагинов и меняют их на докер. Всё же это довольно серьёзная смена идеологии использования (если не знаком), потому это был лишний минус в копилку. К докеру, впрочем, всё равно пришлось придти, так что из минусов omv я это вычеркну. Интерфейс, впрочем, это не обеляет.
Особенно его двойное сохранение. Что-то поменял, нажал сохранить — и тут вылазит одно сообщение на тему «чтобы действительно сохранить, надо ещё раз нажать сохранить».
НЛО прилетело и опубликовало эту надпись здесь
У omv там всё же свой слой абстракции живёт поверх дебиана, который некоторые системные вещи не даёт ставить — именно потому, что рулит ими сам.
НЛО прилетело и опубликовало эту надпись здесь
инструкцию дебиана по объединению сетевых интерфейсов

О_о Нет никаких таких инструкций.
Дебиан использует стандартные пакеты. У вас используется наверняка bridge-utils. А вот конфиг сети задается, скорее всего, networkd или NetworkManager — и вот их инструкции и надо смотреть.


Ну а если все спецом делать как попало, то результат будет немного… ожидаемым.

НЛО прилетело и опубликовало эту надпись здесь

Эта инструкция будет всегда дословным переложением инструкции к ifupdown, netplan, networkd, NetworkManager или любой другой сетевой системы, которая актуальна.
А причин того, что  OMV не видит измений, сделаных через консоль, множество. Например, он хранит свои настройки в базе (худший вариант с точки зрения ручного вмешательства). Или использует другу подсистему (вы настроили ifupdown, а надо было netplan).


То есть, сначала надо выяснить, что чиним, а потом уже искать руководство по этому конкретному чему-то.
А то выйдет как в математике: ответ сошелся, а решение — неверное.

НЛО прилетело и опубликовало эту надпись здесь
Про домен мне понравилось, как трунас в него вошел — без пинков, просто взяло и заработало. Ни разу так не было за всё время использования разных линуксов.

А тут нормально зашел в домен, нормально доменных юзеров стал использовать для раздачи прав в файловой системе. Шары, впрочем, лучше оставлять «всем на полный доступ» и рулить именно правами на файлы-папки. Но это и в винде рекомендуется делать.

А вот в unraid именно шары плодить гораздо проще, чем пытаться ACL включить и к самбе прикрутить.
НЛО прилетело и опубликовало эту надпись здесь
omv4 у меня так просто не получалось добавить. Надо было какие-то пакеты доставлять и что-то там в командной строке слегка пошаманить. Подробности не помню уже, давно было.
НЛО прилетело и опубликовало эту надпись здесь
А в трунасе всё из коробки сразу заработало.
Для меня это было очень непривычно.

для виртуалок можно proxmox ve поставить на обычный дебиан, сам дебиан можно поставить на флэшку и настроить так, чтобы при работе запись на неё была минимальная

Вот примерно те же цели (файлопомойка/кино/фото, бэкапы всего и вся, виртуалки для экспериментов и саморазвития), так что так в свое время после отказа от XigmaNAS и сделал.

Почему так? Потому что после серии экспериментов подумал, что лучше собрать все на мэйнстрим-софте с какой-никакой поддержкой сообщества, чем использовать (возможно) более производительные и удобные, но кастомные решения.

Железо - Microserver Gen7, далее снизу вверх:

  1. Файловая система - ZFS, два диска в зеркале (только система, не считая дисков-файлопомоек). ZFS - ибо решил, что два диска сдохнут до невосстановимого состояния с гораздо меньшей вероятностью, чем флэшка. А менять флэшки превентивно раз в полгода - лень. Монтирование и восстановление одного диска с ZFS проверил на другом компе, сымитировал отказ одного из двух.

  2. Операционка - debian, загручик и ОС прямо на ZFS, linux научился уже

  3. Службы на debian - в первую очередь samba, остальное по желанию

  4. Proxmox-контейнеры и виртуалки под всякое разное, торрентокачалка, DLNA сервер для старых домашних клиентов, сервер майнкрафт детям, WinXP для старого технологического софта и т.п. Принцип: один контейнер/виртуалка - один целевой софт

  5. В контейнеры проброшены ресурсы по разному, от самбы до прямого проброса железа

Программированием не занимаюсь, так что ресурсоемкие задачи не нужны. Соответственно быстродействия всего этого вполне хватает, загрузка растет до пиковой крайне редко.

два диска в зеркале

Два sata-диска или две флэшки?

два диска, разбиты на пулы, один из пулов - рут для дебиана

А тормоза с smb не мешают? Тут человек расстроился и перешел с Unraid на Proxmox VE.

Сам хочу NAS собрать. Корпус Node 804 уже приехал. Присматриваюсь к Unraid, но возможные тормоза IO немного напрягают.
Там, похоже, история с многопоточной записью и падением производительности из-за fuse — всё же у неё заметные накладные расходы.

У себя я пока не замечал какой-то глобальной проблемы в плане записи по сети — гигабит нормально загружается на больших файлах, мелкие файлы копируются медленно. Но я и не занимался многопоточной записью, это не мой сценарий. Чтение может быть, а вот запись редко одновременная идёт.

Syncthing у меня как-то очень медленно синхронизировался, в районе 10-15 мегабайт скорость была на файлах размером 20-30 мегабайт.
Вдогонку — у unraid'а полнофункциональный триал на месяц, плюс можно продлить на 15 дней точно, а то и на месяц.
Ну и для потомственных пиратов есть рутрекер. ;)

В общем, можно проверить его на своих сценариях и понять, годится или нет.
Ага, про триал я в курсе. Просто не хочется устраивать возню с перенастройкой и перекидыванием данных, если не понравится. С другой стороны, Proxmox выглядит как-то сложно. Возможно unraid мне хватит за глаза.
Ну, тут только пробовать. Я щупал всё, по итогам выбрал.

proxmox я не могу ругать за что-то конкретное — я им не пользовался настолько, чтобы аргументированно его советовать или от него отговаривать. Просто лично мне не понравился.

триал продляется дважды по 15 дней, сам триалил месяца полтора-два прежде чем купил
если не перезагружать хост, то можно хоть год жить на триале

Я недавно поднимал домашний сервер для директора небольшой конторки с удаленными сотрудниками. OMV показался мне кривым до невозможности, в процессе настройки я заколебался через консоль чинить то, что сломал через веб-интерфейс. Уж лучше просто поставить линукс и все настроить руками, чем такое.

Но клиент слабо разбирался в линуксах, поэтому пришлось поставить xpenology. Там реально все работает из коробки, ставится в 1 клик из репозиториев. Сейчас на сервере крутится сайт на вордпрессе, почтовик с веб-интерфейсом, чат (Mattermost) и виртуалка с виндой для 1С. Единственная проблема - не работала встроенная программа получения сертификатов LetsEncrypt. Пришлось все-таки прикрутить костылик и написать скрипт, который использует acme.sh и раскидывает файлы сертификатов по разным местам. Там все немного сложно устроено, сертификаты хранятся в разных местах и копируются при запуске и остановке сервисов.

Я надеюсь, что вы предупредили руководителя небольшой конторки, что на его оборудовании теперь крутится нелицензионная копия xpenology?

Я сейчас тестирую софт, есть недочёты,(@aik сказал что есть кнопка автоматической установки маркета, но я такую не нашол, установил через линк) но главный плюс для меня, то что он пробрасывает видеокарту нативно, без бубнов!

В какой-то бете 6.10 добавили. В 6.9 нету.
У меня 6.9.2 — я ставил маркет ссылкой с гитхаба.

Из описания 6.10rc1:
Simplified installation of the Community Apps plugin. The webGUI automatically includes the Apps menu item, and if CA is not already installed, the page offers an Install button. No need to hunt for the plugin link.
Cobian Backup (давно не обновлялся)

Там была эпопея в виде продажи исходников, а в прошлом году он возродился в виде Cobian Reflector.

Cobian Reflector is the newcomer in the Cobian Backup family, although it’s a whole new program. Cobian Reflector is completely .NET based. In addition to all the features of the latest Cobian Backup, it has support for SFTP transfers, it is DPI independent due to the use of vector graphics and Windows Presentation Foundation, and also behaves as a 64-bit program in 64-bit systems and as a 32-bit program in 32-bit systems.
Да, но reflector вроде как на ХР не работает, а я cb11 как раз ради ХР держу.

Какие USB устройства необходимо пробрасывать в виртуалки? Раньше вроде как была необходимость в HASP-ключах, а сейчас что требуется пробрасывать, да еще в домашних условиях?

Для себя конфиг следующий.

Файловое хранилище, при необходимости торрент качалка, DLNA - выполняет WiFi роутер от Keenetic с подключённым внешним диском на 1ТБ, в планах сменить диск на SSD.

Бэкапы, только семейные фото и видео, об остальном не беспокоюсь. Стараюсь поддерживать актуальность хранения методом 3-2-1.

Фильмы - есть подписки онлайн-кинотеатров, если прям не терпится пока оно появится в подписках и идти в кинотеатр не хочется или не можется, идем на торрент, смотрим и удаляем. Шедевров нет чтобы ежедневно пересматривать, поэтому и хранить нечего. Мобильные устройства все автоматом бэкапируются, в моем случае в iCloud, на лэптопах, в автоматическом режиме бэкапируются только документы, на Mac это iCloud, на Windows это OneDrive. Бэкапы ОС не нужны, все они сейчас восстанавливаются без носителя через Интернет.

Для виртуалок хватает Windows 10 (уже Windows 11) ноутбука с RAM на 32Gb и SDD на 500Gb. Но это буквально только в рабочее время, для собственных нужд держать 24/7 нет необходимости. Почта с личным доменом привязана к бесплатному почтовику, хостинг для пет-проектов или на GitHub Pages или хостинг в Azure с бесплатным тарифом или по цене схожей с хостингом для сайтов у большинства провайдеров.

Самое главное этот "сервер", не жужжит, не занимает место, не собирает пыль и не потребляет дополнительное электричество. Обслуживать не нужно.

Так что не знаю модно ли еще сегодня дома держать свой "сервер"?

а сейчас что требуется пробрасывать, да еще в домашних условиях?

usb-hub, as is, чтобы втыкать устройства прямо в виртуалку.
UPD:


есть подписки онлайн-кинотеатров

Режиссерок нет, редкостей нет. Просто старого нет — не та бизнес-модель.

usb-hub сам по себе не интересен, что планируется в него подключать? если внешний диск, так это проще и дешевле сделать на продвинутом WiFi роутере задействовав функционал файлового сервера

Я иногда пробрасываю в виртуалку usb диск, чтобы скопировать файлы на сервер напрямую, а не по сети. Плюс постоянно проброшен стик zigbee.

Raspberry не предпочтительнее для стика zigbee, для этого разве нужно держать домашний "сервер" с виртуалками?

Если у меня уже есть сервер — зачем мне брать ещё и малинку, если я могу просто создать виртуалку с Home Assistant?

Не факт что это быстрее, что на роутере будет нужный функционал, что он не будет глючить и тупить.
А еще "роутером" может оказаться хост.
И не факт, что вы захотите монтировать свежепринесенный диск ненативным драйвером: на нем может оказаться поврежденная ФС.


Потом, прямое подключение просто работает. Запустили виртуалку, в нее пробросился хаб, она подмонтировала устройства. Отключили-подключили — все просто работает. А теперь проверните это с проброшенным конечным устройством qemu, например, теряет и требует вмешательство с хоста, который вообще может быть headless.


Keep It Stupid Simple.

Какие USB устройства необходимо пробрасывать в виртуалки?

Любые, какие понадобится. Касательно именно домашнего сервера на антресолях их не так много — сканер на антресоли я не потащу, к примеру. Но всё равно это не повод использовать hyper-v.
Бэкапы ОС не нужны, все они сейчас восстанавливаются без носителя через Интернет.

Нужны — как минимум настройки и рабочее окружение. Не настолько сильно, чтобы заморачиваться с закачкой этих бэкапов в интернеты, но локальную копию удобнее иметь.
Так что не знаю модно ли еще сегодня дома держать свой «сервер»?

Причём тут «модно»? Вопрос исключительно в функциональности и удобстве. Если вас устраивает роутер с жестким диском — пользуйтесь, я не заставляю его выкидывать.
Но меня такое не устраивает.

Тоже вначале сетевым диском был роутер, сначала padavan, потом кинетик
роутерная самба очень медленно работает с папками с кучей мелких файлов

Роутерные торренты тоже слабоваты по скорости работы с диском. Transmission у меня не вытягивал больше 5-6MB/s. Есть сборка qbittorrent под кинетик, где обещают 10МB/s, уже лучше, но надо возиться с установкой и настройкой, возможно роутер под такой нагрузкой будет тупить, не проверял и все равно результат не топ.

C DLNA та же история - пойдет за неимением другого, но не более. Plex удобней в мелочах вроде запоминания истории просмотра

А можете рассказать про Azure с бесплатным тарифом? Действительно ли бесплатный, или только на 12 месяцев? Что за сервисы дают бесплатно?

ESXi @ старый Dell laptop — VM-ки с Windows, Linux и т.п.
QNAP (2 x 4TB mirror) — файловое хранилище, torrent качалка, Plex + docker container-ы
Ubuntu Server @ Lenovo ThinkCentre IoT — перевожу на него docker container-ы с QNAP-а + эксперементы с Kubernetes

Как я говорил в прошлой статье, прошел плюс-минус похожий путь. Про unRAID узнал от админа всея ютуба Linus Sebastian (LTT).

Да, анрейд это чисто игрушка для домашних гиков, кому достаточно конфиги крутить на работе, а дома хочется просто что бы работало. Да, оно почти работает без пинков. К анрейду обычно идут те, у кого стопка разнобойных дисков и какое то железо. И оно просто работает. Я могу вынуть любой диск и ничего не произойдет. И мне не нужно по гигу памяти на каждый террабайт места как в случае truenas. И нет оверхеда в случае proxmox или окносервера. И мне не нужно думать о том, что будет если железный рейд на esxi развалится.

unRAID это старый добрый линукс, в котором за тебя сделали довольно большой кусок грязной работы, и 89 баксов вот совсем не жалко было, купил на 7й день триала.

И да, за год использования встретил всего один косяк, wd purple не хотят засыпать, даже принудительно.

админа всея ютуба Linus Sebastian (LTT).

При всём уважении — я тоже периодически смотрю его ролики — он всё же хипстер от айти. Но зато у него есть хорошие бюджеты и он может любую фигню пытаться собрать, которая в голову придёт. Почему и интересно смотреть бывает.

Понятно что он в первую очередь шоумен, потом уже технарь, большую часть серьезных штук делает его команда. Просто они частенько помогали другим блоггерам с железяками, вот и назвал его кто то админом ютуба. Чисто лычка, ничего более.

И да, за год использования встретил всего один косяк, wd purple не хотят засыпать, даже принудительно.

Там же по умолчанию вообще отключение дисков выключено. На форумах тоже пишут в духе "а зачем их выключать?". Считаете, что это неправильно?

Не совсем понял вопроса.

Да, по умолчанию в настройка spin down delay стоит never. Но так как есть куча дисков которые не любят частые остановки, я считаю что это правильно, т.к нормальные люди не держат сервер набитый 10+ дисками в метре от спального места, и то что они крутятся 24\7 особо никого не парит.

С точки зрения надежности самих дисков, выключать их не стоит — пусть крутятся. Потому что каждый старт увеличивает вероятность выхода из строя — это гораздо большая нагрузка, чем просто покрутиться и ничего не делать.

С точки зрения человека же, которому с этими дисками в одном доме жить, гораздо приятнее, когда они не шумят. Потому лично я считаю, что выключать можно. А для того, чтобы пореже их будить, надо наиболее часто используемое класть на ssd. Ну или хотя бы на один из дисков собирать, чтобы только он крутился.
Кстати, ещё касательно unraid.
У него есть фишка по имени turbo write, которая ускоряет запись на диск, но требует того, чтобы все диски в массиве крутились.
Turbo write keeps all disks spinning for a write to any one disk. The net difference is without turbo write, we have to do a read, modify, write. With turbo write it's just a reconstruct write, which is the same method we use to rebuild a failed disk.

То есть при турбо-записи не тратят время на чтение информации с парити-диска, а просто молча её перезаписывают.

чому не рассматривал freenas? имхо прекрасная альтернатива unraid. это конечно не linux, да и вместо docker там jail. но это дело привычки.

Почему не рассматривал? Рассматривал. И написал, почему оно мне не нужно.
Это совершенно не альтернатива unraid, это полностью самостоятельное решение. Да, оно выполняет примерно те же задачи, но совершенно другими методами, с которыми я не согласен.

Это я отстал от жизни, не понял что truenas=freenas

Тогда есть вопросы по текту: в статье написано что zfs не могёт в диски разного размера, но это не так. Zfs как раз плевать хочет на размер диска в луне, даже позволяет в зеркало сунуть два диска разного размера на свой страх и риск, и так же позволяет докинуть ssd под кэш, а ещё умеет дедупликацию, zvol и сжатие

Ну а по не согласию с методами.. Чтож.. Ваш выбор спорить не буду.

Zfs как раз плевать хочет на размер диска в луне

Ну вот у меня сейчас стоят диски 3+3+5+6+8+8. Какой эффективный размер массива я получу на raidz1?
Смогу ли я заменить 3 на 5 без пересборки массива?
Смогу ли я удалить диск из массива без пересборки массива?
Смогу ли я добавить диск в массив? Хотя это вроде zfs уже научилась, но без изменения типа массива.
Могу ли я конкретным файлам сказать, чтобы они всегда жили в кэше?

И это я ещё не учитываю, что у меня пара дисков (6 и 8) — SMR, что сразу закрывает им дорогу в использование с zfs.

Дедупликацию в zfs никто не советует включать, кто такой zvol не в курсе, сжатие btrfs умеет (а unraid умеет btrfs, хотя для массива всё же xfs рекомендует).

А jail же при том, что идея аналогична докеру, докером не является. А инструкции по запуску докера на truenas обычно начинаются со «запускаем линукс в виртуалке».
Есть, впрочем, truenas scale, где поддержку докера прикрутили, но она очень далека от простоты запуска контейнеров парой кликов, как в unraid.

zfs позволяет в одном пуле держать несколько дисковых массивов
к примеру два зеркальных и три raidz1. я к сожалению фанат мнения что лучший рейд это 1+0 так что ен могу большего подсказать по raidz*
заменить, добавить, увеличить.. - ДА, zfs позволяет это делать на лету.

конкретные файлы всегда в кэше.. что-ж я слышал про такой функционал, но не вдавался в подробности ибо зачем? если файл активно дёргается то он и так будет в кеше, а если нет то и нефиг ему там делать ИМХО

дедуплекацию не советовали включать 100 лет назад, сейчас с этим всё ок.

не смотря на мою любовь к btrfs дедупликации как таковой там всё же нет (зато есть снапшоты)

а zvol это киллерфича, очень жалею что в btrfs нет аналога, советую ознакомится

(а xfs я бы вообще не рекомендовал использовать в домашних условиях, эта ФС сделана с оглядкой на сферический цод в вакууме где не мигает свет и не бывает нештатных выключений кнопокй reset. пока всё идёт штатно она прекрасна, но вот в нештатных ситуациях просрать все данные с диска безвозвратно это про xfs)

ну jail конечно не является заменой docker, но и docker не обязателен имхо, в большом проде с k8s и кучей подов да, ну а дома я бы обошёлся без
да и идея не аналогична, jail скорее где-то между chroot и lxc, а docker это кострированная альтернатива lxc

конечно я не переубеждаю, каждому своё

zfs позволяет в одном пуле держать несколько дисковых массивов
к примеру два зеркальных

Зеркала мне избыточны.
С unraid в перечисленном случае я получаю эффективню ёмкость из 3+3+5+6+8, теряя одну 8 на защиту массива. Переживаю потерю одного любого диска, если же вдруг потеряю два диска — то на оставшихся дисках данные сохранятся в виде целых файлов, а не ошмётков raid'a.
заменить, добавить, увеличить… — ДА, zfs позволяет это делать на лету.

А подробнее, по пунктам? Замена на такой же — это понятно, любой raid умеет. А вот замена на меньший или больший?
Или, допустим, было зеркало 3+3. Я хочу добавить 5. Что в итоге получится?
зачем? если файл активно дёргается то он и так будет в кеше

Чтобы к нему была возможность быстро обратиться. К примеру, в unraid «в кэше» принято хранить контейнеры с настройками и виртуальные машины. Я ещё в «кэш» свою музыкальную коллекцию вытащить хочу, чтобы можно было слушать музыку, не раскручивая винты. На «частое обращение» такой способ использования точно не потянет.
Ну и кэш записи, само собой. Когда торренты туда качаются или по сети файлы закидываются, а где-нибудь ночью перекладываются оттуда на винты.
дедуплекацию не советовали включать 100 лет назад, сейчас с этим всё ок.

www.truenas.com/docs/references/zfsdeduplication
32 ядра, куча памяти, nvme-диски… По-моему, это совсем не тянет на «всё ок» для домашнего сервера.
не смотря на мою любовь к btrfs дедупликации как таковой там всё же нет

Я про сжатие писал, если что.
xfs я бы вообще не рекомендовал использовать в домашних условиях

Я бы не сказал, что она чем-то хуже ext3/4. Такая же дубовая.
docker не обязателен имхо,

Скажите это разработчикам всякого прикладного софта. Сейчас многие либо докер дают, либо «вот вам исходники и трахайтесь как хотите, если вы такой умный». Так-то я бы тоже с удовольствием не пользовался докером, а ставил всё на хост.

А вот замена на меньший или больший?

на больший пожалуйста, zfs сам пересчитает объём, на меньший это фича которую только относительно недавно добавили и её включение нужно явно указать.. наверное не стоит пока

32 ядра, куча памяти, nvme-диски… По-моему, это совсем не тянет на «всё ок» для домашнего сервера.

ну так и написанное совсем не для домашнего сервера, однако на домашнем с этим всё ок, проверено

Я бы не сказал, что она чем-то хуже ext3/4. Такая же дубовая.

в плане отказоустойчивости и сохранности ext4 всё же лучше (btrfs с недавних пор тоже можно считать лучше. а вот несколько лет назад без хорошего UPS юзать btrfs я бы тоже не рекомендовал)

Скажите это разработчикам всякого прикладного софта. Сейчас многие либо докер дают, либо «вот вам исходники и трахайтесь как хотите, если вы такой умный».

и тут я выбираю разок потрахаться (или вообще делегировать траханье мейнтейнерам дистрибутива) чем трахаться постоянно с докером

на больший пожалуйста, zfs сам пересчитает объём

Ну так что у меня будет в итоге, когда я к зеркалу 3+3 добавлю ещё диск на 5?
на домашнем с этим всё ок, проверено

У меня сейчас вот перед носом ком на truenas с zfs — на нём свободно 3 гига из 16. И это ещё без дедупликации. На такие накладные расходы я совсем не хочу идти на домашнем сервере.
в плане отказоустойчивости и сохранности ext4 всё же лучше

Спорно. Впрочем, сам я не сравнивал, но плохих отзывов об xfs относительно ext3/4 не слышал. Сам всегда ext* использовал.
btrfs с недавних пор тоже можно считать лучше

На анрейдовских форумах пишут, что xfs надёжнее, btrfs умеет больше. xfs для основного массива рекомендуют, btrfs — для кэша.
без хорошего UPS юзать

Без ups вообще ничего юзать не рекомендуется. Особенно если делать вид, что это сервер.
тут я выбираю разок потрахаться

Для потрахаться обычно нужен некоторый уровень компетентности в вопросе. Не помешает ещё инструкция подходящая.
Хорошо, если старые инструкции ещё актуальны — ну и если они вообще есть. А ведь если разработчики сразу докер выбирали, как способ распространения, то инструкций может и не быть, самому придётся разбираться.
делегировать траханье мейнтейнерам

Далеко не весь софт включают в дистрибутивы.
трахаться постоянно с докером

Так фича анрейда в том, что в местном аппсторе всё уже затрахано до вас. :) Вам максимум пути к файлам указать надо да порты проверить, чтобы не пересекались с уже запущенными контейнерами.
Ну так что у меня будет в итоге, когда я к зеркалу 3+3 добавлю ещё диск на 5?

А это зависит от того, как добавите. Можно сделать 3 ТБ triple mirror, 3 (mirror) + 5 (span) в одном пуле, и даже 3+3+5 (span).


У меня сейчас вот перед носом ком на truenas с zfs — на нём свободно 3 гига из 16

А сколько из них ARC?

3 (mirror) + 5 (span) в одном пуле

Ок, 8 терабайт получается. А теперь 5 вылетает. Какая информация с него сохранится на массиве?
даже 3+3+5 (span)

И вот прямо таки без пересборки, ничего никуда не копируя зеркало можно превратить в страйп?
сколько из них ARC?

Пока нет активности и сервер сам себе шебуршит винтами — 8-10 гигов.
Ок, 8 терабайт получается. А теперь 5 вылетает. Какая информация с него сохранится на массиве?

Это ж не зеркало. Сильно зависит от того, что вы сделаете: в случае обычного span, естественно, ничего с пятерки не сохранится, да сам пул перейдет в FAULTED.
Но есть вариант: благодаря размазыванию метаданных (три копии, сохраняются на разные физические устройства, если таковые есть), сохранятся они. И то, что было помечено как zfs set copies=[2|3].
А если вы сделаете разные пулы и объедините их биндами, unionfs, overlay2, или любым другим способом — то и не будет FAULTED-массива.


И вот прямо таки без пересборки, ничего никуда не копируя зеркало можно превратить в страйп?

Можно. Зеркало можно в простой stripe:


zpool  detach <pool> <mirror dev participant>

разберет зеркало, а


zpool attach <pool> <exist dev> <new dev>

сконвертирует одночный vdev обратно в зеркало.


8-10 гигов
Зависит от сценария, конечно, но можно попробовать урезать осетра до пары ГБ, запретить кешировать холодную часть (zfs set primarycache=metadata).

Но, в любом случае, все это — за пределами немногочисленных крутилок в примитивном интерфейсе.

А если вы сделаете разные пулы и объедините их биндами, unionfs, overlay2, или любым другим способом — то и не будет FAULTED-массива.

Такими темпами скоро дойдём и до форматирования отдельных дисков в zfs, объединения их aufs и прикручивания сбоку snapraid'a. :)

все это — за пределами немногочисленных крутилок в примитивном интерфейсе.

Вот-вот. А нахрена мне промышленную файловую систему подгонять под свои казуальные нужды, если мне предоставляют готовое казуальное решение?

zfs нужна тогда, когда нужны её zfs-ные фишки. А под мои нужды её переделывать — это как из пушки по воробьям.
Если очень сильно хочется, то к unraid можно прикрутить zfs — плагин имеется. Но мне не хочется.
А нахрена мне промышленную файловую систему подгонять под свои казуальные нужды, если мне предоставляют готовое казуальное решение?

Тогда откуда у вас такие картинки, доктор вопросы:


А теперь 5 вылетает. Какая информация с него сохранится на массиве?

Раз пропала, так пропала)
Или вы хотите сказать, что в схожей конфигурации unraid что-то сохранит?


форматирования отдельных дисков в zfs, объединения их aufs и прикручивания сбоку snapraid'a

А snapraid-то там зачем? Он, вроде, к zfs ничего не добавит.
Можно не объединять, можно просто смонтировать в произвольную /media все пулы. Размазывания не будет, все части файлов будут находится на одном диске — фишка, доступная за 30 лет до появления unraid, емнип.

Тогда откуда у вас такие картинки, доктор вопросы:

Потому что казуалы тоже не особо любят терять информацию. Упарывать всерьёз в её защиту тоже не хотят, но какой-то минимальный сервис иметь хочется.
Или вы хотите сказать, что в схожей конфигурации unraid что-то сохранит?

В схожей конфигурации (3+3+5) у анрейда 5 пойдёт под parity и потерять можно один любой диск. Конечно, можно и без парити, но тогда это просто jbod будет.
А snapraid-то там зачем? Он, вроде, к zfs ничего не добавит.

Ну если вы не пользуетесь фишками избыточности файловой системы, а только для объединения дисков её используете и прочих снапшотов, то snapraid тут как раз ту самую избыточность и обеспечит.
фишка, доступная за 30 лет до появления unraid

Так я и не говорил, что unraid уникален. Наоборот, написал, что примерно ту же функциональность можно и самому собрать из конструктора.
Просто в unraid оно есть из коробки и достаточно удобным управлением.
В схожей конфигурации (3+3+5) у анрейда 5 пойдёт под parity

Извините, но нет: что там куда пойдет из этой записи (3+3+5) совершенно неясно, но использование сложения без дополнительных обозначений скорее говорит об 11 у.е. доступного места в результате — и parity там места уже нет.
Не говоря уже о том, что исходно вопрос был сформулирован так:


Ну так что у меня будет в итоге, когда я к зеркалу 3+3 добавлю ещё диск на 5?

И тут в любом случае нужна пересборка, чтобы 5 оказался с parity. Возможно, unraid это умеет из коробки…
Для parity есть raidz у zfs. Но чтобы преобразовать зеркало в raidz, его сперва потребуется расщепить, потом использовать один диск из зеркала, новый диск и какой-нибудь sparse zvol для создания нового пула с raidz, перевести пул в DEGRADED, отщепив zvol, и, наконец, мигрировать на него данные. Потом останется развалить старый пул и прицепить его диск к новому, как часть raidz, после чего начнется автоматический resilver.

И тут в любом случае нужна пересборка, чтобы 5 оказался с parity. Возможно, unraid это умеет из коробки…

У анрейда нету фишек zfs. Он товарищ простой. В массиве все диски jbod и один-два parity.
Потому, если заботиться о отказоустойчивости, то из двух дисков у него будут один под данные и один под парити. Если добавляем к ним третий большего размера, то он станет парити-диском. То есть из «типа зеркала» 3+3 эффективным объёмом в 3 терабайта добавлением третьего диска на 5 терабайт получим полностью отказоустойчивый массив эффективным объёмом в 6 терабайт. Да, два терабайта пропадут — так система устроена. Но при смерти одного из дисков все данные останутся на месте.

отребуется расщепить, потом использовать один диск из зеркала, новый диск и какой-нибудь sparse zvol для создания нового пула с raidz, перевести пул в DEGRADED, отщепив zvol, и, наконец, мигрировать на него данные

А мне все эти танцы совсем не нужны дома. Я диски туда-сюда дёргаю не так уж редко, так что постоянно собирать-разбирать массивы желания не имею.

Спасибо за пояснение.
Но тогда, по сути, 5 становится не parity а data: один parity в массиве уже есть.
Таким образом, аналог сводится к один раз собранному raidz, без дальнейших пересборок.


Правда, ваши файлы все равно будут размазаны.

Но тогда, по сути, 5 становится не parity а data: один parity в массиве уже есть.

Нет, большой диске именно как парити пойдёт. Там процесс примерно такой будет: замена парити3 на 5, ребилд парити на новый диск, добавление старого парити3 как диска для данных. Вот если добавляете диски такого же размера или меньшего, тогда ничего ребилдить не надо будет, просто новый диск занулить.

Я подробнее расскажу про это в следующих частях, потому что свободная замена дисков в массиве — это вообще основное, что мне требовалось. Остальное всё по остаточному принципу.

Танцев в итоге достаточно (особенно когда хочешь добавить диск, сохранив данные на нём), но всё же гораздо меньше, чем когда пытаешься в raid5 диск засунуть или вынуть. Как минимум — перекладывать информацию никуда не надо.

Правда, ваши файлы все равно будут размазаны.

Могут быть размазаны папки — один файл на одном диске, второй на другом. Хотя это настраивается, с какого уровня начинать папки размазывать. Но вот сами файлы всегда лежат целиком на одном диске.

unraid — это просто объединяющая файловая система типа всяких mergefs. И от связки mergefs+snapraid отличается только тем, что парити (после изначальной постройки) работает в реальном времени, а у snapraid надо гонять sync по крону.

Размазывание относилось к raidz, но спасибо за подробности )
Ждем-с продолжения!

Я потому и не хочу дома связываться со всякими raid'ами — что с пятыми, что с шестыми, что с зетами. Хотя бы потому, что в сервер идёт всё, что лежало на полке. У меня вообще на полке дохрена дисков лежит:
image
Другое дело, что большей частью там мелкий хлам (80-500), но несколько дисков от терабайта и выше в этой кучке есть. Наработка большая, но смарт чистый, так что сколько-то ещё протянут. И к себе бы я их воткнул — ещё два посадочных места есть, только sata-порты кончились, а контроллер m2-sata ещё в пути.

Вот на работе на серверах, где стоят несколько одинаковых дисков, можно и zfs с прочими рейдами разводить, тут диски обычно меняются всей пачкой раз в несколько лет и гибкость в использовании мусорных дисков не требуется.
Зато требуется возможность не останавливать сервер — для чего, в общем-то, raid и придумали.

Я для себя остановился на Proxmox VE как хостовой системе, а все задачи вынес в контейнеры и ВМ. Из контейнеров, сервер БД (MariaDB), бэкэнд, фронт, torserver. В качестве NAS поставил виртуалку с TrueNAS и пробросил туда физические диски. Ну и несколько виндовых виртуалок под тесты и RDP. К данному конфигу пришел не сразу, изначально был Qnap D2 (имхо уже морально устарел и не только морально) и отдельный ThinkCentre Tiny в качестве сервера (его то и стало не хватать в первую очередь), а держать две железки не с подручно. Как результат могу сказать, иметь один сервер который совмещает в себе и гипервизор и NAS в одной коробке те еще компромисы. После Qnap и Synology все что есть TrueNAS/OMV/Unraid не дотягивают своим юзерфренди до той планки что задали эти два бренда. Как итог ИМХО если стоит задача собрать гипервизор + nas в одной коробке, то 100% верного решения нет, везде даже за $ будут компромисы. Как говорится разделяй и властвуй.

После Qnap и Synology все что есть TrueNAS/OMV/Unraid не дотягивают своим юзерфренди

К сожалению, тут на одном конце шкалы дружелюбие интерфейса, на другой — свобода творчества. Через дружелюбный интерфейс можно реализовать далеко не всё, либо придётся реализовывать так, как задумывал разработчик. А когда вы полностью свободны — то всё приходится делать самому, за ручку никто не поведёт.
Так что приходится искать компромиссы в зависимости от своих задач и возможностей.

У меня основной хотелкой была свобода настройки дискового массива — возможность использовать любые диски, возможность их добавлять и удалять по желанию, но при этом иметь какую-то защиту. Таких решений не так много. Фактически, я три знаю:
1) Windows + Drivepool (и аналоги). Это у меня было. Простое в использовании, практически беспроблемное. На индикаторе «удобство/свобода» тут отображается «удобство».
2) Unraid. Это стало. Проблем добавилось, но они, скорее, идеологические — привык к одному способу, а тут надо переучиваться и менять привычки. Но, считаю, что в итоге всё окупится, приобретаю больше, чем теряю. Индикатор стоит где-то посередине. Стало менее удобно рулить файлами, но зато у меня теперь защита автоматом на весь массив и добавилось анрейдовских плюшек (докер и все-все-все).
3) aufs/mhddfs/… + snapraid. Тут сплошная свобода, но настраивать всё ручками придётся. Впрочем, в omv вроде как прикрутили базовое управление к веб-интерфейсу, надо посмотреть будет.

везде даже за $ будут компромисы

Да, кнопку «сделать хорошо» до сих пор не купить. Можно только хороший инструмент приобрести, но вот делать всё же приходится самому.

Полностью с Вами согласен. Просто в моем случае работа с контейнерами/вм идет на первом месте а NAS на втором (возможностей Qnap и Synology в качестве NAS меня более чем устраивало). По этому фишки проксмокса, для меня более актуальны чем жанглирование дисками в массиве.

>У меня основной хотелкой была свобода настройки дискового массива — возможность использовать любые диски, возможность их добавлять и удалять по желанию, но при этом иметь какую-то защиту.

Та же Synology продвигает это как одну из своих основных фишек. :)

Краем уха слышал. Вроде нельзя удалять диски.
Ну и synology на 6-8 дисков стоит больших денег.

Вроде нельзя удалять диски.

В смысле, а что, много есть рейдов, в которых можно не пересобирая рейд взять и уменьшить количество дисков?

synology на 6-8 дисков стоит больших денег

Есть опции, если брать на вырост. Кое-где NAS + полка расширения это дешевле чем NAS на много карманов.

что, много есть рейдов, в которых можно не пересобирая рейд взять и уменьшить количество дисков?

Ну я вон перечислил варианты, которые знаю. Просто добавлять диски или менять на большие можно много где. А вот свободно дёргать диски туда-сюда — тут не так много вариантов.

Есть опции, если брать на вырост. Кое-где NAS + полка расширения это дешевле чем NAS на много карманов.

Цены совершенно нереальные. Я рассматривал Synology на 4+ диска (в данный момент у меня в NAS используется 4 HDD для данных плюс 3 SSD для кэша и докера/вм) и понравившиеся мне варианты стоили от 40.000 и до 100.000+ рублей. В итоге я купил HBA LSI 9300-8i (переплатил, т.к. брал новый, а не б/у, да и вообще он не особо нужен - на материнке 8 SATA портов) и блок питания (старый не имел нужного количества SATA разьёмов). Что, даже с лицензией unraid, обошлось заметно дешевле 40.000 рублей. Хотя, разумеется, по физическим размерам NAS с готовыми решениями тягаться невозможно.

В смысле, а что, много есть рейдов, в которых можно не пересобирая рейд взять и уменьшить количество дисков?

Ну он не зря UNraid. Там нет преимущества в скорости чтения/записи, которые дают некоторые типы "настоящих" RAID, зато с дисками можно делать вообще что угодно. Для домашнего пользователя ИМХО это важнее. Не все могут позволить себе держать коробку cold spare дисков.

по физическим размерам NAS с готовыми решениями тягаться невозможно.

Можно попробовать. Конечно, такой миниатюризации не будет, но с ITX-корпусами можно подобраться достаточно близко. Впрочем, тогда и функциональность тоже близкая станет.

Есть всякие нюки и 2.5" диски. Емнип, мелькало что-то на два диска, под зеркало. Но то сильно на любителя.
Есть армы с SATA/PCI-E.

Есть армы с SATA/PCI-E.

Есть, конечно. И корпуса на 4sata я для rpi видел, вроде даже не сильно колхозные. На два — точно «промышленные» есть, на али продаются.

Но в итоге оно выйдет по мощности и функциональности как тот nas, а усилий и денег на сборку тоже сравнимо с ценой nas'a затратите.

Я, скорее, думал про itx-корпуса на 4-8 дисков. Они вполне сравнимы по размерам с NAS'ами с аналогичным количеством 3.5" слотов.

Еще и гибче выйдет, и проагрейдиться можно. Хороший корпус не стареет.

НЛО прилетело и опубликовало эту надпись здесь

Цены совершенно нереальные.

Цены там конские в большинстве своём за удобный вылизанный софт. В сравнении по железу всё не то.

Ну и за вендор-лок тоже денежку берут.
Буквально на днях историю слышал про то, как у человека qnap сдох многодисковый. Просто погас и больше не включился. А там «всё, нажитое непосильным трудом». Бэкапы он делал, но не проверял, потому последний был сделан месяц назад, грубо говоря. А вся бухгалтерия была в NAS'e.
Потому сперва он бегал и искал точно такую же модель. Ну или хотя бы такую, которая поддерживала бы апгрейд с его модели. Потому что другая линейка не смогла бы принять диски.
Потом внимательно пронумеровал диски, воткнул их в новый nas. Тот полчаса пожужжал и сказал «мужик, а у меня ведь отсеки совсем по другому нумеруются и диски ты воткнул неправильно. но ничего, ща я их как-нибудь того...»
В итоге диски всё же собрались в нужном порядке, хозяева, отменяя все апдейты и другие запросы кое-как добрались до консоли, слили нужную инфу, а потом уже стали ставить апдейты, гонять чекдиски и всё такое.

В случае же обычного компа с любой ОС — хоть omv, хоть трунас, хоть анрейд, хоть винда — просто перекинули бы диски в любой другой комп да там подцепили массив. И без разницы, в каком порядке диски были.

Давайте в качестве доказательства, что один вендор - говно брать в пример (судя по истории) крайне устаревшую модель другого вендора.

Причём обсуждая цены на софт ставить в пример аппаратные проблемы.

Причём человек сам не обновлялся и не следил за бекапами. А виноват почему-то вендор. Пусть и не тот.

Я не обеляю, у вендоров прямо есть проблемы, но подход выше - вообще отстой.

Я не про софт пример приводил, а про вендор-лок. С покупкой любого NAS'а вы привязываетесь к конкретному производителю — и, возможно, к конкретной линейке его устройств. Это надо учитывать.

Что человек не проверял бэкапы — да, плохо. Но это не самая редкая ситуация, даже наоборот.
И что не обновлял NAS, а работал на старой модели, тоже не лучший вариант, но тоже — кто обновляет NASы, пока они работают и с задачами справляются?
Я бы даже добавил что софт хороший(сам использую xpenology), но вот физические пластиковые корпуса это какое-то издевательство за такие цены, покупать за 1-3k$ простенький(в плане железа) NAS чтобы потом проклеивать его, чтобы не дребезжал пластик, это за гранью.

3+3+5+6+8+8 ... Я видимо, не читая первой части, не понял, для чего дома такой массив, как собственно и сам сервер, если только вы не работаете с Вэб приложениями, часть которых, по непонятным мне причинам, находятся у вас дома, а не на корпоративном сервере. Понято, что на удалёнке очень удобно иметь сервер рядом, весь процесс отладки сильно ускоряется, особенно когда кто-то из команды работает с теми же базами, у вас, в этом случае, явное преимущество перед остальными.

Потому что это дешевле, чем такой объём арендовать на хостинге. И скорость доступа выше. И контроль есть.

Лет 5 назад, я здесь, на хабре, к статье про "крутые" и "дешевые" VPS сервера в аренду, я написал, что нет ничего лучше, чем своя машина дома с выделенным IP, причем на то время, для начального уровня, б/у ноутбук за 4 тыс. руб + SSD + процессор на 4 ядра (не обязательно) = дармовой web сервер под .NET, по всем, буквально по всем параметрам превосходящий аренду.

Так мне там, только что голову не открутили...) Но убить, у многоих желание было...) Хотя аргументированно ни один пункт оспорить не смогли.

Одно другому не мешает, вообще-то. У меня есть и простенький vps на hetzner'е, и личный серверок в рабочей серверной (со своим личным каналом в интернеты), и домашний сервер вот.

Впрочем, на бу-ноутбук в качестве сервера я бы и сам наехал. :)

да, и чем же он хуже для вялозагруженного приложения? ИБП - аккумулятор, потребление электроэнергии стремится к 0, минимум шума, минимум занимаемого места. хоть один аргумент для вэба? у меня уже 5 лет работает, и радует своей абсолютной непритязательностью, я его раз в год достаю только для чистки от пыли и замены темоинтерфейса под процессором.

Открытый ноутбук сложнее сунуть в шкаф, а закрытый и работающий будет греться слишком хорошо. Два диска не в любой поставить можно, а лично для меня любой сервер или NAS должен иметь минимум два диска. Разнос системы и данные, бэкапы, зеркала и т.п. — в зависимости от потребностей.
Однодисковые решения — профанация.
Болтающиеся снаружи usb-диски — тоже не фонтан. Рекорд я, по-моему, видел у одного товарища с шестью внешними дисками, к ноуту подключенными. Частично через хаб, частично то были 3.5" варианты со собственными БП.
Болтающиеся снаружи usb-диски

Мракота… USB-интерфейс же не обеспечивает до версии 3.0 проверки целостности данных: на плохом кабеле легко можно записать фигню и не заметить. И даже 3.x Type-A может легко свалиться в 2.0 — тоже совершенно незаметно, диффпары отваливаются от дыхания рядом.

...Открытый ноутбук сложнее сунуть в шкаф, а закрытый и работающий будет греться слишком хорошо...

ошибка. закрытая крышка гасит монитор, а работа системы охлаждения ноута абсолютно не зависит от положения крышки. и по этому ноут лежит не В шкафу, а НА шкафу, и вполне комфортно себя чувствует.

...Два диска не в любой поставить можно ... точно не в любой, а только в тот, где есть CD привод.

...Разнос системы и данные, бэкапы, зеркала и т.п. — в зависимости от потребностей... Вот именно, от потребностей, а реальность говорит обратное, когда на арендованном ресурсе рухнул рэйд,(если он там вообще был) мне просто сообщили: - извините, бла,бла,бла... ваши проблемы.

разнос системы и данные - в едином пространстве все точно так-же работает.

бекапы... - это не минус, это и есть решение - делаем автобэкап баз в любое другое место, хот раз в час , и в случае падения диска - восстанавливаем на новый, для низкозагруженного сервиса простой несущественный.

зеркала - можно, но не нужно, в 99% случаев.

 ...NAS должен иметь минимум два диска... в вэб приложении, даже фото, видео, и другой мусор можно прямо в базу, но, ничего не мешает и в файловой системе, естественно с автокопированием. медийный контент не имеется ввиду, поскольку разные порталы с пиратским видео или аудио рядом меня не касаются.

...Однодисковые решения — профанация... выше уже говорили, о профанации. если работает и все довольны, то это не тот термин.

...Болтающиеся снаружи usb-диски — тоже не фонтан... если вам нужны сумасшедшие объемы, то конечно покупаем стойку, и лепим, лепим, raid, потому что в аренду брать большое дисковое пространство очень дорого, но, что же там хранить? и это совершенно не тот случай, когда в 90% берут в аренду VPS и размещают там свой интернет магазин, с посещаемостью в 1000 человек в неделю, а когда посчитали, прослезились, сколько денег спущено на ветер.

работа системы охлаждения ноута абсолютно не зависит от положения крышки

Очень многие ноуты охлаждаются через клавиатуру в том числе.
только в тот, где есть CD привод.

Не только, есть варианты. Бывают просто ноуты с двумя посадочными местами под 2.5", бывают такие, в которые можно одновременно сунуть msata/m2 и 2.5". Ну и замена привода на винт тоже, да.
ваши проблемы.

В общем-то да. Особенно если бэкапы не подключали. Да и то, всё равно надо у себя тоже копию «облака» хранить.
если работает и все довольны, то это не тот термин.

Ну вот пока работает — тогда и довольны. Как перестанет работать — так резко перестанут быть довольны.
90% берут в аренду VPS и размещают там свой интернет магазин, с посещаемостью в 1000 человек в неделю, а когда посчитали, прослезились, сколько денег спущено на ветер.

Если при цене VPS в 5-10 баксов в месяц сайт магазина не окупает даже эти 10 баксов, то может магазин и не нужен? А просто сделать статичную визитку где-нибудь в гуглостраницах…

...Если при цене VPS в 5-10 баксов в месяц сайт магазина не окупает даже эти 10 баксов, то может магазин и не нужен? ...

Я не знаю сколько сегодня просят хорошие парни, но 5-10 будет убогий, типа ruvds? вы там пробовали брать аренду? я пробовал, трое суток простоя, и тех поддержка говорит - у нас все работает! пока пальцем не ткнешь и результаты тестов не покажешь, в моем случае от многоядерного процессора, реально была выделена производительность до 400 мгц. они ее позже признали, как и все осталные косяки, которыми мне полоскали голову.

я смотрел за арендованными ресурсами, три года, и частая просадка производительности - это неизбежное, обычное дело, у всех, и хваленых и отстойных.

никакой реальной доступности 24 часа не может быть и речи, ни у кого из них.

эти две проблемы приводят к понижению рейтинга сайта роботом гугла, вас отодвигают в поисковых запросах, за ваш счет, обидно.

Магазин нужен, но не для того, чтобы кормить чужого дядю. 10$ Х 12 мес. 120$ = это уже вполне работоспособный ноутбук, его обслуживание, по факту, проще чем возня с арендованными ресурсами.

Человека проще научить простейшим операциям на SSMS и IIS, на его ноутбуке, чем управляться с проблемами на арендованных ресурсах, которые будут вашими, а не заказчика портала, только потому, что они возникают там всякий разн новые.

но 5-10 будет убогий, типа ruvds?

Меня много лет полностью устраивает hetzner. С их поддержкой не общался вообще не разу — не было причин.
Цены на vps начинаются с 4 евро за 1ядро/2ГБ ОЗУ/20 гигов диска.
Лично я плачу 8 евро за 3 ядра/4 гига/80ГБ плюс 2 евро за бэкапы.
Проблем со связью я не помню.
Единственное, что когда-то было из серьёзных проблем — это когда на бэушном сервере пошел бэдами один из двух винтов. Это заставило несколько пересмотреть приоритеты, плюс тогда евро с долларов как раз начинали свой путь к 100 рублям, потому я решил толстое и серьёзное хостить у себя, а vps использовать для тех вещей, которые не должны зависеть от доступности моего домашнего интернета — блог, всякие веб-сервисы (типа tt-rss), vpn европейский, пинговался и т.п.

никакой реальной доступности 24 часа не может быть и речи, ни у кого из них.

На домашнем интернете тоже не может быть никакой 24хчасовой доступности. Только если озаботиться резервным каналом и настроить балансировку — а это значит, что точка входа всё равно должна быть где-то снаружи.
Магазин нужен, но не для того, чтобы кормить чужого дядю.

Любой бизнес кормит кучу чужих дядей — накладных расходов немеряно.
0$ Х 12 мес. 120$ = это уже вполне работоспособный ноутбук, его обслуживание, по факту, проще чем возня с арендованными ресурсами.

Возня «с арендованными ресурсами» ничем не отличается от возни с ноутбуком, особенно если и там и там одна и та же ОС используется. Только ноутбуку надо оплачивать интернет, электричество, сдувать пыль и т.п.

Сегодня мне буквально звонил народ, который хостил «сайт» у себя. Приходил провайдер к их соседям, увидел роутер, не увидел его в своей базе, сбросил настройки и переставил роутер к соседям. По вопросу «что за фигня» воткнул их интернет обратно в роутер — но настройки были уже соседские, с другим IP (приватным) и т.п.
А у людей был реальный IP и что-то там хостилось, какой-то проброс портов был, по-моему. Своего админа у них нет, настройки никто не помнит, с провайдера их требовать бессмысленно и т.п.
И сидят они теперь без «сайта».

...Возня «с арендованными ресурсами» ничем не отличается от возни с ноутбуком, особенно если и там и там одна и та же ОС используется...

Ну вот, что и требовалось доказать. В ваших рассуждениях отсутствует самое главное - хороший опыт использования арендованных ресурсов, поскольку такие сравнения вы не стали бы проводить, когда вас пару раз в неделю, среди ночи, поподнимают, например компания доставщик еды в поезда, там каждая минута имеет значение, поезд может уйти.

и конечно можно дублировать доступ, у другого провайдера прикупив канал и еще один IP, но даже не потребовалось, все работает и так.

вас пару раз в неделю, среди ночи, поподнимают, например компания доставщик еды в поезда, там каждая минута имеет значение, поезд может уйти.

А дома нет электричества, интернета, вас нет дома, на шкаф залезла кошка и уснула на ноутбуке, заткнув хвостом вентиляцию…
можно дублировать доступ, у другого провайдера прикупив канал и еще один IP

Так можно, но балансировщик должен снаружи где-то хостится будет, чтобы на рабочий ip пакеты переправлять. Конечно, можно тупо два ip для одного имени указать, но там многое от клиента зависит, как он будет обрабатывать ситуацию, когда первый по списку ip недоступен — сразу обломится или пойдёт на следующий адрес.
все работает и так.

Пока работает. Это та самая ошибка выжившего — если я жив, то всё делаю правильно. А ему просто везёт.

Хохмы ради о своём домашнем сервере:

  • Дома нет электричества — CHECK!

  • Закончился Интернет, а я забыл проплатить — CHECK!

  • Меня нет дома (а сервер ушёл в OOM) — CHECK!

  • Кошка уронила сервер (физически) — CHECK!

Выводы сделаны, жду новых отказов.

...а работа системы охлаждения ноута абсолютно не зависит от положения крышки. ...

Вот кстати зря вы так, зависит и немало. Верхний слой с клавиатурой также отводят тепло. Закрывая крышку оно уходить будет несколько медленнее. А на некоторых ноутах разница температур цпу с закрытой крышкой может достигать все 10-15гр. Но если не сильно нагружать, то в целом пофиг

Ну вы подняли тему годовалой давности... ) Сколько ноутбуков я не вскрывал, ни разу не видел сквозных отверстий между клавишами... Обычно они лежат на цельной алюминиевой пластине, там просто некуда протекать воздушному потоку. Да, бывают отверстия у петель монитора, но там охлаждать нечего. Охлаждать нужно маму, ссд, память. А тепло с проца выносится медной трубкой и сдувается вентилятором.

Может вы забыли монитор погасить программно? Когда крышку закрыли. Тогда конечно, 15 градусов от светодиодов подсветки может и подпрыгнуть. Лучшее решение - своевременная чистка радиатора выхлопа струёй воды с Фейри. И маму тоже, водой с Фейри, идеально чисто.

Зависит от ноута. У многих клавиатура заметно греется во время работы.

Обычно они лежат на цельной алюминиевой пластине, там просто некуда протекать воздушному потоку

Так эта пластина тепло и отводит. Нагревается от материнки, а затем отдаёт излишек тепла наверх как может. И если крышку закрыть, то отдавать будет хуже.

у моего 8 ядерного, с закрытой крышкой, годами, без нагрузки - 47 градусов. Что у меня не так?

поставьте вот это: ZALMAN ZM-NC1000, если у вас он такой горячий.

и не трогайте крышку.

Ещё раз — «зависит от ноута».
Если ваш справляется с охлаждением с закрытой крышкой — не значит, что другие будут справляться.
Мне вообще как-то с подплавленной клавиатурой приносили, но там, ко всему прочему, похоже, что дисплей не отключался при закрытой крышке.

Подплавленная клавиатура бывает когда ноут на подушке лежал или пыль забила радиатор на термотрубке полностью, тут уже хоть закрыта крышка, хоть открыта... Выдув вверх это экзотика, а в массовом, бюджетном сегменте, все плюс минус одинаково.

Один раз только видел подплавленную клавиатуру, которая «естественным» путём образовалась.
Ещё пара-тройка случаев была — там ноут залили и решили феном посушить.

У меня сейчас такой лежит, принесли в подарок, три клавиши в верхнем ряду потекли, как раз над радиатором. ремонтировать его уже смысла нет, стартовать он не хочет, а прожаривать занятие неблагодарное. Зря только время потратил на разбор.

Ну, например, у ROG G513QY крышка просто закрывает клавиатуру, и никак не влияет на теплообмен. А вот Thinkpad E495 — перекрывает выдув в любом положении (но в открытом меньше). У Mateview 16s — закрытая крышка выдув полностью блокирует, и хрен это поймешь из презентации.

Я не знаю, какой процент таких ноутбуков на рынке, наверно стремится к нулю, потому что обычно термотрубка с процессора и с видеочипа идёт к боковым или задней поверхности, а вентилятор сдувает жар всегда наружу, если кто-то догадался выносить тепло вверх а не в сторону. Тут только можно удивляться талантливым инженерным решениям, но такая дичь большая редкость.

Совсем альтернатива это макбуки на интеле с вентилятором в центре корпуса…


Трубка во всех трех идет к боковым/задним поверхностям ))
Но у кого-то выход только на бок, у кого-то только назад, у кого-то с и туда и туда.
У тонких без видеокарты вывод только назад, в основном. И тут начинается самое веселое: ради уменьшения толщины шарнир крышки не поднимается, как у того же G513, а поворачивается. Таким образом, прилегающая к нему часть крышки (от левого до правого) всегда перекрывает выдув, разница между открытым и закрытым положениями лишь в том насколько.
Ну а с затрудненным выводом тепло удерживается внутри и начинает выходить через места, вовсе для этого не планировавшиеся…

Производители вообще не указывают самый важный параметр - на сколько секунд хватает их ущербной системы охлаждения до троттлинга. По логике надо улучшать её эффективность, так зачем, главное дешевле, тоньше и выгодней продать, а то, что там i7 останавливается через 15 секунд в полной нагрузке, да и не важно, главное в прайсе он указан.

Это боль, да.
Потому, посмотрев на разные недоноуты задорого, этот решил взять геймерский. Правда, у него буст после сна врубается самостоятельно и не отключается обратно, но это уже мелочи)

НЛО прилетело и опубликовало эту надпись здесь
Это вы зря, старые ноуты обычно как раз в два диска могли

Так я не говорю, что «в любой нельзя», я говорю, что не в любой можно. :)
НЛО прилетело и опубликовало эту надпись здесь
Скажем так, в 15 и выше практически всегда вместо CD можно было.
В 14 и ниже — уже от модели зависело.
НЛО прилетело и опубликовало эту надпись здесь
На несколько дисков — это если порт умеет с репликаторами работать. Это далеко не все умели, у меня валяется плата-репликатор на пять портов, так лучшее, что я от неё добился — это показывать первый подключенный диск, остальные игнорируются.

По идее, её надо подключать к контроллеру, который умеет raid'ы создавать. Было ли такое в нотбуках — не знаю. Хотя у меня тоже есть ноут с esata.
НЛО прилетело и опубликовало эту надпись здесь
Коробки были, но поддержка со стороны хоста всё равно нужна была. Тому же микросерверу gen7, насколько помню, надо было биос патчить.
Ну или если коробка сама внутри себя рейд изображала и одним диском представлялась, тогда могла с любым хостом работать.
Если же диски полностью пробрасывать в файлопомойку, то у самого гипервизора дисков не останется.

Честно говоря несовсем понятен этот момент. У меня на Proxmox спокойно работает такая конфигурация, когда отданы не все диски, а только один из разделов.


boot (sda2+sdb2=md0)
/root (sda3+sdb3=md1) — Debian, а поверх него Proxmox
storage (sda4+sdb4=md2) — Раздел под диск для OpenMediaVault.


Затем убираем md2 из /etc/fstab и пихаем его в виртуалку.


scsi0: ssd:vm-110-disk-0,discard=on,size=20G,ssd=1
scsi1: /dev/md2,backup=0,replicate=0


Кто на ком стоять будет? В общем, не особо мне такое нравится.

Да вроде всё нормально. В дебиане можно сделать mount md2 и что-то на него записать/считать, но одновременно с OpenMediaVault он работать не будет, нужно его останавливать, а иначе ошибки файловой системы. То есть Proxmox без всяких посредников просто пишет/читает на md2 без всяких посредников и абстракций. Скорость SMB максимальная.

спокойно работает такая конфигурация, когда отданы не все диски

Ну так вы не все диски отдали — вот и работает спокойно.

А прокс на zfs и отдать omv контейнер с privileged=1 не пробовали? Получится ли в этом случае управлять датасетами из omv?

Чем не устроил связка openMediaVault + next cloud

Мне не нравится, как меняется omv от версии к версии. Это раз.
Интерфейс у него тот ещё. Это два.
Чтобы реализовать мои запросы в плане гибкости замены дисков, придётся потрудиться в командной строке. Вроде как в omv есть управление разными видами union fs, да и snapraid имеется, но тюнинг того snapraid'a и использование всё равно только написанием команд, а не нажимаением кнопочек в gui.

А Onecloud вообще как-то не могу представить, где мне может понадобиться.

Пару лет назад себе собрал. Поставил xpenology. Хотя изначально смотрел в сторону FreeNAS, но в моем сценари zfs добавляет много неудобств при расширении массива.

Плата расширения через райзер? Только с itx или к matx тоже можно его пристроить?

Материнка mATX Gigabyte C246M WU4. Это не райзер, а просто гибкий удлинитель для pci-e. Пробовал подключить модуль wi-fi - но со сторонним железом у Synology/Xpenology сложно всё.

Уже в то время у меня были забиты все 8 дисков. А на данный момент ещё два выведены наружу через удлинители, что не очень красиво, но пока сняло вопрос о поиске новой коробки.

Хочется переехать в стойку, но я пока не готов слушать этот шум дома.

Просто для информации - у QNAP есть платный QuTSCloud для самостоятельного развертывания в виде образа для гипервизора. Недавно снилизи цену, минимально 5$ за 1 ядро в месяц. Из плюсов: красиво, много доп. пакетов, из минусов: нет поддержки ZFS и не будет (поддержка есть в мощных Enterprise железках с отдельной ОС QTSHero).

но мне не удалось нормально прокинуть жесткие диски в виртуальную машину.

Не совсем понял: стояла задача пробросить в виртуалку диск как диск, не создавая vmdk?

Да, мне хотелось, чтобы доступ к SMART был.
Можно было попытаться пробросить контроллер целиком — но тогда бы ESXi осталась вообще без доступа к дискам.

Заинтересовало ваше упоминание Drivepool. Не могли бы вы описать сценарий его использования? Ну или мою хотелку прокомментировать:

Насколько я понял, он не "посекторно" дублирует диски (в отличие от RAID), а на уровне файлов. Т.е. указываем ему папку, он файлы из нее дублирует еще куда-то.

Есть ноут. Есть NAS. К ноуту монтирую диск с NAS (SMB/NFS/iSCSI - не критично, я думаю). Настраиваю, какие папки с дисков ноута дублировать на подмонтированный диск.

Правильный ли сценарий? Особенно с учетом того, что в ноуте NVMe, а подмонтированные диски медленные (2000MB/sec против 100MB/sec). Боюсь, я на NVMe большой PSD пару раз перезапишу (нажму Save) быстрее, чем он по сети на обычный вращающийся диск запишется...

Сейчас у меня примерно так реализовано на GoodSync (он синхронизирует файл куда-то после некоторого таймаута). А здесь как?

Но, как мне показалось, Drivepool сам решает, на какой носитель ему что продублировать. С GoodSync так просто не получится одну большую папку (диск), скажем, 2 TB синхронизировать на 3 диска по 1TB. Придется "делить", какие подпапки лить на внешний Диск1, какие на внешний Диск2... Drivepool в этом отношении удобнее?

У меня Drivepool уже 5-7 лет крутится. Я на него перешёл после того как сдох RAID контроллер) Сейчас два одинаковых по размеру диска в пуле. Включена дубликация папок. В системе видится только один диск, реально на дисках на уровне ФС данные просто дублируются. Это как бы софт-рейд, но не софт-рейд) Решение надёжно. Одно время ПК с завидной периодичностью открбался или некорректно перезагружался. После загрузки автоматом начинала выполняться проверка целостности и пересчёт пула. Для (6+6) Тб времени это занимало прилично, но всегда всё успешно заканчивалось. В принципе, даже работать можно было, так как это всё в фоне идёт, но я предпочитал подождать.

Это всё — на основном ПК. Бэкап делает непериодически на NAS используя FreeFileSync. Раз в год делает холодный бекап на «диск на полке». Ужас какая дисковая избыточность, конечно, получается, но те, кто хоть раз терял критические данные думаю меня поймут.
Drivepool — вещь, конечно, хорошая, но если речь идёт именно о полном дублировании диска, то я бы предпочёл хотя бы виндовое зеркало. Ну или настроил на одном диске историю файлов, а второй отдал бы под её хранение.

Всё же прелесть drivepool'а именно в том, что можно дублировать не весь диск, а определённые папки, потому ваш сценарий смотрится несколько странноватым. Но можно, конечно, не спорю.
Тут я и сам соглашусь, так как изначально и собирался потом в пул разнокалиберные диски подсовывать, но… когда подходило время проблема объёма решалась кардинальным способом — заменой обоих дисков. А отработавшие перекочёвывали в другие места.
habr.com/ru/post/193870 — писал когда-то обзор. До сих пор актуально.

Drivepool делает две вещи:
1) Объединяет несколько локальных дисков в один. С сетевыми не работает. Подключенный через iscsi плюс локальный — не пробовал, но, возможно, сработает.
2) Может одну папку одновременно хранить на нескольких дисках.

Ну и всякая косметика в плане того, в каком именно порядке раскладывать файлы. Но привязки файлов к конкретным дискам нет, там только правила вида «равномерно размазываем по всем дискам», «заполняем один до упора, потом следующий» и т.п. Плюс можно разделить диски на архивные и «оперативные» — тогда информация сперва пишется на оперативный, затем переползает на архивные.

Сейчас у меня примерно так реализовано на GoodSync (он синхронизирует файл куда-то после некоторого таймаута). А здесь как?

Goodsync — это всё же синхронизатор/бэкапилка. А drivepool — это некое подобие RAID'а.
Разные задачи. Думаю, что вашу хотелку при помощи drivepool не реализовать. Хотя бы из-за того, что если вы объедините локальный диск с сетевым, drivepool размажет какую-нибудь папку на два диска (не сдублирует, а именно размажет), вы сетевой отключите — и останетесь без части файлов. Конечно, можно включить дублирование вообще всем папками, тогда файлы будут лежать сразу на двух дисках — но системные файлы я бы драйвпулу не доверил, у него есть некоторые вопросы при работе с активно изменяемыми файлами.

Теперь понял, спасибо.

Действителдьно, мне же надо вполне легитимно с ноутом уезжать из дома. И лишь п возвращении чтобы он синхронизовал все с основного внутреннего диска на внешние. А Drivepool, как я теперь вижу, не имеет primary.

Для других задач хорош, но не для этой моей.

С вашими запросами использование drivepool могло бы выглядеть так: на сервере его устанавливаете и объединяете три терабайтных диска в один. А goodsync потом на него спокойно заливает двухтерабайтную папку.

Но это сервер виндовый должен быть.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации