Pull to refresh

Comments 12

То есть, неродной для линукса ZFS настраивается проще и быстрее чем родной MDRAID, на который инсталляторы большинства дистрибутивов ставят ОС уже много лет без лишних телодвижений? Очень сомнительно. Если что — сабж не ставил.

Я сам любитель ZFS, но для решения такой простой задачи в линуксе это оверкилл.
Команда Proxmox много лет у себя в вики и на форуме упорно не рекомендовала использовать софтовый рейд, но потом вдруг сделала в инсталляторе ZFS «из коробки». Почему только ZFS мне совершенно непонятно, с таким-же успехом можно было и вариант установки на зеркало mdadm.
Оставлю пожелания-вопросы:
1) UUID — очень нечитабельные метки. Разве в Линуксе нет возможности на диски «навесить» свои GPT метки и собрать по ним диски в пул?
2) gpart не в базовой паставки Линукса :(
3) Непонятен механизм подключение дисков с Sector Sizes = 4K bytes physical
4) Есть ли в реализации линуксового ZFS опция autoexpand? что будет, при расширении дисков в ручном и автоматическом режиме? будет ли как уже существующих данных?
Принято, по возможности дополню эти пункты в статью.
Спасибо, очень интересно. Если в сервер потенциально можно доставить ещё дисков, то вполне возможно такое решение оправдано.

Тоже как раз нарисовалась задача поставить PVE4 на 4 диска. Только вот там доставить дисков не получится. Вот и думаю, ставить классический mdadm raid10 или уже стоит переходить на новые технологии. Тем более, что в PVE ZFS поддерживается.

Кстати, правильно я понимаю (судя по Installing for i386-pc platform), вы сервер загружаете через BIOS/CSM? На вики PVE пишут, что корень на ZFS не живёт с UEFI.
Я тоже пока «приглядываюсь» к ZFS, там много интересных плюшек, но, ИМХО, это все только в raidz. А для него уже надо от 6 дисков + памяти выделять немеряно — гигов 10 только на поиграться, а сколько оно в продакшене будет потреблять?

Я в реальной работе пока использую mdadm raid1 (10) если мало дисков и бюджетно надо.

Да, все верно, BIOS Legacy mode.
От 6? Та же вики PVE утверждает, что от 3(raidz)/4(raidz2) штук.

Т.е. за те три года с тех пор пока у меня появился первый UEFI-only сервера, ситуация с софтрейдами нисколько не улучшилась (mdadm/zfs). Это печально.
А как она должна была улучшиться?
Актуальной проблемой сейчас является то, что в UEFI не предусмотрено механизма резервирования ESP, которая по сути не совместима с программными RAID-массивами. Три года назад я надеялся, что сообщество придумает какие-то «трюки» для добавления отказоустойчивости к ESP и придет к какому-то общему знаменателю.

Но этого не произошло. И, видимо, не произоидёт. Сейчас я думаю это можно решить только обновлением стандарта UEFI. Пока же ставим либо аппаратный RAID+UEFI (машины подороже) либо SoftwareRAID+CSM (для бедных).

Рад был бы ошибаться.
Спасибо за исчерпывающий ответ! Как все эти слова называются, не знал, но тоже, меня всегда интересовало, как в softraid быть с FAT32 служебной партицией.
Кстати, про RAID10. Попробовал установить PVE4 с корневым пулом ZFS в режиме RAID10 на 4 диска (штатно, через инсталлятор). В результате имеем только два из четерёх дисков с разделами BIOS boot И только на них и установлен груб (судя по сигнатуре в начале диска). Итого, это по сути RAID1.

Сыровато ещё, похоже :-)

P.S.: ну и тоже не понимаю, почему бы не быть честным до конца и не сделать штатный рейд mdadm в инсталляторе.
Sign up to leave a comment.

Articles

Change theme settings