Открыть список
Как стать автором
Обновить

Комментарии 13

Странная штуковина. Как у неё с надёжностью? Если вытащить 2 винта — что будет?
Смысл составлять рейды, если они один фиг размажуться по всей полке?
Все в отпуске — ноль коментов?
Система без единой точки отказа, уровень надежности «шесть девяток».
Вытащим 2 винта — потеряем производительность, равную производительности этих двух жестких дисков, данные сохраняются.
Смысл рейдов как раз, чтобы вытащенные диски не влекли к потере данных.
«Каждый том на EVA, таким образом, получает IOPS от всех дисков, которые образуют virtual disk, что дает прирост в производительности.»
Как я понимаю при параллельной записи iops дисков(в отличии от bps) не складываются, а упирается в наименьший, а у HDD с этим часто проблемы. Может не так понял?
Гм… Скорее так: запись одного блока производится на указанное количество дисков, но от блока к блоку список дисков меняется, в итоге iops равномерно распределяются по дискам, а скорость записи/чтения увеличивается не в расчёте на блок, а при последовательных операциях, когда приходят запросы на чтение сразу нескольких блоков?
Совершенно верно, блок №1 записывается на диски A,B,C,D,E,F,G,H (относительное обозначение), блок №2 будет записываться на диски А1,B1,C1,D1,E1,F1,G1,H1 и так далее. При чтении большого числа блоков мы обращаемся сразу к большому числу дисков, т.е. как вы и написали.
если речь идет о зеркалировании — да, самый медленный будет оттормаживать весь масив. а тут по сути нет зеркалирования…
Получается, что никаких рейдов тут не надо, просто отпиливаем сколько нужно под что нужно и все?
RAID остается, я рассказал об алгоритме построения LUN на примере использования RAID5.
Для наглядности диски из разных полок поставлены в ряд. Схематически показан пример записи двух блоков данных по 8 МБ в RAID5 (4 блока данных и 1 блок четности) на примере EVA 4400.

Только он строится размазыванием данных по всем дискам (т.н. виртуализация), которые отданы LUNу.
В классическом RAID5 возможен выход из строя одного диска, при потере двух дисков массив разваливается. У Вас написано, что для VRAID5 возможен выход 6 дисков. Получается, что данные избыточности пишутся на более чем один диск? Поясните этот момент.
Исходя из примера — имеем 50 дисков, т.е. это будет 6 групп RSS (5 групп по 8 дисков и, допустим, 1 группа по 10 дисков). RSS может содержать до 11 дисков (в группе может быть больше 8 дисков, если общее число дисков не кратно 8, как в нашем примере с 50-ю дисками). В каждой из этих групп можно потерять без особого проседания производительности по 1 диску, т.е. 6 дисков на группу из 50 дисков.
Потери более 6 дисков будут приводить к процессу перемещения триггеров и перестройки RSS, что может повлиять на производительность, но это не приведет к потере данных.
То есть потерять «шесть любых дисков одновременно», и сохранить при этом информацию не получится?
В описанной в тексте конфигурации — получится, ну а если дисков всего, например, 12, то нет.
Дело в том, в что в EVA RAID виртуальный, то-есть на дисковой группе виртуальный диск, которому присваевается определённый тип Vraid, и в этом «диске» (который размазан по всем дискам дисковой группы) чётность идёт по правилам того типа рейда, который вы указали.
Причём на одной и той же дисковой группе можно создавать разые уровни рейда одновременно.
К примеру, у нас есть дисковая группа из 25 дисков 2.5'' 300 GB 15k, RAW объём составит 6982,5 GB. Объединив все эти диски в дискововую группу и резервированием объёма 2-х дисков под SPARE получим 6423,9 GB доступного пространства.
Теперь нарезаем на данной группе vDisc1 объёмом 2TB c Vraid 5, vDisc2 объёмом 1TB c Vraid и ещё vDisc объёмом 1.5TB c Vraid1. Итого мы молучили сразу 3 независимых RAID группыкоторыые работают на всех 25 дисках и каждая группа имеет Spare объёмом в 558,6GB.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

Информация

Дата основания
Местоположение
США
Сайт
www.hpe.com
Численность
5 001–10 000 человек
Дата регистрации

Блог на Хабре