Как стать автором
Обновить

Комментарии 12

Спасибо! Интересно было почитать :)
как часть NetApp HCI на его платформе

Даже NetApp не скрывает, что там Supermicro.
Здесь имеется ввиду, что на базе HCI, а не что NetApp производит под него платформу.
Прочел, зацепили строки про 30 секунд деградации скорости до нуля. А вы в курсе, что происходит с фс внутри виртуальной машины в этом случае? При невозможности сделать коммит суперблока она перейдет в режим read-only. После чего виртуалку нужно тупо перезапускать.
Конечно, qemu умный и может сделать паузу для виртуалки пока не сможет записать кусок данных, но мне кажется, что деградация на 30 секунд это перебор.
Это нужно принимать в расчёт и настраивать ВМ соотвественно.
30 секунд это деградация производительности относительно производительности до выхода из строя ноды, а не 30 секунд остановки I/O на хостах. Да и собственно «30 секунд» по-моему у большинства вендоров СХД является нормальным показателем в случае выхода из строя одного из контроллеров.
Из 10ТБ заполненных данными — реально занятого пространства на массиве было 4ТБ. Эффективность дедупликации — 1:2.5

Как можно видеть, типы данных и гарантированный коэффициенты у них немного отличаются. К примеру, у SolidFire есть именно наш случай — Virtual Infrastructure с коэффициентом 4:1

Я что-то не так понял или цифры не сходятся?
Я что-то не так понял или цифры не сходятся?

Естественно, мы же не развернули всего 10-к виртуальный машин и заполнили их мусором под завязку
Непонятно, почему получив в первом тесте 190к iops из 200 обещанных делается вывод о том, что «заявленная производительность достигнута».
Тесты на современных SSD, к сожалению, нужно гонять с недельку. У меня был случай, когда кластер из машин с несоколькими терами SSD на каждой деградировал на четвёртые сутки при полной нагрузке, т.к. GC в SSD потихоньку отставал в освобождении секторов и через 3-4 дня свободное место под этот мусор заканчивалось.
в первом тесте

А где сказано, что в «первом»?
На самом деле эти цифры были получены только через 2-3 нежели после начала тестов, начинали с меньшего кол-ва лунов и инициаторов, и изначально у нас было подключено только половина 10Гб линков, потом схема была доделана, кол-во инициаторов и ленов увеличили до обозначенной схеме, на которой уже и получили конечный результат. При чём, 190k iops это скорость перезаписи, просто запись в полтора раза выше. Физическое пространство при этом было заполнено на 90%
Десять средних SATA SSD дают полмиллиона IOPS, так что даже с учётом зеркалирования там пятикратный запас по производительности.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий