Как стать автором
Обновить

Комментарии 25

Цена удовольствия? В сравнении с bitblaze? Управление дисками по ethernet для аварийного передёргивания питания в случае зависания?

Вообще, управление питанием этой штуки по сети?
DAS такого уровня в основном имеют возможность управления только через SES-2 (sg_ses в linux'е отлично с этим справляется). Как минимум выключить всю полку (в экстренном случае) могут практически все подобные решения, а вот чтобы потом еще и включить — эту опцию предоставляют далеко не все. Ну, а за'offline'нить диск может практически любой HBA. Но конечно да, по сети всегда надежней и удобнее.
Если шина повисла, то ребутнуть что-либо по этой шине затруднительно.
Если управление по ethernet подразумевает наличие BMC, то этот вариант намного чаще будет виснуть :).
Если виснет bmc, его ребутят через основной канал. Если виснет канал, его ребутят через bmc. Так и живём.
Да уж, знакомо. Но печаль еще в том, что после повисания основного канала вдруг оказывается, что BMC повисло еще раньше или просто не отрабатывает команды… ну да ладно, мы отвлеклись от темы :).
В принципе, экспандеры имеют возможность управляться через езернет. SES удобней.
Цена, как обычно, на сайте.

Сравнивать с bitblaze бесполезно, это другой вид оборудования.
Bitblaze — копия дизайна Backblaze, который сделан как дешевый однопроцессорный файл-сервер. Поскольку дизайн делали люди, не знакомые с инженерной частью, результат вышел весьма посредственный, огромная проблема с вибрацией. Бэкблейз бегал к Хитачи за помощью и встретил некоторое… непонимание с их стороны.
Были попытки других компаний использовать подобный ящик, я знаю про Netflix. Не смогли :)

Управление — inband SES, это все таки дисковая полка, а не файл-сервер. Через голову все делается.
Такой ящик лучше использовать для решений из этой статьи. Все, что нужно, для высокодоступного отказоустойчивого хранилища.
А сколько экспандеров и какой модели (LSI/PMC?). И сколько дисков на каждом (скорее всего по 30, но уточню)?..
Еще было бы интересно посмотреть на температурную карту при одновременной нагрузке всех дисков (или хотя бы максимум) и общее потребление полки (в статье, вроде этого нет).
Экспандеры LSI SAS 2 x36.
Структура древовидная, для полноценного отказоустойчивого подключения каждого диска. Получается два каскада из одного экспандера на входе и пары внутри для дисков.

Температурный режим — при 40 градусах внешней температуры и шестидесяти SAS 15K дисках, задние нагреваются до 56,7 градусов.

Общее потребление — зависит от дисков. Экспандеры порядка 90 ватт, вентиляторы от мониторинга зависят.
Не совсем по теме, но у вас появятся СХД на новой платформе от NetApp/Engenio?
IBM и NetApp уже анонсировали новую линейку, интересно как обстоят дела у местного производителя.
Мы считаем, что рынок СХД начально-среднего уровня уже умер, хоть и не успел это понять.
Shared DAS гораздо более интересный подход к хранению.

Нужен мелкий кластер — двухголовая полка с двумя серверами или Cluster-in-a-Box вам помогут.
Нужен кластер средних размеров — Cluster-in-a-Box в другой конфигурации и 10G на борту плюс несколько серверов.
Нужен мощная хранилка — Scale-out File Server и 40 гигабит в качестве хост-интерфейса.

Все возможности по управлению данными уже есть в ОС, лицензирования минимум.

Производительность?
Адаптеры с RDMA дают латентность не хуже FC, коммутаторы с DCB обеспечивают стабильную латентность в сети.

За iSCSI будущее и оно уже наступило :)
Мысль понятно, благодарю за ответ!
Хотя немного странно видеть продвижение решения Microsoft от компании так плотно сидящей на Linux :-)
MS устроил радикальнейшую встряску рынка СХД, предложив целый набор killer feature за очень скромную стоимость. И тут уже дело не в личных предпочтениях, если мы хотим предлагать клиентам только лучшие cost-effective решения — особого выбора уже просто нет.
Еще одно дополнение — Сусе и Редхат усиленно работают над HA решением, аналогичным Storage Spaces, но от релиза довольно далеки.

Как допилят — мы и этим воспользуемся ^_^
А сейчас только МС может делать это на HBA.
Линукс только на LSI Syncro (будет отдельный скромный материал).
Как-то не вижу сценарий, когда я решил бы взять данную полку вместо, например, NetApp FAS2220 12x600 Complete bundle. При разнице в цене всего на пару $k — разница в функционале, мягко говоря, очень и очень существенная.
Или я просто не заметил у вас какой-то killer feature?
Это полка для сверхплотного размещения, если хотите сравнить с СХД, то надо брать что-то вроде E2760.
FAS2220 стоит в полтора раза дороже, задействует всего по 3 диска на контроллер, а стоимостью расширения вы будете очень удивлены.
«FAS2220 стоит в полтора раза дороже» — при одинаковой набивке одинаковыми дисками и примерно одинаковым (по названию) уровнем поддержки (если честно, то в ваши опции не вчитывался) — разница получилась 50k рублей в сравнении со счетом который я оплачивал год назад.
«задействует всего по 3 диска на контроллер» — это что-то новенькое :)
«стоимостью расширения вы будете очень удивлены» — вполне приемлимая, кстати, получается.

Но соглашусь с тем, что сравниваю две не очень-то сравнимые модели.
при одинаковой набивке одинаковыми дисками и примерно одинаковым (по названию) уровнем поддержки

Сравненивать промо с прайс-листом не совсем корректно, скажу лишь, что местных производителей берут когда надо дешевле. И дешевле получается очень прилично.

это что-то новенькое

В симметричной конфигурации 1 диск уйдёт на HS и 2 под контроль чётности в RAID-DP, остаётся 3 диска под данные.
Сценарий — берете до четырех серверов и получаете кластер высокой доступности на Windows Server 2012 R2.
60 дисков для расширения, никакой мутотени с лицензиями. SSD кэширование, тиринг, дедупликация, производительность 2.4GB/s на линк вместо унылого 1Gb iSCSI.

Что самое интересное — для этого не надо ждать очередной промоакции, которая все одно будет заметно дороже.
Не надо брать привязанные к Нетаппу диски с заоблачной стоимостью.

Ну а когда пингвинодеятели допилят HA Linux — все то же счастье будет доступно под KVM.

Итог — на голову более гибкое и производительное решение за меньшие деньги.
Кому еще нужен NetApp?
У NetApp реализоция на порядок превосходит глюкодром от Microsoft, но в SME (по крайней мере у нас) такие вложения вряд ли окупятся.
А теперь обратный сценарий: берём управляемый свич и объединяем сетевые интерфейсы в транки — получаем по 4GB/s с каждой головы. Соот-но их можно взять два и тогда мы совершенно не зависим от смерти одного из них.

Не ждём пока кто-то там что-то сделает и что оно, может быть, начнёт работать, а просто ставим ESX(i) на нужное кол-во хостов и монтируем тома через NFS. Забыл сказать, мы можем сделать это не просто сейчас, а уже, как минимум, с 2007-го года (возможно и раньше, просто тогда я сам это впервые делал и могу за эти даты «поручиться»).

Дополнительные плюшки:
1. В случае выхода какого-то из дисков из строя — узнаем об этом от курьера, который уже звонит в дверь и принёс нам новый диск.
2. Дедупликацией и всем прочим занимается непосредственно сам NetApp и соот-но сами сервера заняты исключительно «полезной», а не «сервисной» работой.

Ну и, конечно, никаких промоакций мы не ждём (если и попал на какую-то, то даже и не знал об этом). Я озвучил разницу в стоимости между тем что указано у вас на сайте (если на сайте указано в формате «а у наших поставщиков вы можете получить дешевле по акции» — тут я даже и не знаю чем помочь) и тем что я заплатил поставщику и получил свою коробку.
а просто ставим ESX(i) на нужное кол-во хостов и монтируем тома через NFS.

VMware стоит лютых денег, в некоторых моментах проигрывая Hyper-V. Ещё вы не сможете дать виртуалке диск больше 2 ТБ, если версия ESXi ниже 5.5.
Стоит — да, хотя есть пути сокращения издержек, например, покупая «бандлами».
Всегда кто-то в чем-то выигрывает, а в чем-то проигрывает. Тут скорее вопрос взвесить все за и против для каждого продукта и выбрать тот, что подходит именно для твоих задач.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий