Как стать автором
Обновить

Комментарии 35

Честно говоря, по первым упоминаниям VSA думал, что это некий аналог drbd с vmfs поверх него, а не nfs (даже и не знаю, почему).

Все-таки, 25% полезной емкости маловато. Ну и вот этот недостаток смущает:
Как только вы закончили установку и конфигурацию вы уже не сможете добавить диски или изменить размеры ваших NFS datastore
Хотел бы я знать что такое dbrd.

согласен, маловато, этот факт удручает.

Что касается невозможности изменять конфигурацию — VMware специально отметила, что это действительно только в текущей версии. То есть в планах это исправить.
И как, оправдан скептицизм тов. omnimod'а?

Считаю, что при всех текущих ограничениях Virtual Storage Appliance, гораздо более интересным выглядит вариант использования ПО других вендоров, например: Starwind iSCSI SAN, либо СХД начального уровня, например от Xyratex.
Не знаю, я ведь цифр по Starwind iSCSI SAN и Xyratex не видел. К тому же, по моему мнению, от СХД для небольшого офиса в стиле «один раз настроил и забыл» не требуется широкий функционал. В нашей компании дизайн небольшого офиса меняли всего один раз за 8 лет.
Позвонил спросить сколько будет стоит софт для 2U 12 дисков по 2ГБ, Raid 60, 8 дисков пространства или 16 ГБ, сказали софт 8895€, это дешево по вашему?
Хм… если сравнивать цены в лоб, то при использовании RAID 60 вы можете получить аналогичный по сравнению RAID 10 объем на меньшем количестве дисков и сэкономить на этом.
Это цена только на софт, сервер в неё не включен.
То есть все таки выходит VSA дешевле.
Жаль, что никто так и не поделился конкретными цифрами.
Есть мнение, что по вашему запросу вам предложили их флагманский продукт: StarWind
Enterprise HA 16TB Edition, который действительно покрывает как раз 16 ТБ. Но при этом он включает в себя множество разных фич — потому и так дорого.

Если вам требуется только раздавать сторадж на iSCSI, ИМХО должна подойти версия StarWind
Enterprise CDP Edition, в которой размер стораджа и количество конкурентных подключения не ограничено. Не могу ручаться, но помнится она стоила на порядок дешевле.
Да но она на 4/8 ТБ, на 16 у них была только эта версия. Видел продукт www.open-e.com/ цена 900€, работает плавно, мне понравилось.
Странно, почему «Unlimited» в таблице на сайте на деле означает 4 или 8ТБ. Я постараюсь в ближайшее время уточнить этот вопрос у инженеров Старвинда.
Практически такой же функционал предоставляла в свое время компания LeftHand(купленная HP), которая позволяла из локальных дисков делать сетевой рейд.
Стоимость 4,67 Евро за 1 Гб полезного места в действительно дороговато, считаю в долларах это 6,61 $ за 1 Гб.
В средней цена более 5 долларов за 1 Гб неоправданна, так как SAN/NAS хранилище с приемлимой производетельностью и меньшей ценой существует достаточно много на рынке. Не побивайте камнями (пишу о том, с чем работаю), но купить Netapp FAS2040 будет дешевле и по производительности не хуже. Вопрос в том, что при покупке СХД вам будут доступны различные типы протоколов доступа к СХД (FCP,iSCSI,NFS,CIFS). А в данном случае только NFS.
Ага, я тоже все наше начальство уговариваю опробовать iSCSI на HP P4000, но пока безрезультатно.
Справедливости ради стоит сказать, что 4,67 евро за 1Гб это европейская цена, в штатах это будет 4,67 долларов за 1Гб.

А какова будет стоимость за 1Гб на том же же NetApp приблизительно такого же объема и уровня избыточности?
Я работал с HP P4300, штуки неплохие, но я больше склоняюсь к FCP.

Если говорить о Netapp, то там своя идеология работы с рейдами. Можете прочитать у них в блоге. Если без единой точки отказа, то это конфигурации с двумя контроллерами

Ценник опять же индивидуален и зависит от объему закупки и скидки. Но он прилично меньше чем 5$ за 1 Гб.
Ага, я уже у них там все перечитал. Netapp тоже один из альтернативных вариантов, как более удачный продукт для виртуализации, но у нас традиционно HP EVA везде.
Ну тут дело вкуса :)
вопрос по личному опыту — чем FCP был лучше iSCSI в вашем случае?
FCP: из плюсов — простота настройки, большая пропускная способность.
Из минусов цена, очень вероятно что вы не сможете утилизировать всю полосу FC, так как ваша СХД не потянет такую нагрузку.

iSCSI — из плюсов — цена.
Из минусов — в идеале нужен отдельный коммутатор под iSCSI трафик, если нет такой возможности, то отдельный VLAN. Для адекватной пропускной способности нужно применять LACP + балансировка. В случае не отдельного коммутатора под iSCSI трафик затруднен траблшутинг если проблема возникает на стороне свитча. Ну и бОльшие накладные расходы при передаче данных если сравнивать с FC.

Хотя стоить отметить что цены на FC оборудование падают, так что супер-дорогим такое решение назвать нельзя.
ну iSCSI в принципе тоже не сложен в настройке. Высокая пропускная способность тоже есть.
Последние тесты производительности FCP/FCoe/iSCSI тоже не показывают существенной разницы. В принципе весь трафик, как сетевой, так и iSCSI можно пустить через производительные свитчи. С какими нить HP VC FlexFabric и G7 серверами мне кажется iSCSI вообще идеальным вариант.
Жырнючий плюс iSCSI — низкая стоимость инфраструктуры и ее исключительная гибкость.
Начинать строить можно буквально из подножного мусора, наращивая в тонких местах по мере необходимости. При том — никаких проблем с масштабируемостью и распределенностью, если что.
Согласен с вами. Об этои выше я написал.
Как-то не вяжется SMB и «небольшой офис» и VMware vSphere 5. Я уж не говорю про HA, DRS и прочие FT :)
Да и не сильно он нужен, этот NFS в MS-only-окружении.
Ну почему же? 2-3 хоста, на которых штук 10-20 виртуальных серверов в небольшом офисе. Просто определение небольшого офиса у нас видимо разные.
NFS просто удобен для бэкапирования ВМ на ленточки.

Главный вопрос все таки это конечная цена того или иного решения.
По моему имху тут уже vSphere не нужна, достаточно Hyper-V. VMware рулит только когда имеется зоопарк операционок от виндов до кучи всяких линуксов да еще бздей и солярок. Ну или когда нужны супермегаэнтерпрайзные фичи типа Storage vMotion, но это редко бывает нужно даже в крупных организациях. Для бэкапирования рулит библиотека с SAS-интерфейсом (лучше, конечно, FC) — пропускная способность все же больше, чем у езернета. Про 10Гбит не говорим — там железки едва ли не дороже FC.

BTW, с недавнего времени Microsoft iSCSI Target стал бесплатным ;)
дело в том, что восприятие сегментов немного разное. у нас малый-средний бизнес — это до 50-100 человек. в Штатах — до 1000 человек.
Под такую задачу тестил Gluster — open source, можна cетевой RAID 0,1,10,5 и реплики — просто конфигурировать, отдает по iscsi, nfs, smb и infiniband, работает как fuse. Но основная проблема — плохая производительность на write и на i/o.
Можно попробовать zfs+hastd или zfs+ggated+ и фаерволлами дублировать каналы на нодах.
А как же freenas на zfs с контроллером хорошим?
а эти СХД входят в HCL VMware?
Нет, Там скайзи таргет стандарт, зачем входит куда то?
Я к тому, что когда у вас случится проблема на vSphere в поддержке вам может быть отказано. я вот так же поднимал у себя MS failover cluster на виртуальных машинах, а когда наткнулся на проблему, мне в службе поддержке VMware сказали — MS Cluster на EVA 6400 не поддерживается.
Ну и по стандартам компании у нас разве что тестовые лабы работают на железе без поддержки — все остальное обязательно должно иметь support contract.
Ну тогда конечно не поспоришь.
>>Но основная проблема — плохая производительность на write и на i/o.
FUSE — привет!
Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации

Истории