Как стать автором
Обновить

Комментарии 35

мощный пост, все по полочкам. насолько я понимаю в Cloud One подобным образом организован кластер, только СХД не EVA, а NetApp FAS.
Насколько я понял: технология примерна такая же. Единственный нюанс, в C3000 подключение к системе хранения не будет конвергентным, т.е. для трафика Ethernet и FC нужны будут свои коммутаторы. В C7000 Мы можем использовать один тип аггрегаторов для создания виртальных профилей блейд-серверов в совокупности с объединением FC и Ethernet в HP Virtual Connect FlexFabric, что дает безусловный выигрыш в больших виртуальных фермах.
Почти один в один то, с чем мне уже почти 3 года приходится работать. Правда у вас только одна корзина рассматривается, а можно было красивей, сразу про 4 корзины.

несколько моментов хотелось бы отметить:

1. Функция Map Vlan Tags все таки больше в том, чтобы самому управлять теггированием трафика на входе/выходе VirtualConnect-а и Blade серверов.
2. Лучше всего показывать пользу Server Profiles через практические примеры. У нас физически «умер» один из блейдов, привезли новый, быстро перекинули диски между старым и новым, вставили обратно, профиль накатил, включили сервер и как будто ничего и не происходило, и даже zoning не надо править.
3. Зачем создавать два vmotion интерфейса если все интерфейсы грубо говоря работают на одном CNA чипе?
4. Мне кажется вы чуток скопировали скриншоты с 4ой версии vSphere, иначе никак не могу объяснить наличие у вас ESX и Service Console порта вместо ESXi :)
5. Можно еще было бы добавить Link Failure Detection (Smart Uplink называется кажется в VirtualConnect)
6. Было бы супер показать как легко и незаметно работает failover, причем на всех уровнях -выдергивание Ethernet провода, FC провода, перегрузка одного из VC модулей, выключение одного из Blade серверов, чтобы показать что и HA отработало на ура.

7. Самое важное для тех кто решится купить это замечательное и надежное решение — обязательно изучайте все Compatibility Lists, от каждого вендора, как hardware так и software. У нас вот к сожалению некоторые торопыжки не учли, что HP VLS 9200 увы не работает с Blade сервером как Backup сервером. Пришлось доставать старый Dl 360 G6.
На уровне работы с заказчиком, да, мы проводим такие испытания со сборкой нескольких корзин в один домен, показываем как отрабатывают модули при выдергивании одного из корзины, отключении проводов. Но на уровне нашего демо центра одновременно иметь 4 корзины — это сложно, т.к. оборудование часто тредоставляется в бесплатное тестирование заказчикам, а то, которое имеется в офисе — предоставляется в удаленные пользование для испытаний.
Из-за подобных сложностей получилось показать работу на минимальном наборе компонентов.
С VMware — да. И 4 и 5 версия не отличается в настройке для кластера, пробовали и на 4 и на 5.
По функциям Virtual Connect, к сожалению, не получилось все рассказать, только то, что относилось к исследованию. Возможно, удастся показать особенности этих систем в отдельном посте.
Я имел в виду что не бывает ESX 5.0, есть только ESXi 5.0
По основной настройке не отличаются, но в дизайне кластера есть существенные отличия между 4 и 5 когда строишь кластеры на более чем одной корзине, ибо в 4ке vSphere HA может положить все 5 Primary HA хостов в одну корзину, и если она упадет, то перезапускать виртуальные машины на других корзинах будет некому. Так что с 4кой надо чуть поаккуратней.

вы в принципе и так впихнули в одну статью «невпихуемое». В идеале тут на 3-4 статьи можно было бы разложить.
«2. Лучше всего показывать пользу Server Profiles через практические примеры. У нас физически «умер» один из блейдов, привезли новый, быстро перекинули диски между старым и новым, вставили обратно, профиль накатил, включили сервер и как будто ничего и не происходило, и даже zoning не надо править. „

если загрузкас SAN то ничегопереставлять не потребуется. всё в профиле VC. Кстати, можно сделать Spare Blade — тогда и ехать стремглав нге потребуется.
А блейды в Spare у HP как объединяются, не подскажете? Нужны какие-нибудь дополнительные модули, или что-нибудь в этом роде? У IBM, я знаю, есть т.н. QPI-шина, на которую надевается специальный коннектор, позволяющий объединять блейды. А здесь как?
Spare, то есть запасной Blade никак специально не объединяется с кем либо кроме как через HP VirtualConnect модули. То есть процедура Failover-а сервера по сути — миграция профиля внешних подключений на новый сервер, пердусмотрительно установленный в корзину. Конечно при этом снаружи будет виден провал в доступности но не большой, особенно, если у вас есть загрузка с SAN :)
А, так это просто active/standby кластер? Тогда понятно, вопросов больше не имею. =) Я подумал, что подразумевается именно возможность объединения двух блейдов в один двойной мощности.
Блейды объединяются через бэкплейн блейд-корзины C7000, дополнительные модули не нужны. Блейд настраивается как Spare через модуль Virtual Connect, который видит все блейды корзины также через этот бэкплейн.
QPI шины в семействе серверов HP актуальны для стоечных высокопроизводительных серверов DL980, когда этими линками связываются процессоры двух материнских плат.
Да-да, вот я об этом же. Думал, на блейдах такая технология тоже реализована. Жаль, что нет.
На блейдах есть решение, но оно пока для Business Critical Systems на процессорах itanium2, когда создаются виртуальные партиции из нескольких физических машин.
Позднее этот функционал будет реализован и для x86 (2014 год), когда будет анонсирован Superdome2 с блейдами на Intel SandyBridge или на процессорах x86 следующего поколения.
Так лучше уж тогда IBM поставить.
«В случае отказа ведущего сервера его роль автоматически принимает второй, при этом для заказчика доступ к бизнес-приложению не прерывается.»

Такой фразой Вы вводите потенциальных клиентов подобного решения в заблуждение. В случае отказа физического сервера, на котором работала VM, средствами Vmware HA произойдет полный перезапуск виртуальной машины на другом сервере, следовательно доступ к бизнес-приложению для заказчика прервется на время, необходимое для полной загрузки VM и старта всех бизнес-процессов.
Ну теоретически это все таки возможно с помощью «хромой» FT.
Вы, видимо, забываете о том, что FT накладывает гигантские ограничения на ВМ. Например, 1 vCPU и отсутствие возможности бекапа ВМ. Как Вам, пойдёт под бизнес-критикал приложение?
Я же написал «хромой» FT, что подразумевало кучу ограничений и узкую сферу применений. А что касается бэкапа, то никто не отменял стандартный способ через бэкап агента.
Бизнес-критикал не всегда означает кучу клиентов, иногда может и одного vCPU достаточно.
Да понятно всё, и про возможность бекапа гостевой ОС, и про вероятность использования маломощной ВМ в качестве бизнес-критикал. Но (сужу по собственному опыту) процент таких ВМ в инфраструктуре обычно минимален. И, зачастую, проще и надёжнее обеспечить отказоустойчивость кластеризацией на уровне ОС или приложений. Я именно об этом. Мы ведь начали с «потенциальных клиентов», а им, согласитесь, вряд ли будет осмысленно покупать дорогостоящее решение, чтобы обеспечить отказоустойчивость нескольких маломощных ВМ. Это можно сделать гораздо проще и дешевле, без покупки SAN и блейдов.
Согласен, я вообще от FT держусь подальше. Но тут уже чистый маркетинг — теоретически то можно, хотя это вообще функционал VMware, а не HP
Здесь необходимо уточнить: при использовании Fault Tolerance приложение будет доступно в кластере виртуальных машин при выходе из строя одной машины: download3.vmware.com/vdcos/demos/FT_Demo_800x600.html
У меня вот какой вопрос возник: HP Virtual Connect FlexFabric в данном случае является некоей заменой vCenter? Если так, то можно чуть подробнее про эту фичу, хотя бы в формате ссылок?

А если нет, то считаю нелишним добавить в статью информацию о том, что прежде, чем собрать HA-кластер, нам нужно установить vCenter Server на ВМ на одной из нод кластера, либо же на физический хост.

А ещё Вы несколько неправы, и технология VMware HA (Вы ведь о ней пишете, не так ли?) работает несколько иначе: в случае аппаратного отказа активной (в данном случае, той, на которой располагается обсуждаемая ВМ в данный момент) ноды кластера доступ к сервису всё же прервётся. Ровно на то время, которое потребуется ВМ чтобы стартовать на другой ноде. Именно стартовать, не мигрировать. Это же высокая доступность, а не отказоустойчивость.
VC FF больше похож по функционалу на Distributed vSwitch — виртуалка может уехать на другой хост, но при этом оставаться подключённой в тот же свитч.

К vCenter Server функционал, конечно, никакого отношения не имеет.
Типа BladeCenter Fabric Manager у IBM. Понял, вполне наглядно. Спасибо.
HP Virtual Connect работает в дополнении с vCenter.
По кластеру — опирался на общее понимание высокодоступного кластера: Избыточное число узлов, входящих в кластер, гарантирует предоставление сервиса в случае отказа одного или нескольких серверов.
(http://en.wikipedia.org/wiki/Computer_cluster)
В тесте, при использовании Virtual Connect в HA кластере работа приложения не прерывалась (потерян один пинг), это не сказалось на работе тестового приложения.
В данной статье кластер с резервированием active/active не рассматривался, но я поправлю описание, чтобы не вводить в заблуждение, спасибо!
У Вас, насколько я понял, пинг потерялся при миграции. А Вы попробуйте блейд выдернуть. =)
А про настройку корзины хорошо написано, надеюсь, пригодится. Спасибо.
Видео по настройке HP Virtual Connect я тоже не нашел на youtube, надеюсь, отснятые материалы тоже пригодятся!
Про него вот какой вопрос: это отдельный софт, облегчающий управление виртуальной инфраструктурой, или он поставляется вместе с шасси? Вообще, если есть по нему какая-нибудь подборка ссылок — буду признателен.
HP Virtual Connect это технология виртуализации блейдов в стойке. Физически — это модули виртуализации, у которых есть свой софт управления (в случае в Virtual Connect FlexFabric это софт Virtual Connect Manager)
Есть несколько ссылок, не обращайте внимание на заголовки, книжки толковые :)
1. HP Virtual connect for dummies. h18004.www1.hp.com/products/blades/virtualconnect/connectfordummies/regForm.html
2. HP Virtual Connect for c-Class BladeSystem Setup and Installation Guide bizsupport1.austin.hp.com/bc/docs/support/SupportManual/c01732252/c01732252.pdf
3. HP Virtual Connect Ethernet Cookbook: Single and Multi Enclosure Domain (Stacked) Scenarios bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c01990371/c01990371.pdf
4. Virtual Connect Home Page h18004.www1.hp.com/products/blades/virtualconnect/index.html
5. Virtual Connect FlexFabric Cookbook bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c02616817/c02616817.pdf
6. HP Virtual Connect with iSCSI Cookbook bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c02533991/c02533991.pdf
7. Converged networks with Fibre Channel over Ethernet and Data Center Bridging bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c02664786/c02664786.pdf
Это основное. Могу прислать больше :).
На ближайшее время мне этого хватит, а понадобится больше — я знаю, у кого спросить. =)
Проще говоря, VirtualConnect это эдакий свитч (Ethernet и FC в одном лице), прослойка между блэйд серверами и вашей сетевой и SAN инфраструктурой.
ну точнее не совсем свитч… предлагаю подумать над идеей «умной» патчпанели с весьма широким функционалом…

Спасибо за статью.
Единственно не понятно зачем создавать разные networks для HP-MGMT и HTC-77, учитывая, что у A и B одинаковый номер VLAN.
VC ведь позволяет назначать одну network на 2 FlexNIC.
1a HP-MGMT
2a HP-MGMT
1c HTC-77
2c HTC-77
1d vMotion
2d vMotion

Или на момент демонстрации это было недоступно?
Спасибо, данные сети были созданы только для демонстрации. На практике, конечно, назначение сетей будет сильно отличаться.
Зарегистрируйтесь на Хабре , чтобы оставить комментарий