Comments 72
по поводу банков — как быть со всяческими регуляторами, стандартами и законами вроде PCI DSS и ЗПД? На кого ляжет ответственность по соблюдению комплаенса? Этот момент достаточно тонкий, поэтому на таких площадках банки вряд ли станут размещать сервисы, связанные с персональными данными и платежной информацией. Этот момент вам нужно хорошо проработать, если есть желание привлекать подобных клиентов.
А ниша интересная, время покажет, насколько она востребована.
А ниша интересная, время покажет, насколько она востребована.
+1
соглашусь, что момент тонкий. на работу с персональными данными и транзакциями пока МВК не ориентируем, нужно накопить экспертизу по сертификации-стандартам-регламентам. но у банков и ритейлеров есть еще море не столь щепетильной информации, с которой нужно работать и где-то хранить-накапливать. а моменты, конечно же, проработаем.
+1
тогда пожелаю вам успеха в прохождении всех кругов ада для получения бумажек о соответствии всяческим требованиям — нелёгкое это дело и не быстрое. Но для некоторых задач/клиентов без них — никак.
+1
Стандартизация PCI DSS действительно очень важная вещь и надеюсь Вы ее пройдете. На сколько я знаю, то в Украине мало банков (единицы) получили положительный результат аудита. Если у Вас получится сделать все идеально — у вам могут потянуться много банков. Удачи Вам.
+1
Ура! Как же я давно ждал этого «VMware vSphere» в ваших заголовках!
0
А почему iSCSI а не FC? :)
Судя по схеме работы МВК — ни капли не отказоустойчивое решение. (надеюсь что просто картинка немного неточная).
Судя по схеме работы МВК — ни капли не отказоустойчивое решение. (надеюсь что просто картинка немного неточная).
+4
Дешевле, а быстродействия достаточно, например.
+1
Схема явно упрощена просто. LeftHand позволяет создавать действительно отказоустойчивые решения. А насчёт FC — проще и дешевле делать iSCSI решение на той же 10 Гб/с сети.
+1
Дешевле да.
Но ее стоит оценить на фоне стоимости всего аппаратного комплекса, вполне возможно что выигрыш получится минимальный.
Быстродействие — ну это покажет только практика насколько требовательны к быстродействию файловой системы будут крутящиеся на МВК проекты.
В любом случае думается для соединения СХД и серверных мощностей целесообразно использовать отдельно выделенные под эти задачи коммутаторы, чтобы трафик SAN не оказывал воздействие на LAN.
Так же как для соединения управляющих сетевых интерфейсов и VmWare VCenter, для оперативной миграции с ноды на ноду, при необходимости.
Но ее стоит оценить на фоне стоимости всего аппаратного комплекса, вполне возможно что выигрыш получится минимальный.
Быстродействие — ну это покажет только практика насколько требовательны к быстродействию файловой системы будут крутящиеся на МВК проекты.
В любом случае думается для соединения СХД и серверных мощностей целесообразно использовать отдельно выделенные под эти задачи коммутаторы, чтобы трафик SAN не оказывал воздействие на LAN.
Так же как для соединения управляющих сетевых интерфейсов и VmWare VCenter, для оперативной миграции с ноды на ноду, при необходимости.
+1
> В любом случае думается для соединения СХД и серверных мощностей целесообразно использовать отдельно выделенные под эти задачи коммутаторы, чтобы трафик SAN не оказывал воздействие на LAN.
А это чаще всего так и делается, по крайней мере ни разу не видел ни одного совета смешивать трафик SAN с сетевым трафиком других использований.
А это чаще всего так и делается, по крайней мере ни разу не видел ни одного совета смешивать трафик SAN с сетевым трафиком других использований.
+1
На картинке чётко виден SAS диск с частототой оборотов в 10k, а плюс это еще в RAID5, так что можно задуматься и насчёт 10Гб\с.
Ну а отдельная сеть для трафика СХД в данном проекте просто обязательна, иначе всё просядет при более-менее серьёзной нагрузке.
Ну а отдельная сеть для трафика СХД в данном проекте просто обязательна, иначе всё просядет при более-менее серьёзной нагрузке.
-1
> На картинке чётко виден SAS диск с частототой оборотов в 10k, а плюс это еще в RAID5, так что можно задуматься и насчёт 10Гб\с.
Строго говоря все это ни о чем не говорит.
Это все имеет отношение к реальности не больше, чем цифра «120» на спидометре «горбатого запорожца».
Строго говоря все это ни о чем не говорит.
Это все имеет отношение к реальности не больше, чем цифра «120» на спидометре «горбатого запорожца».
0
-2
Производительность системы определяется производительностью не самого быстрого, а самого медленного ее компонента.
Как и скорость эскадры — скоростью ее самого медленного корабля.
От того, что жесткий диск «по паспорту» имеет высокую производительность не следует, что использующая его, ну допустим, база данных, будет ограничена именно его быстродействием.
Хватает и других оганичений.
Быстродействие это штука такая. Не зря же я привел в пример спидометр «Запорожца» :)
Как и скорость эскадры — скоростью ее самого медленного корабля.
От того, что жесткий диск «по паспорту» имеет высокую производительность не следует, что использующая его, ну допустим, база данных, будет ограничена именно его быстродействием.
Хватает и других оганичений.
Быстродействие это штука такая. Не зря же я привел в пример спидометр «Запорожца» :)
+2
Относительно скорости дисков — 10к rpm, это скорость дисков которые использутся в лезвиях. Виртуальные контейнеры находятся в хранилищах, там скорость дисков 15к.
0
В полках стоят SAS 15K. Внутри полки диски в Raid5 + Hot Spare. Дополнительно идет дублирование самих полок в Raid 5. Это в базовом варианте, если клиенту необходим другой вариант, то без проблем предоставим. Вопрос цены. :-)
В материале использованы фотографии HP Brand Resource Center.
В материале использованы фотографии HP Brand Resource Center.
0
Насколько я знаю — сдавать виртуальные машины на платформе VMware имеет право только сама VMware. Как у вас обстоят дела с этим?
+1
Это вопрос правильно приобретенной лицензии.
+2
Там специальная лицензия для этого предусмотрена для этого -VMware Service Provider Program (VSPP). Интересно другое — на июль прошлого года VSPP была только одна компания, и я не думаю, что их число особо выросло, и вы явно вторые :)
0
Там до сих пор одна компания в России в списке VSPP.
partnerlocator.vmware.com/partner_locator_results?Company%20Name=&Country=RUSSIAN+FEDERATION&CurrentPage=1&Dist_Flag=false&First_Flag=false&PageSize=10&Partner%20Type=Service+Provider
partnerlocator.vmware.com/partner_locator_results?Company%20Name=&Country=RUSSIAN+FEDERATION&CurrentPage=1&Dist_Flag=false&First_Flag=false&PageSize=10&Partner%20Type=Service+Provider
0
насколько мне известно, недавно VMware начала предоставлять лицензии. сейчас МВК находится в процессе ввода в эксплуатацию, и будет полноценно запущен ориентировочно в середине июня.
0
Слабое место в вашей сети — это применение Cisco WS в качестве коммутаторов. При больших объемах может не потянуть нагрузки.
+1
тем более, что iSCSI и IP ходят по одним и тем же свитчам
0
Ну они могут (должны) ходить по разным VLAN, правда я думаю, что вы напрасно делаете выводы о том, как на самом деле организована там сеть по схематичному рисунку.
0
Производительность коммутации не зависит от VLAN. Все определяется числом пакетов в секунду (pps) и используемыми софтовыми фичами.
0
Не в коем случаи не реклама. Google в своих дата-центрах используем «железо» от Force 10. А оверсану стоит присмотреть их S-серию www.force10networks.com/products/sseries.asp
0
а откуда инфа про гугл? У них на сайте в разделе Customers гугла нет.
0
Как только пропускная способность подойдет к теоретическому порогу в 70%, Cisco 3560 превратится в 6509. -)
+1
каким образом осуществляется коммутация на данной схеме? ведь в указанных коммутаторах всего по 2 X2 10GBASE-CX4… выбранные коммутаторы не относятся к разряду неблокируемых, как расчитывалась пиковая нагрузка?
+1
Нигде не нашел информации о стоимости услуг. По чем опиум для народа? Или это закрытая информация?
+1
решили здесь не мозолить глаза ценами — Хабражители традиционно этого не любят )).
цены есть на сайте, чуть ниже уже привели линк, продублирую: www.oversunmercury.ru/data-center/services/mvkvmware/
цены есть на сайте, чуть ниже уже привели линк, продублирую: www.oversunmercury.ru/data-center/services/mvkvmware/
0
А что означает «Аренда лицензий VMware»? При заказе услуги обязательно еще арендовать лицензию?
0
и еще, в тарифах нет опции +N Mb памяти, или +N MHz процессора. Какой смысл в облачности, если все равно предлагаются фиксированные конфигурации?
0
Молодцы! Интересная статья.
0
Про блэйды… Если я ничего не путаю, то при полной набивке, одно шасси кушает до 7кВт. При установке 3-х шасси в стойку, получаем до 21кВт. И это при обычном продуве стойки, когда согласно вычислениям АРС и их институту, более 5-ти кВт тепла от стойки таким образом не отвести и уж тем более больше 20-ти кВт.
Как у вас перегревом? HPBL-ы, все таки, не назовешь бескапризными к температуре.
Был как то на семинаре Cisco, где они рассказывали про свой ЦОД и свой опыт. В итоге, именно из-за температурных показателей и больших затрат на отвод тепла отказались от блейдов. Три года назад у низ было порядка 3000 серверов в головном ЦОД и на них крутилось порядка 5000 серверов витруальных. В качестве аппаратки были выбраны DL-севера 1U и 2U.
Как у вас перегревом? HPBL-ы, все таки, не назовешь бескапризными к температуре.
Был как то на семинаре Cisco, где они рассказывали про свой ЦОД и свой опыт. В итоге, именно из-за температурных показателей и больших затрат на отвод тепла отказались от блейдов. Три года назад у низ было порядка 3000 серверов в головном ЦОД и на них крутилось порядка 5000 серверов витруальных. В качестве аппаратки были выбраны DL-севера 1U и 2U.
0
три блейд-шасси целесообразно устанавливать только в стойку с жидкостным или in-row-охлаждением. при установке в стойки с воздушным охлаждением вполне возможно разнести шасси по разным стойкам.
0
По поводу перегрева. В самих шасси используется динамическое перераспределение нагрузки на источники питания. А в стойку ставим только по 2 шасси, при этом система охлаждения стоек спроектирована на эффективное отведение тепла.
+1
>> Мы понимаем, что критерий довольно спорный, но нагляднее еще никто не придумал. Не FLOPSы же считать, в самом-то деле!
Вот как раз пора бы переходить на более вменяемые и однозначные критерии определения выделяемой мощности. Здесь та же самая беда что и с каналом, который так же является ресурсом.
Вот если бы мощность определялась в FLOPS и IOPS, что гораздо адекватнее и понятнее абстрактных мегагерцев, которые в зависимости от погоды могут давать разный результат (я все понимаю, можно указывать пару чисел — минимально гарантируемый за период и максимально доступные за другой период).
Вот как раз пора бы переходить на более вменяемые и однозначные критерии определения выделяемой мощности. Здесь та же самая беда что и с каналом, который так же является ресурсом.
Вот если бы мощность определялась в FLOPS и IOPS, что гораздо адекватнее и понятнее абстрактных мегагерцев, которые в зависимости от погоды могут давать разный результат (я все понимаю, можно указывать пару чисел — минимально гарантируемый за период и максимально доступные за другой период).
0
возьмите меня к себе работать:)
-1
UFO just landed and posted this here
Из use case в нашем бизнесе:
Из +: отличная масштабируемая платформа, все плюсы очевидны VMotion, HA, fault tolerance, кластеризация и другие вкусные технологии от VMWare.
Из -: WMware vSphere 4 Enterprise Plus for 1 processor (Max 12 cores per processor) x 8 CPU = 35k $
VMware vCenter Server 4 Standard for vSphere (Includes Orchestrator and Linked Mode) x 1 INSTANCE(s) = 8k $
Нам этого хватило на 4 x HP BL 460c G6.
Вообщем-то дороговато конечно, но ведет себя такая система мега безотказно и предсказуемо, что радует.
Оверсан, крутая идея попробовать позиционировать VM как отдельный продукт со своей нишей! Так держать!
Из +: отличная масштабируемая платформа, все плюсы очевидны VMotion, HA, fault tolerance, кластеризация и другие вкусные технологии от VMWare.
Из -: WMware vSphere 4 Enterprise Plus for 1 processor (Max 12 cores per processor) x 8 CPU = 35k $
VMware vCenter Server 4 Standard for vSphere (Includes Orchestrator and Linked Mode) x 1 INSTANCE(s) = 8k $
Нам этого хватило на 4 x HP BL 460c G6.
Вообщем-то дороговато конечно, но ведет себя такая система мега безотказно и предсказуемо, что радует.
Оверсан, крутая идея попробовать позиционировать VM как отдельный продукт со своей нишей! Так держать!
0
Ура, первый топик без идиотов упоминающих потерю доверия к оверсану и прочее.
+3
Насколько я понимаю механизмы миграции и высокую надёжность декларируют многие услуги виртуализации. А в чём преимущества конкретно vSphere перед HyperV / Xen etc?
0
Мы ориентировались на корпоративный сектор, которому востребован такой высокий уровень отказоустойчивости.
А это банковский сектор, промышленный, компании FMCG, страховая и финансовая сфера. А в таких компаниях, как минимум 95%, если не больше, уже давно знают как управлять виртуальной инфраструктурой от VMWare.
В принципе, наша задача не придумать велосипед, а сделать доступной на рынке России услугу public cloud.
А это банковский сектор, промышленный, компании FMCG, страховая и финансовая сфера. А в таких компаниях, как минимум 95%, если не больше, уже давно знают как управлять виртуальной инфраструктурой от VMWare.
В принципе, наша задача не придумать велосипед, а сделать доступной на рынке России услугу public cloud.
0
UFO just landed and posted this here
Очень давними партнерскими отношениями. Покупая такое высокотехнологичное оборудование, мы хотим быть уверенными не только на бумаге, но и на деле. -)
Не принципиально, Intel или AMD. У нас решение в достаточной степени кастомизируется под клиента, так что все зависит от предпочтений клиента. Пока на данный момент блейды комплектуются процессорами Intel.
Не принципиально, Intel или AMD. У нас решение в достаточной степени кастомизируется под клиента, так что все зависит от предпочтений клиента. Пока на данный момент блейды комплектуются процессорами Intel.
0
Необходимость аренды лицензий VmWare несколько портит впечатление.
0
Наша политика не вводить в заблуждение клиента и предлагать только строго линейные решения, а построить вместе с нашим клиентом то решение, которое действительно будет решать его задачи. Например, более старшие лицензии позволяют отстроить своё облако с применением разных вкусностей, типа Fault Tolerance, Storage VMotion и т.п…
0
А до 5600 серии процов чуть-чуть не до терпели? :)
0
Единственно что смущает, почему не взяли FC.
Или у вас мезанин на 10g?
Или у вас мезанин на 10g?
0
Sign up to leave a comment.
Масштабируемый виртуальный комплекс на базе VMware vSphere