Как стать автором
Обновить

Комментарии 72

по поводу банков — как быть со всяческими регуляторами, стандартами и законами вроде PCI DSS и ЗПД? На кого ляжет ответственность по соблюдению комплаенса? Этот момент достаточно тонкий, поэтому на таких площадках банки вряд ли станут размещать сервисы, связанные с персональными данными и платежной информацией. Этот момент вам нужно хорошо проработать, если есть желание привлекать подобных клиентов.
А ниша интересная, время покажет, насколько она востребована.
соглашусь, что момент тонкий. на работу с персональными данными и транзакциями пока МВК не ориентируем, нужно накопить экспертизу по сертификации-стандартам-регламентам. но у банков и ритейлеров есть еще море не столь щепетильной информации, с которой нужно работать и где-то хранить-накапливать. а моменты, конечно же, проработаем.
тогда пожелаю вам успеха в прохождении всех кругов ада для получения бумажек о соответствии всяческим требованиям — нелёгкое это дело и не быстрое. Но для некоторых задач/клиентов без них — никак.
спасибо, постараемся набраться терпения )
Стандартизация PCI DSS действительно очень важная вещь и надеюсь Вы ее пройдете. На сколько я знаю, то в Украине мало банков (единицы) получили положительный результат аудита. Если у Вас получится сделать все идеально — у вам могут потянуться много банков. Удачи Вам.
Ура! Как же я давно ждал этого «VMware vSphere» в ваших заголовках!
рады порадовать! ))
А почему iSCSI а не FC? :)
Судя по схеме работы МВК — ни капли не отказоустойчивое решение. (надеюсь что просто картинка немного неточная).
Дешевле, а быстродействия достаточно, например.
Схема явно упрощена просто. LeftHand позволяет создавать действительно отказоустойчивые решения. А насчёт FC — проще и дешевле делать iSCSI решение на той же 10 Гб/с сети.
Все это верно, я только хотел привлечь внимание к тому факту, что если хватает гигабита, то мет и не стоит замахиваться на десять?
Расширение неиспользуемой части полос пропускания никак не ускоряет собственно передачу данных по используемой части ее.
Дешевле да.
Но ее стоит оценить на фоне стоимости всего аппаратного комплекса, вполне возможно что выигрыш получится минимальный.
Быстродействие — ну это покажет только практика насколько требовательны к быстродействию файловой системы будут крутящиеся на МВК проекты.
В любом случае думается для соединения СХД и серверных мощностей целесообразно использовать отдельно выделенные под эти задачи коммутаторы, чтобы трафик SAN не оказывал воздействие на LAN.
Так же как для соединения управляющих сетевых интерфейсов и VmWare VCenter, для оперативной миграции с ноды на ноду, при необходимости.
> В любом случае думается для соединения СХД и серверных мощностей целесообразно использовать отдельно выделенные под эти задачи коммутаторы, чтобы трафик SAN не оказывал воздействие на LAN.

А это чаще всего так и делается, по крайней мере ни разу не видел ни одного совета смешивать трафик SAN с сетевым трафиком других использований.
На картинке чётко виден SAS диск с частототой оборотов в 10k, а плюс это еще в RAID5, так что можно задуматься и насчёт 10Гб\с.
Ну а отдельная сеть для трафика СХД в данном проекте просто обязательна, иначе всё просядет при более-менее серьёзной нагрузке.
> На картинке чётко виден SAS диск с частототой оборотов в 10k, а плюс это еще в RAID5, так что можно задуматься и насчёт 10Гб\с.

Строго говоря все это ни о чем не говорит.
Это все имеет отношение к реальности не больше, чем цифра «120» на спидометре «горбатого запорожца».
Производительность системы определяется производительностью не самого быстрого, а самого медленного ее компонента.
Как и скорость эскадры — скоростью ее самого медленного корабля.
От того, что жесткий диск «по паспорту» имеет высокую производительность не следует, что использующая его, ну допустим, база данных, будет ограничена именно его быстродействием.
Хватает и других оганичений.

Быстродействие это штука такая. Не зря же я привел в пример спидометр «Запорожца» :)
Относительно скорости дисков — 10к rpm, это скорость дисков которые использутся в лезвиях. Виртуальные контейнеры находятся в хранилищах, там скорость дисков 15к.
Э-э… сказать-то что хотели?
То что для виртуальных контейнеров используются диски не 10 тысяч оборотов, а 15.
В полках стоят SAS 15K. Внутри полки диски в Raid5 + Hot Spare. Дополнительно идет дублирование самих полок в Raid 5. Это в базовом варианте, если клиенту необходим другой вариант, то без проблем предоставим. Вопрос цены. :-)
В материале использованы фотографии HP Brand Resource Center.
Насколько я знаю — сдавать виртуальные машины на платформе VMware имеет право только сама VMware. Как у вас обстоят дела с этим?
Это вопрос правильно приобретенной лицензии.
Там специальная лицензия для этого предусмотрена для этого -VMware Service Provider Program (VSPP). Интересно другое — на июль прошлого года VSPP была только одна компания, и я не думаю, что их число особо выросло, и вы явно вторые :)
насколько мне известно, недавно VMware начала предоставлять лицензии. сейчас МВК находится в процессе ввода в эксплуатацию, и будет полноценно запущен ориентировочно в середине июня.
Слабое место в вашей сети — это применение Cisco WS в качестве коммутаторов. При больших объемах может не потянуть нагрузки.
тем более, что iSCSI и IP ходят по одним и тем же свитчам
Ну они могут (должны) ходить по разным VLAN, правда я думаю, что вы напрасно делаете выводы о том, как на самом деле организована там сеть по схематичному рисунку.
Производительность коммутации не зависит от VLAN. Все определяется числом пакетов в секунду (pps) и используемыми софтовыми фичами.
Не в коем случаи не реклама. Google в своих дата-центрах используем «железо» от Force 10. А оверсану стоит присмотреть их S-серию www.force10networks.com/products/sseries.asp
а откуда инфа про гугл? У них на сайте в разделе Customers гугла нет.
Встречались с их пресейлами и представителями в России.
да уж. Знаем мы речи пресейлов. Продали два коммутатора на тест и смело могут заявить, что вся инфраструктура гугла на них держится. Хотелось бы более надежную информацию получить.
Это были люди самого Force10.
Об этом и речь. Вот если бы люди гугла были.
Очень часто такие компании как Google прямо запрещают упоминать такие вещи своим поставщикам.

Из компаний, с которыми приходилось сталкиваться такой, например, Intel, у которого это «worldwide policy».
Как только пропускная способность подойдет к теоретическому порогу в 70%, Cisco 3560 превратится в 6509. -)
каким образом осуществляется коммутация на данной схеме? ведь в указанных коммутаторах всего по 2 X2 10GBASE-CX4… выбранные коммутаторы не относятся к разряду неблокируемых, как расчитывалась пиковая нагрузка?
Нигде не нашел информации о стоимости услуг. По чем опиум для народа? Или это закрытая информация?
решили здесь не мозолить глаза ценами — Хабражители традиционно этого не любят )).

цены есть на сайте, чуть ниже уже привели линк, продублирую: www.oversunmercury.ru/data-center/services/mvkvmware/
А что означает «Аренда лицензий VMware»? При заказе услуги обязательно еще арендовать лицензию?
Да, это обязательное условие от VMware.
и еще, в тарифах нет опции +N Mb памяти, или +N MHz процессора. Какой смысл в облачности, если все равно предлагаются фиксированные конфигурации?
Для небольших проектов, которым не требуются сверхмощности, но критична отказоустойчивость, предлагаются указанные тарифы. В случае превышения определенного порога мы можем предложить более вкусные кастомные цены. Можно заказать +N Mb RAM, +N MHz CPU, + N GB HDD.
Молодцы! Интересная статья.
спасибо! сейчас еще в пост нагрянут наши техспециалисты и развеют все сомнения )).
Про блэйды… Если я ничего не путаю, то при полной набивке, одно шасси кушает до 7кВт. При установке 3-х шасси в стойку, получаем до 21кВт. И это при обычном продуве стойки, когда согласно вычислениям АРС и их институту, более 5-ти кВт тепла от стойки таким образом не отвести и уж тем более больше 20-ти кВт.
Как у вас перегревом? HPBL-ы, все таки, не назовешь бескапризными к температуре.

Был как то на семинаре Cisco, где они рассказывали про свой ЦОД и свой опыт. В итоге, именно из-за температурных показателей и больших затрат на отвод тепла отказались от блейдов. Три года назад у низ было порядка 3000 серверов в головном ЦОД и на них крутилось порядка 5000 серверов витруальных. В качестве аппаратки были выбраны DL-севера 1U и 2U.
три блейд-шасси целесообразно устанавливать только в стойку с жидкостным или in-row-охлаждением. при установке в стойки с воздушным охлаждением вполне возможно разнести шасси по разным стойкам.
По поводу перегрева. В самих шасси используется динамическое перераспределение нагрузки на источники питания. А в стойку ставим только по 2 шасси, при этом система охлаждения стоек спроектирована на эффективное отведение тепла.
Blanking panels используете?
мы вообще идеологи и фанаты blanking plates, сами используем, и другим рекомендуем на каждом углу. решение дешевое, а в охлаждении помогает здорово.
>> Мы понимаем, что критерий довольно спорный, но нагляднее еще никто не придумал. Не FLOPSы же считать, в самом-то деле!
Вот как раз пора бы переходить на более вменяемые и однозначные критерии определения выделяемой мощности. Здесь та же самая беда что и с каналом, который так же является ресурсом.

Вот если бы мощность определялась в FLOPS и IOPS, что гораздо адекватнее и понятнее абстрактных мегагерцев, которые в зависимости от погоды могут давать разный результат (я все понимаю, можно указывать пару чисел — минимально гарантируемый за период и максимально доступные за другой период).
возьмите меня к себе работать:)
Пишите нам, мы формируем кадровый резерв, и при расширении штата рассматриваем наш банк резюме -)
НЛО прилетело и опубликовало эту надпись здесь
Из use case в нашем бизнесе:
Из +: отличная масштабируемая платформа, все плюсы очевидны VMotion, HA, fault tolerance, кластеризация и другие вкусные технологии от VMWare.
Из -: WMware vSphere 4 Enterprise Plus for 1 processor (Max 12 cores per processor) x 8 CPU = 35k $
VMware vCenter Server 4 Standard for vSphere (Includes Orchestrator and Linked Mode) x 1 INSTANCE(s) = 8k $
Нам этого хватило на 4 x HP BL 460c G6.

Вообщем-то дороговато конечно, но ведет себя такая система мега безотказно и предсказуемо, что радует.

Оверсан, крутая идея попробовать позиционировать VM как отдельный продукт со своей нишей! Так держать!
Там Lease license должна же быть…
Как таковой lease license нет, но есссноо есть лизинг, доступен ли он в России у наших реселлеров большой вопрос
Ура, первый топик без идиотов упоминающих потерю доверия к оверсану и прочее.
воистину ура! ))
но теперь кто-то методично расставляет по всем комментариям минусы. есть еще порох в пороховницах! ))
Насколько я понимаю механизмы миграции и высокую надёжность декларируют многие услуги виртуализации. А в чём преимущества конкретно vSphere перед HyperV / Xen etc?
Мы ориентировались на корпоративный сектор, которому востребован такой высокий уровень отказоустойчивости.
А это банковский сектор, промышленный, компании FMCG, страховая и финансовая сфера. А в таких компаниях, как минимум 95%, если не больше, уже давно знают как управлять виртуальной инфраструктурой от VMWare.
В принципе, наша задача не придумать велосипед, а сделать доступной на рынке России услугу public cloud.
НЛО прилетело и опубликовало эту надпись здесь
Очень давними партнерскими отношениями. Покупая такое высокотехнологичное оборудование, мы хотим быть уверенными не только на бумаге, но и на деле. -)
Не принципиально, Intel или AMD. У нас решение в достаточной степени кастомизируется под клиента, так что все зависит от предпочтений клиента. Пока на данный момент блейды комплектуются процессорами Intel.
Необходимость аренды лицензий VmWare несколько портит впечатление.
Наша политика не вводить в заблуждение клиента и предлагать только строго линейные решения, а построить вместе с нашим клиентом то решение, которое действительно будет решать его задачи. Например, более старшие лицензии позволяют отстроить своё облако с применением разных вкусностей, типа Fault Tolerance, Storage VMotion и т.п…
А до 5600 серии процов чуть-чуть не до терпели? :)
Следующая стойка как раз будет с ними :-)
Единственно что смущает, почему не взяли FC.
Или у вас мезанин на 10g?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий