Pull to refresh

Comments 102

А почему вы не используете флешки для загрузки гипервизора в блейдах?
Первоначальная конфигурация подразумевала загрузку с локальных дисков, как наиболее надежную, в отличие от загрузки с флешки. В дальнейшем мы откажемся от загрузки гипервизора с локальных дисков и будем применять boot from SAN(FC), так как FC HBA позволяют грузится с хранилища при определенной настройке LUN на хранилище.
Простите, а как загрузка с HDD может быть, например, надежнее загрузки с Compact Flash карты (учитывая что ресурс чтения у них очень хорош, а латентность намного ниже чем у ЖД)? Думаю у HP тоже на материнках везде есть слот для них как у Sun например? Или я не прав?
Цифрами и тестами я Вам на этот вопрос к сожалению не отвечу. Тут надо проводить тесты на количество циклов записи-перезаписи и сравнивать диски и хардварный RAID. Из своего опыта мне кажется, что 2 SAS диска в RAID 1 + аппаратный RAID-контроллер с кешом будут понадежнее 1 Compact Flash. Тут как говорится дело вкуса, и боязни упадет или не упадет. По поводу разъема — в серверах HP BL 460c G6 есть слот под SD карту и 1 набортный USB. По поводу Compact Flash я не в курсе, честно говоря не видел такого разъема в блейде.
Зачем запись-перезапись для загрузки гипервизора? О_О
Или у Вас что-то пишется на сервере? Почему бы не писать по NFS/iSCSI/FC?
Пишутся туда логи. Можно писать и в какое то другое место, но зачем городить костыли? грузимся отсюда, пишем туда. Не хочется усложнять конструкцию.Не вижу в этом смысла.
В чем смысл? Я уверен что жесткие диски HP от 250 баксов + аппаратный рейд минимум 300 баксов (хотя думаю хпшный 700 где-то стоит), sd карты по 5 баксов (хотя я не вижу в этом смысла, если честно, можно делать network boot для них и соответственно 0). ставить 2 отдельных сервера для netboot'а на каком-нибудь атоме (экономия электричества плюс тяжелее техпроцесс дольше проработает), делать какой-нибудь hastd на них (или линуксовый аналог, уж извините, я бсдшник) с карпом, в обоих ставить дешевейшие SSD, только на чтение.
Для логов (уж не знаю сколько генерируется в день, возьму по максимуму) взять опять же две супермикровские платформы на 3 юнита куда 48 терабайт десктопных хардов влезет. Сделать zfs raidz2 + дедубликацию + архивирование на них, опять же hastd+carp и syslog-ng + snmp, все это пишите.
Хотя честно говоря я даже не знаю сколько Вы будете забивать 48 ТБ логами.
Уверен экономия на лицо.
Там один Netapp стоит больше ляма (рублей), вы же предлагаете экономить на спичках трехсотбаксовых дисках. Друге дело, что грузить с флешки действительно технически более красиво.
Я уверен, что VMWare решение найдет своих покупателей, тем более в РФ не так много тех, кто их предоставляют.
Но это не экономия на спичках — это разумные траты средств. Убрать механические части = увеличить срок работы системы.
>В дальнейшем мы откажемся от загрузки гипервизора с локальных дисков и будем применять boot from SAN(FC), так как FC HBA позволяют грузится с хранилища при определенной настройке LUN на хранилище.

Круто! почувствовал себя 8-ми классником случайно услышавшим разговор программистов. НИ ХРЕНА не понял! Но звучит оооочень круто!

Спасибо за доставленное удовольствие!
В данный момент гипервизор ESXi установлен на локальные диски блейд-серверов.
2 диска в RAID-1 + контроллер HP-P410i. Это естественно стоит денег, но при применении карточек Fiber Channel появляется возможность сделать загрузку с хранилища, без дисков и рейд массива. Собственно это я и хотел сказать.
Статья как раз про крутые железяки, облачный хостинг и всё такое. Про Хаскель я тоже не понимаю всякие монады и подобное. Тем четырем, которые плюсуют ваш комментарий — непонятные слова можно посмотреть в википедии. Безо всякого /sarcasm:
ru.wikipedia.org/wiki/Гипервизор
ru.wikipedia.org/wiki/SAN
ru.wikipedia.org/wiki/HBA
хаххх, я ждал этого коммента! multagor, расшифровывай! ))
А вот смысл ставить C3000 корзину, когда у нее свичи не имеют редант конекшана? Корзины, насколько я помню, стоят одинаково…
Разница 10 тысяч у.е.

Сами сейчас будем брать 7000-ю.
Хм, значит когда мы покупали, то существовала какая-то акция, и нам отдали по цене 3000-ой.
возможно, цена на 3000е корзины приводилась по GPL (цена прайс-листа без скидок), а семитысячную корзину вам продали с внушительной скидкой (в закупках такого оборудования скидка в 20-30-40 процентов не редкость). вот и получилась цена сравнимая.
Скорее скидка, т.к объем был большой.
не поделитесь, под какой проект закупался большой объем корзин? из чистого любопытства интересуюсь.
Для организации: тестовые среды, продакшн… около 400 все в данный момент.
Нее… одна :) просто закупка была большая… корзина, сервера, схд…
PS: Сори за офтоп
внушительнейший объем. Газпром? ))
не удержусь, чтобы не опубликовать этот стих тут:

Девочка эмо сидит на трубе
мечтает о смерти, скорбит о судьбе
но вдруг труба взрывается
Газпром — мечты сбываются!
))
Где-то не там вы покупаете, если HP blades вам достается по цене GPL :)

Вопрос в сторону: а на Cisco B-series не смотрели?
Естественно мы не покупаем железо от HP по GPL. На момент планирования архитектуры циско не рассматривали, они слабо развиты на российском рынке и эти блейды не были нами оттестированы.
Корзины стоят по разному, можете посмотреть прайс на hp.com. Все зависит от самих свитчей (они же interconnect bay в терминологии блейд-корзины).
наша архитектура построена таким образом что каждый блейд-сервер смотрит в 2 интерконнекта Ethernet и в 2 Brocade FC свитча, просто на фото второй Brocade FC switch еще не установлен.
Еще как имеют. Просто в серверы надо докупать дополнительные мезонин-адаптеры.
А скажите, под какие в основном проекты покупаются такие облачные виртуалки?
Стоимость получается около $100 за 1 Гб памяти, что в два-четыре раза дороже, чем «обычные» VPSы.
Доступность нашего комплекса с момента запуска составляет 100%. Это не бравада, это факт. В списке наших клиентов — критичный хостинг больших проектов, клиент берет себе пул и делает там хостинг для своих клиентов, по сути реселлит мощности.Есть несколько игровых приложений для социальных сетей. Интернет-магазины с высокой посещаемостью. Есть клиенты которые выносят 1С к нам. Если есть еще вопросы — с удовольствием отвечу.
Проекты очень различные, от масштабных до небольших.
Не забывайте также, что стоимость собирается из нескольких параметров, в частности, гигагерцы процессора, гигабайты оперативной памяти, место в системе хранения данных, стоимость лицензии, выделенный IP адрес, размещение в дата центре.
Кроме того, стоимость уменьшается при увеличении количества, т.е. в более мощных машинах стоимость компонентов ниже. Действует правило больше ресурсов — ниже стоимость.
К тому же, облачный виртуальный сервер подразумевает гораздо более высокий уровень доступности и отказоустойчивости, так как мы резервируем каждый компонент. В отличии от VPS у вас есть возможность увеличивать\уменьшать ресурсы на «горячую», без перезагрузки машины, выше скорость работы и ресурсами пользуетесь вы один, функционал в итоге выше чем VPS.
Если говорить о целевой аудитории, то такого уровня комплекс интересен в первую очередь тем, кто предъявляет высокие требования к надежности, отказоустойчивости и бесперебойной работе, однако в целом стоимость для такого продукта как раз вполне конкурентная.
Скажите такая доступность это нормально?
host-tracker.com/check_res_ajx/7034867-0/

Хотел посмотреть тарифы и даже после 5 обновлений страницы так и не увидел.
Облако подразумевает высокую доступность, но на сколько вижу с этим плохо.
вы уверены, что проблема на нашей стороне? сайт работает без проблем, может быть, какие-то неясности у хост-трекера? ну и, мы, как и любой нормальный хостер, держим свой сайт не на своих мощностях. это правило хорошего тона на всякий пожарный случай. сайт находится на мощностях NIC.ru.
Значит вам пора отправить ссылку что я дал в nic.ru, а самим перенести сайт к себе.
Можете рассказать про этот «хороший тон». Почему нормальный хостер должен держать сайт у другого? Потому что зная, как она устроена он ей доверяет меньше, чем системе другого хостера? :)
нет. для того, чтобы если вдруг (тьфу-тьфу) у хостера что-то навернется, он мог сообщить об этом на своем сайте (расположенном у другого хостера).
тогда и перекинуть, либо брать дорогой надежный и быстрый хостинг
«тогда и перекинуть» — что перекинуть, когда и куда? неясно.
Перенесите сайт к себе или на другое адекватное облако.
8 ошибок загрузки сайта это ужасно.

К тому же у меня(потенциального клиента) ваш сайт полностью так и не загрузился…
Соответственно 100% доступность ваших сервисов мне до лампочки, т.к. я даже не увидел тарифов.

Сайт это ваше лицо.
Благодарим вас за информацию, на самом деле, это первый подобный случай. Будем делать выводы.
С сайтом — да. «Подвергся ДДоС-у» (с) ;)
да шуршит вроде, не кряхтит. стъянно, в общем)
вопрос немного обывательский — планируются ли ultra cheap предложения, так сказать — народные варианты тарифов? Чтобы можно было приобрести простенькую слабенькую виртуалку, для домашних целей, и цена шла на сотни рублей в месяц, а не на тысячи? С удовольствием бы повесил на виртуальную машинку небольшое файлохранилище, но платить за это много не позволяет земноводная асфикция :=)
Спасибо!
Да, в ближайшем времени мы так же планируем сделать недорогие решения, на более дешевом железе. СХД так же будет использоваться от Netapp.
как ниже ответил наш сотрудник, доступные предложения несомненно планируются. но не ultra cheap — на этот сегмент работают другие компании, с совершенно иным уровнем себестоимости. это их рынок, и не нам с ними на нем конкурировать.
Как-то скучно, все в принципе готовое, интересно было почитать о том, что именно Вы сделали, кроме покупки и установки железа и софта. Возможности vSphere и железок он NetApp и так более-менее понятны.
Согласен с Вами. Мы не стали строить велосипед с Xen,GPFS, Infiniband по аналогу других облачных провайдеров. И построили классическое и отработанное решение которые стабильно, масштабируемо и знакомо многим. В будущем планируется несколько статей о тонком тюнинге Netapp+Vmware. А так же тюнинг самих виртуальных машин для более быстрого взаимодействия с физическими компонентами системы.
Да, задерживается ;)
Цены за какой период указаны на сайте?
Цены указаны за месяц и уже включают НДС.
Простите конечно, глупого, но у вас блейд сервера из золота чистого сделаны? SLA 107%, infiniband в интернет прямо? Я конечно понимаю, когда просматриваешь отечественный рынок, и везде все поголовно хотят отбить всё оборудование за полгода, но это мягко говоря многовато. Хотя конечно судя по тексту с доступностью проблем быть не должно, можно на критичных проектах для часа икс использовать как спасательный плацдарм.

— imho
так вы сами себе и ответили — «можно на критичных проектах для часа икс использовать как спасательный плацдарм». что же тут плохого?
mixrin, предлагаю по пунктам.
1.Срок окупаемости проекта значительно больше чем полгода :) Тем более с поправкой на российские реалии, желание клиента сэкономить, стоимость железа здесь и обилие контрафактного ПО. Не забывайте, что помимо железа, есть фонд оплаты труда, налоговая нагрузка, операционные расходы. Думаю, вы поймете, если занимаетесь бизнесом, или знакомы с внутренней кухней компаний. Невозможно дорогую вещь продать дешево. Т.е. я мог бы предложить вам «облачный» хостинг на самосборе в пыльной серверной за сущие копейки, но вряд ли он хоть сколько нибудь отвечал современным требованиям рынка. Хотя конечно же, везде стоило написать о 100% аптайме и высочайшем уровне сервиса. Хочется быть честными с вами, и в частности поэтому мы и готовим подобные посты, чтобы показать на чем и как все работает. Если вы в курсе цен на железо на котором строится комплекс, то можете без труда посчитать хотя бы стоимость фрагмента, который виден на фото.
2.Какую бы вы компанию привели в пример с аналогичными параметрами и более низкими ценами?
ИМХО, Выкинули много денег, что бы получить дорогое не продаваемое решение, кстати с точками отказа.
Или я чего не понял?
Любое облако стоит больших денег, можете посмотреть на конкурентов на этом рынке — стоит денег все — сервера, коммутация, СХД, работа программистов, аренда стоек и прочее.
Точка отказа, давайте подумаем — несколько линков от ядра датацентра к стеку свитчей, к каждому свитчу подведен свой отдельный линк.SAN — 2 контроллера Netapp FAS 3240 к которым прикручено несколько корзин по петле, оба контроллера настроены в HA, если один выйдет из строя, то луны, которые принадлежали умершему контроллеру «перетекут» на живой контроллер. Нескольно корзин с блейд серверами, которые подключены через SAN Fabric из нескольких свитчей, софтварный HA с помощью Vmware HA Cluster. От каждого сервера 4 Ethernet порта, каждая пара портов смотрит в свой interconnect bay (блейдовый свитч). Вроде бы все учли.
Хотя все-таки точка отказа есть — разрушение, обесточивание, проблема с каналами у датацентра.
У вас все железки в одной стойке.
Надеюсь, в нее идет два питания и два аплинка?
Несколько стоек, в каждую 2 независимых луча питания, все устройства запитаны на каждый луч 50 на 50. Потеря одного луча питания нам не страшна.
тогда пардон, не разглядел.
Хотя, все это до первого кривого апдейта ( или есть тестовое облако?)
Есть отдельный тестовый стенд.
Ну, насчет ценников.

От дорогих стораджей некуда деваться — но я не верю что без FC нельзя было обойтись.
Зачем вы воркеры впихнули в дорогие брендовые блейды мне не понятно. Стойкоместо экономили?
Умеете лучше? ;) Молодым везде у нас дорога.
Спасибо, приятно это слышать это в 38 лет. Умею.

Но, я не буду в ближайшее время делать облако для виртуальных серверов. Оно, по большому счету никому не нужно. И их слишком много — значит ценник там будет ниже плинтуса, вся перспектива тупая торговля ресурсами.

Облако заточенное под решение конкретных задач куда интереснее. Мы таких не одно сделали.

От души жму Вам руку. Так же строил несколько облаков для частных клиентов, под их задачи, интересно, не спорю. Мне 25.
«тупая торговля ресурсами» — это вершина айсберга. это примерно как продавать сырую нефть. на этом поле всегда будут выигрывать те, кто сделает «много и дешево». наша система изначально задумана и постоянно «затачивается» на сложный продукт, на предоставление сервисов. на этом направлении мы делаем первые шаги и идем с постоянным ускорением. приоритетное направление развития — виртуальный офис и многопользовательские веб-приложения. это и есть наши конкретные задачи.
Неаргументировано.
(если не считать за аргумент «дисклеймер»;)
Что именно неаргументировано?
Ценник легко посчитать — не один десяток тысяч убиенных енотов на железки плюс еще лицензии. На выходе решение дороже аналогичной железки. Без администрирования. А кому оно по таким деньгам надо?
piroman, даже если мы сейчас пустимся в пространные разъяснения с описанием аудитории, рыночного сегментирования и перечислением маркетинговых инструментов, вы все равно останетесь при своем мнении. вы заняты в схожем бизнесе — какой смысл в дискуссии? хотите обсудить инженерную часть — давайте обсудим. а вопрос «кому оно по таким деньгам надо» оставим для отдела продаж.
Позвольте переформулирую для лучшей понятности.
За цену одного Мерса SL можно купить десяток ВАЗ-Классиков, а средняя скорость по Москве все равно километров 40 в час.
Значит те, кто покупают Мерседесы — лохи, которых развели в салоне продавцы, они могли бы купить машину в десять раз дешевле!
«А кому оно по таким деньгам надо?» (с)
А если десятку затюнинговать, да затонировать, и писалки синие поставить, мммм! Красота будет похлеще CLK:)))) что эти немцы понимают в машинах ;)
лучше, пожалуй, и не сформулируешь).
Интернет — штука удаленная. Если результаты работы мерседесов и ваз классик одинаковы — нет никакой разницы, кроме потраченного бабла инвесторов.

Клиентам совершенно пофиг, на HP или Интелах крутиться их приложения. Им нужна доступность, сервисы и ценник.

Видел много красивых фирм вбухивавших десятки тысяч уе в брендовое железо. Проходило три года, железо безнадежно устаревало так и не успев себя окупить.
верно сказано, тут не поспоришь. мы стараемся все же балансировать, и не «вбухивать» бездумно.
Саша, Я просто думаю piroman хочет сказать, что брендовое железо либо на любителя (читай покупатель одного сервера), либо для тех кто не хотят париться (читай крупная контора закупающаяся на 5-10 лет или меняющая свой мейнфрейм в связи с дороговизною мегаватта в час :) ).
А так были и эппловские сервера — красиво, но бессмысленно, я на эту красоту в дц ездить не хочу смотреть :).
Единственный бонус встроенные утилиты для упрощения администрированием всем ресурсом в целом. Но в наше время и дешевые производители генерируют подобные продукты, так что смысл отпал.
Вы купили блейды, но намного лучше было бы потратить эти деньги на infinibandовые свитчи и карты вместо FC.
В общем TCO TCO и еще раз ROI :).

Удачи Вам в этом нелегком деле.
спасибо, удача лишней не будет. кому повезет, у того и петух снесет (с).

на старте финанализ производили, ROI считали, и так далее. выбор пал на то оборудование, что мы перечислили. в работе каждой компании есть вещи, видимые только изнутри, так что выбор оборудования, в принципе, можно не обсуждать.

ps. инфинибандовые свитчи и карты, как показывает российская практика, дело крайне туманное, если можно так выразиться.
Я уверен, его не так готовили эти самые «российские практики».
Пускать сетевой траффик где и ддос бывает туда же где дисковые данные ходят как минимум не секьюрно, как максимум приводит к ошибкам, которые мы видели.
> но намного лучше было бы потратить эти деньги на infinibandовые свитчи и карты вместо FC

Более чем сомнительное утверждение.

Сегодня, уж если приспичило, смотреть надо на DCE/10GEthernet, но уж никак не на Infiniband.
Должен согласиться. Но просто 10г эзернет свитчи имхо подороже выходят чем инфинибандовские, или что-то поменялось уже?
Во-первых ситуация меняется действительно очень быстро.

Во-вторых Infiniband, как технология, стагнирует уже много лет в своей нише, из которой так и не выбрался за все эти годы, а Ethernet только набирает скорость, и в roadmap в ближайшие годы и 40 и 100G Ethernet намечены, в то время как для Infiniband нынешние показатели уже потолок.
Намечены то намечены, но стоимость? К тому моменту когда эзернет10г в два раза упадет и будет стоить как инфинибенд 40г уже процессоры три раза поменяются.
А что «стоимость»? Со стоимостью все хорошо, и чем дальше — тем лучше. Если не ошибаюсь, то утверждается, что цена за порт 10G падает вдвое каждые полгода.
Я же не зря выше сказал, что ситуация меняется сейчас очень быстро. Когда вы последний раз интересовались ценами на 10G?
Да вот буквально перед постом на newegg заглянул :).
Еще до этого изучали Cisco 3560 с 10г портом и Force10 s50/n, который 11к стоит новый, причем 1 тысяча из которого — модуль GBIC.
> Да вот буквально перед постом на newegg заглянул

На newegg? 10G Ethernet?
Почему не в Walmart или METRO? ;)

> причем 1 тысяча из которого — модуль GBIC

Есть кабеля Twinax, например. Как вариант. Не всегда нужны GBIC.
SFP у них еще дороже.
Вот цитата поставщика, чтобы не быть голословным.

На суммы добавьте 25%
Стоимость базы 1665000 или около того.
Курс на тот момент был ~180 форинтов за доллар

S50-01-GE-48T-AC-2


S50N — FTOS — 48 port 10/100/1000 BaseT with 4 SFP ports, 2 Modular

slots and 1 AC + 1 DC Power supply

S50-01-10GE-2C


S25P/S50N/S50V — 2 port 10GigE CX4 module

SW-SB-LATEST


FTOS-Force10 Operating System Software Latest L3, Version (for S-Series S50V/S50N/S25P)


Your price


1 863 000HUF — includes one year support and excludes 25% VAT
Force10 S50N configuration with 48x 1000bT, 4xSFP, 2x 10G XFP ports, one populated with XFP-SR module

S50-01-GE-48T-AC-2


S50N — FTOS — 48 port 10/100/1000 BaseT with 4 SFP ports, 2 Modular

slots and 1 AC + 1 DC Power supply

S50-01-10GE-2P


S25P/S50N/S50V — 2 port 10GigE XFP module– XFP optics required

SW-SB-LATEST


FTOS-Force10 Operating System Software Latest L3, Version (for S-Series S50V/S50N/S25P)

GP-XFP-1S — Optional


Qualified 10G XFP optics module — SR/SW


Your price


2 415 000HUF — includes one year support and excludes 25% VAT
Я не про CX4, я про кабеля, которые называются Twinax. Им не нужны GBIC, но они ограничены по длине. Зато дешевы.
Но часто вполне подходят, например для внутристоечного соединения.

Я не понял зачем вы вывалили тут прайс одного частного случая с ценой одного частного поставщика на одну частную модель. Да еще и в марроканских пиастрах ;) Зачем это мне, тут, и вообще что это доказывает, по вашему?
Позвольте вторгнуться в вашу дискуссию. :)
Я соглашусь с вами на 100%, что клиенту все равно на чем крутится его приложение. Сталкиваюсь с этим ежедневно. Очень тяжело донести до людей, почему им необходимо платить больше. Ведь отказоустойчивость не пощупаешь и не положишь в шкаф. И вовсе не обязательно, что где-то, где ценник в два раза ниже все будет ломаться по два раза в неделю.
НО! Если бы все было так, по этой логике, то никто бы не размещался в дата центрах, а уж тем более не резервировал свое оборудование, никто бы не платил бы за SLA, никто бы не страховал машины наконец! Ну а к чему? Ведь не обязательно что-то случится с ней.
Но всегда есть люди, компании которым ВАЖНО, что бы их сервис работал без перебоев, потому что от этого зависит их доход, репутация или другие критичные параметры. И когда подсчет показывает, что дешевле переплатить за надежность, чем терять на простое, тогда человек приходит к нам. Или мы приходим к нему :)
В любом случае, спасибо за ваше мнение. Оно во много отражает сегодняшние реалии.
Во.
При одинаковых SLA вы предпочтете решение втрое дороже?
Piroman, SLA может нарисовать любая компания, которая не боится платить за свои ошибки/проблемы. Но если мои приоритеты требуют устойчивой и бесперебойной работы, я предпочту потратить деньги на это. Тем более, что разница вовсе не трехкратная ;)
Мне кажется тут сложно спорить. Кто то приходит в дорогой ресторан и переплачивает 2х или 3х за качество, сервис, гарантию свежести продуктов, а кто то негодует, как можно за один и тот же продукт брать больше денег. Очень индивидуальные вещи.
Мои наилучшие пожелания всем продавцам и покупателям золотых унитазов.
Безаппеляционность и самоуверенность в нашей отрасли плохие советчики :)
То что вашим клиентам «совершенно пофиг» где «крутиться» их задача не значит, что нет клиентов, которым это «не пофиг».
Это значит, что такие клиенты к вам не пойдут, и на ваших «Калинах» себя не представляют :)

Из того, что у вас нет таких клиентов не значит, что их вообще нет.
Но вам им нечего предложить, вот они к вам и не приходят.
Таких клиентов на три порядка меньше.
Удачи в их поиске.
Насчет «трех порядков» вы, конечно, ввернули ради красного словца.
Но их в самом деле во много раз меньше, чем «массовых». Зато они настолько же и богаче.

Видите ли, то, что ВАЗ в России занимает первое место по продажам автомобилей, с более чем 60% долей рынка, ничуть не делает менее прибыльным бизнес, допустим, Лексуса.
Просто покупатели ВАЗа и покупатели Лексусов — непересекающиеся множества. Это разные рынки, с разными на них правилами.
Вы — занимаетесь массовым рынком, где единственный определяющий фактор для ваших клиентов — цена.
Но есть и другие сегменты рынка, где цена «на 100 рублей в месяц дешевле!» не имеет такой притягательной силы, как для ваших клиентов.
мои наилучшие пожелания всем продавцам и покупателям золотых унитазов, а также лексусов и инфинити.
Остаюсь с обладателями тойот и ниссанов.
Главное, незаметно для себя, сражаясь ценой, не оказаться, в итоге, с продавцами «Калин-малин» ;)
Я смотрю, тут каждый второй читатель просто архитектор облачных Дата Центров. Мне ваше решенеи нравится, я на прошлой работе такое же частное облако хотел сделать, только с IBM блейдами (достались по наследству, хотя сам HP предпочитаю). Вот жду окончания проекта, надеюсь что у коллег и подрядчиков все пройдет успешно.
По поводу выбора решений:
Я бы только поставил под вопрос FC технологию — iScsi/NFS подешевле будут при такой же высокой доступности и хороших коммутаторах. Хотя FC все еще майнстрим и в ЦОДе всегда может пригодиться, если не для виртуализации, то других классических кластеров.
Sign up to leave a comment.