Как стать автором
Обновить

Комментарии 45

Спасибо :)
>>протокол TCP/IP не обеспечивает доставку трафика без потери части пакетов

Кажется вы только что разрушили моё представление о мироздании.
это не верно… всё несколько сложнее -есть механизм повторного запуска пакета… впрочем это приводит к серьёзному увеличению задержек трафика… именно это и есть основная беда.
А кто Вам сказал, что FCOE это TCP/IP? Просто напросто FC через Ethernet… да и Ethernet уже другой

iSCSI — да. Но он и не претендует на высокую производительность… пока
...Ethernet уже не торт
Он не претендует, он просто работает ;)
Двухсокетный HP ProLiant BL485c G7 — тут речь я так понимаю идет об 465й модели.
Нет. 465 — это половинчатый сервер.
Тьфу. затупил. Процессорность с размером попутал :(
485G7 не существует
Да я в курсе. К концу рабочего дня мысли выражать сложнее становится :)
НЛО прилетело и опубликовало эту надпись здесь
обновили топик, добавили картинки
НЛО прилетело и опубликовало эту надпись здесь
гадание по мощам?:) блейды как блейды… собсно конвергентных карточек там не видно если не знать где и что искать :) но фотки красивые, инчего не скажу :)
Неплохо бы добавить, что для того чтобы можно было воспользоваться всеми прелестями адаптера NC551i в шасси должен быть установлен HP Virtual Connect Flex-10 10Gb Ethernet Module for c-Class BladeSystem
либо Procurve :)
Не совсем так. Для работы конвергентного адаптера во всей своей мощи нужен именно HP Virtual Connect Flex-10. С Procurve это будет просто сеть.
ну что ж… оба промахнулись :) — нужен VC FlexFabric :)
Нет, не оба… а только Акелла :)

NOTE: Flex-10 capability requires the use of an HP Virtual Connect Flex-10 10Gb Ethernet module. Learn more at: www.hp.com/go/virtualconnect
NOTE: Fibre Channel over Ethernet (FCoE) capability requires the use of an HP Virtual Connect FlexFabric 10Gb/24-port Module. Learn more at: www.hp.com/go/virtualconnect
:) ждёмс свичи флексфабрик :)
Ну почему же, можете купить адаптеры qlogic и через passthrough воткнуться в Nexus 5k например, при этом еще и нормальный QOS будет вместо непонятного трубопровода который Flex10 делает. Поставить CNA в сервер это только четвертая часть вопроса. Построить нормальную инфраструктуру чтобы это работало как следует вот где вопрос.
Если купить Qlogic, Emulex или Brocade, можно подключить их к SAN Dirextor от Brocade и мы получим классический могучий FC для доступа к внешней СХД.

Конвергентный адаптер, это действительно только часть решения. И у НР есть ПОЛНОЕ РЕШЕНИЕ на эту тему. Именно сертифицированные решения лежат в основе «нормальной IT инфраструктуры.»

Cisco тоже пытается сделать полное решение и Нексус только часть его

Не надо пожалуйста называть Flex-10 непонятным трубопроводом. Если так, то мой вопрос: для кого непонятным? :)
но согласитесь нет особого смысла брать конвергентную сеть если потом на выходе корзины подключать обычный FC.
про «нормальную инфраструктуру» — поддержу :)

flex10 и конвергентная сеть не одно и то же :) хотя и связаны :)
>> но согласитесь нет особого смысла брать конвергентную сеть
>> но согласитесь нет особого смысла брать конвергентную сеть

Это зависит от того строите вы инфраструктуру с нуля или у вас уже что-то есть (Системы хранения на FC), так же структуры управления (есть отдельные люди которые очень хорошо умеют FC и вас это устраивает), от структуры доступа к данным и еще от очень многих вещей вплоть до личных предпочтений конкретного CIO или CTO.

В целом смешанная сеть это инструмент. Очень полезный если им уметь правильно пользоваться и понимать сильные и слабые стороны.
Хм… С учетом того, что FC дает 8 Гбит и только для доступа с СХД, а LOM всего 10 Гбит на все, посему нет?
если время задержки сигнала в фабричных свичах будет сопоставимо с fc и будет возможность выделить tcp/ip и FC — я буду первый, кто проголосует «за» всем что поднимается :)
>> Не надо пожалуйста называть Flex-10
Хорошо не буду :)

Я надеюсь вы понимаете что эффективность использования 10 гигабитного линка при отсутствии нормального QOS падает практический на 40%?

HP хочет продавать все, в том числе и сетевое оборудование. Полное решение это значит все части инфраструктуры от одного производителя? Если так то эта ситуация выгодна скорее производителю. Но учитывая vBlock и прочее похоже индустрия движется к этому.
Если бы Flex-10 был коммутатором, это было бы верно. Flex-10 позволяет резать 10 Гбит LOM (интегрированный LAN адаптер) на несколько виртуальных и устанавливать для них скорость. Поэтому 40 % нам не грозит :)
40% вам именно грозит и вот почему: Вы режете полосу на заранее определенные куски, думая при этом о логически достаточной полосе. Т.е. вместо одной трубы в 10Г вы получаете несколько труб фиксированной пропускной способности. Более того учитывая референс дизайн (2 порта по 10 на каждый хост) вы получаете кучу труб часть которых нельзя будет задействовать одновременно из-за ограничений механизмов работы технологий (vmware, iscsi).

Поэтому вы не можете занять полосу другой трубы даже если она не используется, а учитывая что траффик имеет не линейную структуру вы получаете с одной стороны lack of bandwidth в том месте где у вас burst и простаивающий канал там где у вас тишина.

Именно по этой причине я назвал Flex-10 трубопроводом (извините я обещал больше так не делать, но это ведь ссылка).

Еще не смотрел как на Flex-10 сделано управление очередями и работа с задержками, но даже ради того что я написал выше уже есть смысл купить нормальный коммутатор (здесь имеется ввиду Nexus 5k).И FCoE тоже со счетов списывать не стоит, хотя для меня например в существующем состоянии он бесполезен.

В общем по совокупности учитывая что в реальной жизни вы захотите иметь 2 адаптера на хост, потери полосы будут даже больше 40%.

P.S. Я Nexus'ы не продаю, а сервера HP мне очень нравятся.
можно вмешаться?
nexus-ов в исполнении для HP Blade нет(возможно пока) посему стоит главный вопрос — вывод нормального канала с Blade. именно эту проблему и решает flex/flex fabric VC
>> nexus-ов в исполнении для HP Blade нет

Над данный момент только через passthrough.
а смысл (в общем случае) отказываться от возможности сделать инфраструктуру в корзине?
«Бездоказательно Ватсон». «Ограничение механизмов работы технологий». Так и хочется сказать, что если технологии что то не умеют их надо менять. Интересно, а почему мы потеряем всего 40 %, а не 99%?

Кроме того так и хочется спросить: месяц назад мы увеличили полосу пропускания в 10 раз (с 1 Гбита на 10) и нам уже не хватает 0.6 от новой полосы?

Тем не менее, давайте поговорим именно о ВИРТУАЛЬНОСТИ Virtual Connect. Наверное, это самое главное!

Итак сценарий номер 1: у Вас используются эти так называемые нормальные коммутаторы. Замечательно! Но вот незадача, у Вас сгорел сервер — синим пламенем, заметьте сгорел (мы не будем обсуждать почему). В случае традиционных коммутаторов нам нужно для ремонта собрать как минимум троих профессионалов (сетевика, сисадмина и админа СХД) ибо замене сервера повлечет некоторые перестройки в СХД, сети и массивах. Пускай у нас очень шустрые админы и делают все в доли секунды (заметим, что бизнес-пользователи громко кричат и топают ногами, потеряв возможность нажимать кнопки). Наверное все уже понятно. Или я неправ и у Вас все на кластерах и оборудовании с уровнем доступности пять девяток и жестко прописанные и соблюдаемые SLA? Нет?

Сценарий номер 2: у Вас VC. Тогда у Вас два выбора

— мувнуть профиль сервера на запасной (spare) причем сие можно автоматизировать
— тупо поменять блейд (при этом MAC и WWN) не изменятся — с точки зрения внешнего мира это тот же сервер

В результате сервер весело грузится с внешнего массива. Ура! ИТ-сервис восстановлен!

Еще вопросик, а кто сказал, что технология VC не позволяет работать с FCOE? Даже странно как то — это логичное развитие.

Ну и наконец, а я и не отрицаю нормальный конвергентный коммутатор (конечно же Brocade или Procurve). Все определяется бизнес-задачей в соответствии с ITIL. Как это написано «миссия ИТ — underpinning бизнеса». Вот и пускай она андерпиннит бизнес, а не наоборот.

Заметим, что я пока молчу, что если в 10 Гбитах выделить 8 Гбит на доступ СХД, как сейчас дает один порт FC…

Продолжение следует… :) И вот ведь незадача, аналогов VC у конкурентов пока нет, хотя они над этим (по слухам) упорно работают :)
Пример что вы привели выше решается по меньшей мере двумя способами. Если у вас vmware c нужными лицензиями то выход из строя сервера никаких проблем не приносит. Если у вас физика то профили о которых вы говорите есть в UCS, так же переносите и работайте себе на здоровье.

По поводу сборов специалистов как-то не убедительно. Если вам так или иначе нужно приглашать людей (т.е. своих спецов у вас нет совсем), то какая разница по какой технологии их приглашать.

Я же написал выше, у HP замечательные блейды и много чего еще, просто сетевое пока не дотягивает.

У нас да, все в кластерах, а как иначе работать? При довольно дорогом часе простоя (сумма в миллионах рублей) приходиться строить так, чтобы свести количество не плановых остановов к нулю. SLA нет по не зависящим от IT причинам.

А у вас как?
Про сеть не соглашусь. Если оторваться от сетевого оборудования сугубо для ДЦ, то коммутаторы от HP часто превосходят аналогичные продукты от Cisco по производительности, при этом имеют меньшую стоимость и неограниченную пожизненную гарантию. Теперь еще и 3Com приобрели. Но в этом случае даже не знаю радоваться или нет. С одной стороны теперь и маршрутизаторы и секьюрити есть и телефония, а с другой по уровню это железо ниже и Cisco и HP. Надежда на то, что будут тянуть вверх.
Поддержу, линейка Procurve всегда обладала рядом преимуществ и изюминок, а с приобретением 3СОМ линейка сильно расширится. Насчет уровня 3СОМ — я бы не стал говорить столь категорично, что оно сильно хуже. В любом случае теперь 3СОМ уже Хьюлетт-Паккард и, полагаю все будет ОК.
В сценарии номер два надо не забыть о том, что для того, чтобы все работало как вы описываете надо будет неплохо вложиться. Докупить к HP SIM — Virtual Connect Enterprise Manager. И если использовать чистый FC, то помнить, что надо приобрести и Virtual Connect Flex-10 10Gb Ethernet Module, и допустим HP Virtual Connect 8Gb 24-Port Fibre Channel Module. То что FC VC пока не умеет работать без Ethernet модуля большой минус :(
Полагаю, что VC FC так и не сможет жить без VC Ethernet, ибо VC-менеджер живет именно в нем.

Насчет вложений, скажем для начала, что строит корпоративного класса ИТ всегда дорогое удовольствие. Если у Вас конвергентная сеть (FlexFabric), то в конечном итоге без VC FC Вы сможете легко обойтись, ну а VCEM будет Вам просто необходим, если у Вас более одного шасси :)

Пока наша дискуссия носит чисто теоретический характер и говорить дорого или дешево смысла никакого нет (дорого может быть относительно чего то, не более того).
Хм… ну все ткак то больше плюшками балуемся. Я на доступ к СХД вам показываю (просто как на очевидную брешь в Вашем подходе), а тут Циско с Нексусом и FCOE и тем более iSCSI ну никак не катит. Ну и у vmware (одиноко стоящего) тоже все не очень с этим хорошо. Руки, ноги, крылья… главное хвост! Перетащить сеть есть маленькое четвертьдела. Да и для мишнкритикл все таки Юникс онли пока. При довольно дорогом часе простоя очень странно, что у Вас не Юникс.

Насчет сетевое у НР не дотягивает — сильно поспорю (с приобретением 3COM линейка стала практически полной). А вот аналога виртуального коннекта у Циски нет, а ей очень хочется (увидите). Недаром же Циско пошла на рынок блэйдов (пока со слабым успехом однако — до НР, простите, пока очень далеко)

На последний вопрос ответ прост — у меня главные сервисы — мобильник и ноутбук и их внеплановые остановки очень болезненны :), причем не для меня.

Продолжение следует…
Очень хорошая книжка, хотя, к величайшему сожалению, технические книжки устаревают стремительно.
Согласен, но сама подача в серии for Dummies радует :)
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.