Pull to refresh

Comments 31

Довольно беглое сравнение. В таком ключе все почти одинаковые. Было бы интереснее более глубокое сравнение характеристик. Кстати, цены брались из стандартного прайса? А то реальная то цена обычно значительно ниже.
Они действительно одинаковые по сути. Сравнение каких характеристик Вам интересно? Уточните и мы проведем более глубокое сравнение.
Что касается цен — да, они взяты из стандартных прайс-листов. У всех вендоров свой уровень скидки и более точные цены предоставляются по запросу.
Если мне что-то будет интересно, я сам это выясню :)
Ну на вскидку, можно было бы привести для сравнения заявленное MTBF. Есть ли у них BFD еще?
Dell 8132F не поддерживает BFD по спецификации. У остальных заявлена поддержка BFD, в основном для протоколов динамической маршрутизации, а у Huawei, например, и для VRRP и PIM. Все зависит от конкретной задачи. Не все производители открыто публикуют показатели MTBF, поэтому по этому критерию оценки не было.
Видите, уже отличия появляются)
Понятно, что все конкретно под задачи. Если такой фразой отвечать все время, то вместо статьи можно было оставить контакт менеджера.
Не будем забывать, что это простой обзор все таки:)
Если все же нужно сравнение под определенные задачи, то можем и его провести.
В статье присутствует контакт инженера — Хисматуллин Вадим vadim@advanserv.ru.
Телефон: +7 495-666-56-26
А вы Huawei кому-нибудь продаете? При прочих равных будете советовать?
Huawei имеет достойный функционал за свои деньги.
1. Как у них с vendor-lock, в частности по трансиверам (по форумам, тот же Juniper даже Twinax свои требует, иначе 10G никак не подымется)?
2. Как у них с мультикастом и, в частности, с его роутингом? А то вот с Extreme Summit x670 сейчас танцуем — плющит у него PIM. В зависимости от прошивки или регулярно или периодически.
3. Latency применимо к iSCSI тоже интересно.
1. Даже в рамках одного вендора существуют таблицы совместимости трансиверов и коммутаторов. Я бы не стал сильно экспериментировать с оборудованием такого класса.
2. Это только обзор. Тесты и сравнения, в том числе производительности или задержек не проводили. Сами очень надеемся заполучить оборудование в тест.
3. Extreme Networks не является нашим партнером, но, судя по спецификации, тоже не отстает от конкурентов.
Насчёт Juniper я удивлён.
Сам видел статью, где перечислялись вендоры, явно требующие покупать «свои» SFP-модули. И Juniper был назван одним из немногих, кто такое делать не заставлял.
Вроде как да. Но факт есть факт — сейчас тестируем Juniper QFX3500. Гигабит подымается даже на китайских SFP-шках. 10G — пока никак. Причем ни на SFP-модулях с которыми спокойно работает Extreme, ни на twinax-кабеле, который тоже без проблем работает с другим оборудованием.
Физический линк по индикации подымается, а физически пакеты не бегают.

Согласно документации у самого же Джунипера, поддержка third-party кабелей и модулей появилась только в какой-то из относительно последних прошивок. Но работу с ними они не гарантируют и прямо пишут, что претензии по поводу оборудования, которое не их и не подымается даже рассматриваться не будут.

Сейчас наш сетевой инженер танцует с бубном вокруг QFX, попутно напрягая инженеров поставщика. Но 10G пока поднять не удалось.
Может еще серия такая. Сама железяка в работе весьма приятная, но вот «10-ку», ради которой она и берется, еще поднять не удалось.
UFO just landed and posted this here
Я уже ниже ответил.
По факту оказался нюанс работы с новым для нас железом — технари поставщика не уточнили, что для 1G и 10G линков на одном и том же порту нужно настраивать персональные конфиги. В результате 1G был настроен и при работе с гигабитным SFP все работало ок. А вот 10G конфиг настроен не был, в результате при переключении на 10G физика подымалась, а трафик — нет.
1. Juniper MX и Juniper EX кушают модуля SNR 10G XFP и SFP+
2. 30 устройств 670 и 460 250 групп в магистрали и 1000 на бордере по MSDP. проблем не наблюдаем… софт 15.3.1
1. Тестируем QFX3500. Гигабит подымается даже на китайских SFP-шках. 10G — не хочет. Фихический линк показывает, а ни одного пакета не шлет/не принимает. Причем Extreme 670 на тех же SFP+ работает без проблем.
2. К агрегации и коммутации претензий нет. Ну, почти, так как пару недель назад словили «премилый глюк», когда свич перестал принимать новые MAC-и, работая только с теми, что успел насобирать в таблицу, помог только cold restart. А вот чистый UDP-multicast, которым стримится IPTV, непонятным образом глючит — видео периодически затыкается. Софт 15.3.1.4. У QFX-а, кстати, с этим все замечательно. Вот бы еще 10G на нем завести…
UPD. По QFX. Косяк технарский. Раньше с этими железками не работали, а технари поставщика чего-то не упомянули нюанс, что для 1G и для 10G линков на одном и том же порту нужно настраивать отдельные настройки (они могут быть одинаковыми, но нужна копия настроек для гигабитных и десятигигабитных скоростей раздельно).
«Шикарное» сравнение, при том что одного из главных игроков на этом рынке (Arista Networks) тут просто нет

Это при том что у них коммутаторы имеют лейтенси 350нс, wire-rate порты и рвут весх упомянутых здесь вендоров как тузик грелку :D

www.aristanetworks.com/en/products/7150-series

Честно? Лучше вообще без обзоров, чем такие.

Про особенности архитектур (и очень серьезные отличия) — вообще тишина.
Позиции компании Arista еще не так сильны на Российском рынке, в отличии от конкурентов которые имеют крупные партнерские сети и систему техподдержки в нашей стране. Кроме того ориентировочная цена устройства с 24 10Gb портами составляет около 18000$ + техподдержка на 3 года за 8000$: вывод можете сделать сами.
ориентировочная цена устройства с 24 10Gb портами составляет около 18000$ + техподдержка на 3 года за 8000$: вывод можете сделать сами.

По-моему, $18k GPL — прекрасная цена за 24x10G. Поддержка, конечно, чуть дороже типичных «10% от стоимости железки в год», но не так уж и сильно.

shapa
у них коммутаторы имеют лейтенси 350нс, wire-rate порты и рвут весх упомянутых здесь вендоров как тузик грелку

Всех, кроме одного. 190нс. И конечно же эту линейку свитчей в обзоре не упомянули.

Впрочем… Вам важны даже не сотни наносекунд, а микросекунды или даже десятки микросекунд? Мне как-то не особо… :)
Про Cisco Nexus — прекрасный пример ;)

Лейтенси, которая «бумажная». В реалии — требует отключения (точнее — неиспользования) половины функционала, никаких Jumbo frame, никаких L3 и тд. Короче, как обычно — cisco-style.

Накушались мы конкретно с этими нексусами по самые помидоры. Если где-то клиенты жалуются на сеть (мы — это Nutanix), то можно долго не гадать. Cisco Nexus — вероятность 90%.

Конкретно сегодня в очередной раз столкнулись…

Лейтенси — важна, и еще как. Учитывая что пошел массовый переход на NFS / iSCSI (и то верно, FC SAN как таковой умирает), высокие задержки для работы «СХД» (особенно таких как Nutanix) — чрезвычайно вредны.
Лейтенси, которая «бумажная». В реалии — требует отключения (точнее — неиспользования) половины функционала, никаких Jumbo frame, никаких L3 и тд. Короче, как обычно — cisco-style.

Мне казалось, warp mode может L3… Впрочем, если его не включать — нехус все равно бьет аристу где-то на 100нс :)
Накушались мы конкретно с этими нексусами по самые помидоры. Если где-то клиенты жалуются на сеть (мы — это Nutanix), то можно долго не гадать. Cisco Nexus — вероятность 90%.

Ну-ну. Неужели ни у одного из ваших клиентов нет ASR'а? Или 7200-го к примеру?
Лично я на нехусах (правда, только 5к) выловил всего один баг, да и тот скорее косметический (одну команду не может в switch-profile проглотить). А по ASRу еще на этапе лабораторного тестирования с моей подачи завели то ли два, то ли три новых бага. Однако, в продакшне они как-то не глючили… Даже по сравнению с ISR'ами нехусы архистабильны. По крайней мере с последними линейками софта.
высокие задержки для работы «СХД» (особенно таких как Nutanix) — чрезвычайно вредны.

«Высокие задержки» — это миллисекунды.
Средние задержки — десятки микросекунд, примерно любой более-менее современный свитч так может.
Низкие задержки — это единицы микросекунд (типично для cut-through свитчей).
Сотни наносекунд относятся к «охуительно низким задержкам» и нужны единицам. Назовите типичный latency кеша и дисков/флеша вашего СХД — за сколько времени он добудет данные и начнет вталкивать их в сеть? 100нс — это время, за которое свет в вакууме проходит 30 метров, то есть совсем ничто :)
FC SAN как таковой умирает

Ну FCoE очень даже набирает популярность. Но я понимаю, почему вы так говорите — ваша контора не занимается FC :)
Насчёт FCoE, кстати, мне представители самой Cisco (и не только) говорили, что это чисто политическая штука, чтобы FC-специалисты это могли админить, доказывали свою незаменимость и не препятствовали продажам.
А с технической части нафиг она не нужна.
«Представители самой Cisco» бывают разные. Мнение одного CSE не обязано совпадать с мнением и мотивами руководства. Да и про какие продажи идет речь? Циска не производит массивы. Циска делает (делала?) MDSы, но не думаю, что они генерировали много денег. Циска заинтересована в росте IP трафика (например — добавлением к нему storage трафика), чтобы продавать больше железок с 10G/40G портами. Добавление к трафику FCoE — это большие затраты на R&D, чтобы этот самый FCoE внедрить. В общем, мое мнение: циска могла бы и махнуть рукой на FC рынок, рекламируя iSCSI, NFS и так далее — от этого продажи не слишком пострадали бы. Однако, они говорят "FCoE лучше, чем iSCSI".

Неужели FC так уж сложен, что можно вести речь о «незаменимости»? Что-то не припомню такого, нет там никакого rocket science. А если рассматривать конвергенцию — по-хорошему, iSCSI трафик должен быть не менее lossless, чем FC, со всеми вытекающими (небольшими) сложностями.

В принципе, FC любят за железобетонную стабильность (драйвера годами пилили) и минимальные оверхеды. Да и я вообще больше сторонник физически независимых SAN и IP инфраструктур, если, конечно, это в бюджет влезает. Проблемы на сети не затронут общение виртуалок с дисками, т.е. не будет массового падежа виртуалок. Проблемы с FC… Всё, чему я был свидетелем, являлось следствием совершения кем-то очень глупых ошибок, нередко — нескольких подряд, в остальном FC сеть крайне стабильна (в основном благодаря тому, что особо не надо трогать, а потому меньше риск накосячить и/или нарваться на баг).
Не надо мне про цены рассказывать, они реально не имеют ничего общего с тем что вы описали (какой смысл GPL указывать?)

Про «позиции» — это вообще мягко говоря за уши притянуто. В РФ есть? Есть. Продается? Продается.
Ну разве так делают обзоры?

1) Где сравнение задержек? Вообще — кто из них cut-through, кто — store-and-forward?
2) Где тестирование на дропы приоритетного класса в условиях соседства с флудом?
3) Где, в конце концов, самая вкусняшка — Nexus 3524, который формально тоже 24-портовый?
4) Где наименования ASIC'ов, на которых построены свитчи, и процессора, держащего control plane?
5)…

Ну я так не играю…
Дим, А ты напиши эти данные сам? А мы тебе будем очень благодарны! Всегда интересно на что обращает внимание профессионал при выборе коммутатора.

P.S.: Я думаю что ребята, авторы этой статьи — продавцы. У них другие хар-ки оборудования в уме, не те, что ты упомянул.
Профессионал обращает внимание на то, что ему важно. Обычно, когда я выбираю железку, для меня несущественен ответ на пункты 1 и 4 (разве что в последнее время на производительность control plane обращаю больше внимания), так как нет задач, где эти вещи имеют значение. По п.2 я обычно исхожу из того, что дропов приоритетного класса будет ровно ноль, если не превышен CIR — вот только не все производители такое обеспечивают. А когда читаю обзор — мне уже интересны все мелкие детали, которыми различаются свитчи. А в этой статье ну прямо вообще ничего нет. Только функционал control plane плюс особенности реализации стекирования, с практически одинаковым итогом. А, ну да, вскользь DCB упомянут, который относится в том числе и к data plane, и да, циска с хуавеем позорники :) Собственно, на этом интересное заканчивается.

(хотя с другой стороны, я могу ткнуть пальцем в небо, сказать, что три из пяти свитчей основаны на идентичных чипах от Broadcom, и вряд ли ошибусь)
Ну а если мы не строим межплатнетный датацентр и нам не нужен Nexus с 190нс? Строим сеть не очень большого предприятия. Чем руководствоваться?:)
It depends. Начиная с банального «почём 10G порт» без малейших требований даже к функционалу control plane (наличие STP подразумевается, остальное несущественно), и как правило заканчивая теми же вопросами к QoS, плюс общая эфемерная «надежность».

Межпланетному датацентру тем более плевать на сотни наносекунд :)

Ваш обзор можно назвать выжимкой из яндекс-маркета, он, простите, настолько же скучен и неинтересен, как среднестатистическая автомобильная передача с обзорами бюджетных универсалов с точки зрения вместимости, расхода топлива и цены — в сравнении с британским Top Gear, где могут устроить гонку между Bugatti Veyron и реактивным истребителем. В общем, добавьте хардкора.
Неплохое сравнение, но было бы неплохо еще добавить сюда Brocade TurboIron 24X Switch.
Sign up to leave a comment.