Как стать автором
Обновить

Комментарии 19

А разве по цене 10G ethernet не сильно дороже любого FC?
Ну, разобьем вопрос на несколько частей.

Сколько стоит аппаратный HBA на 10G, тот, что называется CNA — Converged Network Adapter. Судя по текущей ситуации на price.ru (хотя такие вещи не на прайсру покупают, конечно) двухпортовый 10G CNA Cisco-Emulex стоит в районе полутора тысяч долларов. Это два порта, каждый по 10G, с аппаратной поддержкой работы как FC, так и «обычного Ethernet», например iSCSI или NFS/CIFS.
Это несколько дороже, чем текущая цена на FC HBA на 4Gb, однако сравнимо с HBA на 8Gb. При этом потенциал у 10G выше, а в тот же провод можно запихнуть и другой трафик, то есть вместо нескольких адаптеров (как нарисовано на первом рисунке), каждый за некоторые немаленькие деньги, отдельно FC, отдельно Ethernet, все можно пустить по одному кабелю. Экономия на: картах, кабелях, портах коммутатора и target.

Часть два: стоимость инфраструктуры. Тут считать сложнее, и прайсру тут нет. Но мы имеем упрощение физической топологии и некую экономию на затратах на администрирование, я полагаю (точно считать надо в каждом конкретном случае). А также экономия на электричстве. И это совсем не «экономия на спичках», как показывает реальная практика.

Часть три. Тут следует понимать, что переход в FCoE делают чаще всего не затем, чтобы сэкономить «тыщонку-другую». FCoE интересен прежде всего другим. Экономия возможна, как показана в части первой, но это совсем не решающий аргумент для тех компаний, которые переходили и переходят в инфраструктуре на FCoE.

Вот примерно в таком аспекте.
Да, забыл отметить, что если брать не CNA, а обычные 10G NIC, просто сетевые карты, без «аппаратной поддержки», и делать «софтверно» (об этом также выше упомянуто), то они уже упали баксов до 500 за порт, по моему, если не ниже. Давно смотрел, а динамика дешевения у них ну очень стремительная.
Ох, ё! А действительно, давно я не смотрел что делается с ценами.
Двухпортовый Planet ENW-9800 уже по 500, то есть даже 250$ за порт.
Этак скоро их домой в домашние NAS-ы станут покупать :-)
FCoE дороже «стандартных» инфраструктур, порой заметно.
Как верно ответили — делается он не ради «сэкономить»…

Очень многие не любят совмещать SAN и LAN в одной сети/девайсах — вот главная причина, почему FCoE буксует.
НЛО прилетело и опубликовало эту надпись здесь
Это все же в разных областях и в разных «весовых категориях» игроки. Примерно как велоипед и танк, наверное. :)
Вынесу из привата, потому что возможно будет интересно не только спросившему

> А Вы можете мне «на пальцах» объяснить, какие преимущества у FCoE перед AOE?
> Я не вижу критических.

Тут вопрос в том, что и для кого считать критическим. Я не зря привел сравнение в виде велосипеда и танка. Перечисление преимущества велосипеда будут совершенно неубедительными для «пользователя танка» (равно как и наоборот). Нет «общего поля» для спора.
И дело не в том, что кто-то из них лучше или хуже, просто они «для разного».

Например, я могу вам сказать, что под FCoE (и iSCSI) есть «аппаратно» их реализующие стораджи, с огромной производительностью, что FCoE (и iSCSI) сертифицирован на совместимость и поддерживается тем или иным ПО (каким-нибудь Oracle, к примеру), а это значит, что вы можете его использовать в поддерживаемых производителем системах. Что FCoE используется в десятках и сотнях проектов для бизнес-критичных систем, и заркомендовал себя стабильным и надежным, а вот насчет сколь-нибудь значительных, как по размеру, так и по задачам, инсталляций я что-то даже и не слышал, до сих пор считал, что это какой-то такой забавный эксперимент, не имеющий практичской цености, вроде RAID-5 на флопиках ;).

Но для ваших целей все эти аргументы, я подозреваю, аргументами являться не будут, потому что у вас задачи из иной области.

То есть даже то, чем явно гордятся на страничке ATA-over-Ethernet в Википедии, что «спецификация занимает всего 12 страниц, против 278 у iSCSI», это, на мой взгляд довольно сомнительное достоинство, говорящее скорее об ограничнности, недостаточной прспективе и менее подробной проработке (обычно «вылазящей боком» в совместимости разного «железа»).

FC через несколько лет ожидает судьба FR — некогда оплота корпоративных сетей передачи данных.
Ну это неизбежно, все когда-то рождается, развивается, затем устаревает и остается доживать в какой-то нише, а на его место выходит что-то новое.
Всегда так было, всегда будет.
Ну, здорово. Сначала мы отделяем сети хранения данных от локальных сетей, потому что это выгодно, а потом объединяем их обратно, потому что это выгодно.
Разумеется. :) Как говорится «ничего личного, только бизнес» ;)
Интересно, почему размер jumbo-frame для 10Гбитной сети выбран столь малым (2112 байт), если даже для обычного ethernet-гигабита стандарт «де-факто» 9кбайт?
“Технология FCoE для построения законченных сетей от серверов до систем хранения данных (FCoE end-to-end) не востребована рынком и компания Brocade не ожидает, что эта технология станет в обозримом времени востребована для этих целей” © Brocade.

Пост закрыт.
> Технология FCoE для построения законченных сетей от серверов до систем хранения данных (FCoE end-to-end) не востребована рынком

«А мужики-то не знают!»

Да, © Brocade, они смешные. Лет пять назад они также рассказывали про то, что iSCSI это мертворожденный протокол, и никто им пользоваться не будет, а все будущее — за FCIP.
Классический пример, описанный в «Лисе и винограде» :)
Игнорировать Brocade не получится — они так сказали и я перестал упоминать в своих выступлениях FCoE вообще, чтобы не бередить душу.
> Игнорировать Brocade не получится

Ну, не сотворяйте себе кумира. Не один Brocade на рынке.

> они так сказали

Почему сказали — понятно. Потому что главный их на сегодня конкурент — Cisco, а она имеет отличные позиции в области Ethernet.

Но что касается объективности — Brocade, как апологету native-FC просто нечего противопоставить эквивалентного к 40G Ethernet, который уже пошел в продакшн.

Ну как там у fcoe дела?

Зарегистрируйтесь на Хабре , чтобы оставить комментарий