Pull to refresh
  • by relevance
  • by date
  • by rating

FCoE: Будущее Fibre Channel

NetApp
image
Шум вокруг планов в отношении Fibre Channel over Ethernet (FCoE), объявление о поддержке его почти каждым производителем в нашей индустрии, все выглядит так, словно этот транспорт намеревается в ближайшее время окончательно вытеснить существующие сети Fibre Channel. Усилия по стандартизации завершились ратификацией, в 2009 году, поэтому многие производители, в том числе (и одними из первых) NetApp, и наш давний партнер Cisco, активно выводят продукты с использованием FCoE на рынок.

Если вы сегодня используете технологию Fibre Channel, вам следует разобраться и подготовиться к приходу этой новой технологии. В этой статье, я попробую ответить на некоторые важные вопросы, которые могут возникнуть о технологии FCoE, такие как:
  • Что такое FCoE?
  • Почему именно FCoE?
  • Каковы возможности FCoE?
  • К чему нам готовиться в будущем?
Читать дальше →
Total votes 17: ↑16 and ↓1 +15
Views43.4K
Comments 18

Новые компоненты для Proliant-ов

Hewlett Packard Enterprise
В начале этого года наша компания анонсировала новые компоненты для использования в серверах HP ProLiant. С января для HP ProLiant G7 стали доступны модули памяти DDR3 изготовленные по технологии 40 нанометров и по сравнению с 60-нанометровыми модулями предыдущим поколением DDR2 работают вдвое быстрее и в то же время на 73% потребляют меньше энергии. Новая технология производства, позволяет увеличить объем планок до 32 Гбайт, поэтому максимальный объем оперативной памяти двухсокетных HP ProLiant G7 на базе Xeon 5600, у которых 18 слотов DIMM, удвоился до 384 Гбайт, а их аналогов на базе AMD Opteron 6100, оборудованных 24 слотами DIMM, вырос до 584 Гбайт. Наконец, наша флагманская восьмисокетная модель HP ProLiant DL980 G7 с процессорами Xeon 7500 при использовании 32-гигабайтных модулей памяти масштабируются до двух терабайтов. Такие объемы оперативной памяти требуются, если серверы используются для виртуализации, обслуживания больших баз данных и высокопроизводительных вычислений.

Также с января владельцам HP ProLiant G7 предлагаются 10-гигабитные карты Ethernet для подключения серверов к конвергированным сетям. Благодаря встроенной поддержке FCoE и iSCSI они освобождают центральные процессоры серверов от обработки сетевого трафика этих протоколов.
Читать дальше →
Total votes 9: ↑7 and ↓2 +5
Views2.8K
Comments 4

Дисковый массив HP EVA — все просто!

Hewlett Packard Enterprise
В преддверии выхода новых моделей дисковых массивов P6000 EVA, я хочу показать насколько просты и эффективны эти массивы в работе.

Традиционной сферой применения массивов HP P6000 была и остается виртуализация, интеграция с Microsoft, Oracle, SAP и широким спектром бизнес-приложений. Линейка P6000 представлена двумя моделями: P6300 EVA и P6500 EVA. Эти системы хранения построены на базе технологии SAS (Serial Attached SCSI) и поддерживают диски малого (SFF) и большого (LFF) форм-фактора различной емкости – от 146 ГБ до 3 ТБ.

В отличие от прежних поколений массивов Enterprise Virtual Array, P6000 EVA оборудованы как портами Fibre Channel 8 Гб/c, так и портами Ethernet 10 Гб/c или 1 Гб/c, что дополнительно позволяет подключать серверы по протоколам iSCSI и FCoE.
Читать дальше →
Total votes 20: ↑16 and ↓4 +12
Views55.7K
Comments 56

Включаем FCoE на коммутаторе Cisco Nexus 5000

IT InfrastructureCiscoServer Administration
Sandbox
Кратко о технологии FCoE
FCoE (Fibre Channel over Ethernet), представляет собой ключевой протокол для поддержки унифицированной матрицы коммутации ЦОД, позволяющий консолидировать инфраструктуру ЦОД, повышать эффективность управления, а также наращивать гибкость и производительность инфраструктуры. Следуя курсу на использование Ethernet для унификации подключений в ЦОД, компания Cisco поддерживает протокол FCoE в своих ключевых продуктах, в том числе в коммутаторе для сетей дата-центров Nexus 5000 и в новой системе унифицированных вычислений UCS (Unified Computing System), которая объединяет вычислительные и сетевые ресурсы для поддержки виртуализации. Применение одной и той же физической среды для соединения серверов и сетей хранения данных SAN (Storage Area Network) упрощает серверную и сетевую инфраструктуру, а также инфраструктуру хранения данных.

Технология Fibre Channel over Ethernet (FCoE) представляет собой очередной этап эволюции консолидированных сетей хранения данных. Спецификация стандарта была предложена комитету T11 Национального института стандартизации США ANSI (American National Standards Institute) сообществом ведущих ИТ-компаний, в числе которых IBM, Intel, Brocade, Cisco, EMC, Emulex, Nuova, QLogic, Sun Microsystems.

В статье описывается включение FCoE на коммутаторе Cisco Nexus 5000
Читать дальше →
Total votes 7: ↑6 and ↓1 +5
Views11.5K
Comments 4

CloudEngine. Заявка на лидерство от Huawei. Часть 1

High performance
Sandbox
Данная статья открывает серию публикаций посвященных совершенно новой линейке оборудования компании Huawei под общим названием CloudEngine, а так же технологиям и решениям, примененным в этом оборудовании.
Читать дальше →
Total votes 5: ↑5 and ↓0 +5
Views12.1K
Comments 5

Будущее Ethernet & FC

System administrationIT InfrastructureCiscoNetwork technologiesData storages
Эти два протокола долго жили в разных нишах применения, но наступило время, когда они стали конкурировать друг с другом. Мы однозначно видим, что Ethernet набирает скорость в прямом смысле слова и начинает лезть туда, где FC всегда считался единственным игроком на поле. Появились альтернативы FC, работающие на Ethernet, как в блочном доступе: IP-SAN, FCoE так и других типах, это файловый (SMB, NFS), RDMA и объектный.
Эта статья не призвана к сравнению протоколов, а скорее как краткое хронологическое описание эволюции сетей ЦОД.


* по некоторым событиям нет точных дат. Корректировки и дополнения по датам прошу присылать с удостоверяющими их ссылками. Таймлайн.
Читать дальше →
Total votes 7: ↑6 and ↓1 +5
Views21K
Comments 19

Консолидация LAN и SAN сетей ЦОД на базе протоколов DCB и FCoE

Cisco
Цель данной статьи — дать читателю базовое понимание технологий, благодаря которым стало возможным объединение двух сетей Ethernet и Fibre Channel (FC). Эти сети долгие годы строились параллельно и сопровождались независимо. Протоколы Data Center Bridging (DCB) и Fibre Channel over Ethernet (FCoE) позволяют совместить функции обеих на едином наборе оборудования, что экономит капитальные и операционные затраты на инфраструктуру Центров Обработки Данных.
Читать дальше
Total votes 11: ↑9 and ↓2 +7
Views18.2K
Comments 4

VMware ESXi 5.Х и NetApp ONTAP 8: тюнинг

High performance
В продолжение темы об оптимизации хоста для взаимодействия с СХД NetApp FAS, эта статья будет посвещена оптимизации производительности VMWare ESXi, предыдущие статьи были посвящены тюнингу ОС Linux и Windows в среде SAN. Компания NetApp давно тесно сотрудничает с VMware, подтверждением тому может стать тот факт, что нашумевшая технология vVOL была реализована одной из первых ещё в релизе Clustered Data ONTAP 8.2.1 (Август 2014), в то время как vSphere 6.0 ещё даже не выпущен. В связи с чем системы хранения NetApp FAS крайне популярны в этом окружении. Часть про Disk Alignment будет полезна не только владельцам NetApp.

Настройки VMWare ESXi можно разделить на следующие части:

  • Оптимизация гипервизора
  • Оптимизация гостевой ОС (GOS)
  • Оптимальные настройки SAN (FC/FCoE и iSCSI)
  • Настройки NAS (NFS)
  • Проверка совместимости оборудования, прошивок и ПО


Для поиска узкого места обычно выполняют методику последовательного исключения. Предлагаю перво-наперво начать с СХД. А дальше двигаться СХД -> Сеть (Ethernet / FC) -> Хост ( Windows / Linux / VMware ESXi 5.Х и ESXi 6.X ) -> Приложение.
Читать дальше →
Total votes 13: ↑9 and ↓4 +5
Views22.5K
Comments 7

Зонинг для кластерного хранилища в картинках

SAN
Системы хранения NetApp FAS могут объединяться в кластер до 8 нод для предоставления доступа в SAN сетях и до 24 нод для Ethernet сетей. Давайте рассмотрим пример настройки зонирования и схему подключения для таких кластерных систем.

Общая схема подключения для SAN и NAS.
Читать дальше →
Rating 0
Views9.1K
Comments 9

NVMe over Fabric, Fibre Channel и другие

ТринитиIT InfrastructureData storage
image Про грядущую смерть Fibre Channel говорят разве что чуть меньше, чем про смерть ленточных накопителей. Еще когда скорость была ограничена 4 Гбит, уже тогда на смену FC прочили новомодный iSCSI (пусть вменяемый бюджет только на 1 Гбит вариант, но 10 где-то уже совсем рядом). Время шло, а 10Гбит ethernet оставался слишком дорогим удовольствием и к тому же не мог обеспечить низкую латентность. ISCSI в качестве протокола общения серверов с дисковыми системами хоть и получил значительное распространение, но полностью вытеснить FC так и не смог.

Прошедшие годы показали, что инфраструктура Fibre Channel продолжает активно развиваться, скорость интерфейсов растет и говорить о грядущей кончине явно преждевременно. А еще весной этого (2016) года был анонсирован стандарт Gen 6, удвоивший максимальную скорость с 16GFC до 32GFC. Помимо традиционного увеличения производительности, технология получила и ряд других новшеств.

Стандарт позволяет объединить 4 линии FC в один канал 128GFC для соединения коммутаторов друг с другом через высокоскоростной ISL линк. Коррекция ошибок (Forward Error Correction, FEC) уже была доступна в продуктах FC пятого поколения в виде опции, но в Gen 6 ее поддержка стала обязательной. На столь высоких скоростях не только вероятность возникновения ошибок возрастает (BER для Gen 6 составляет 10-6), но и еще больше возрастает влияние ошибок на производительность из-за необходимости перепосылки кадров. FEC позволяет принимающей стороне исправлять ошибки без необходимости делать повторные запросы на перепосылку кадра. Как следствие, мы получаем более «ровную» скорость передачи данных. Не обошли вниманием и энергоэффективность — для снижения энергопотребления медные порты могут полностью отключаться, а оптические снижать мощность до 60%.
Читать дальше →
Total votes 17: ↑16 and ↓1 +15
Views8.8K
Comments 7

NetApp ONTAP & ESXi 6.х tuning

High performance
В продолжение темы об оптимизации ESXi хоста для взаимодействия с СХД NetApp ONTAP, эта статья будет просвещена оптимизации производительности VMWare ESXi 6.X, предыдущие статьи были посвящены тюнингу ОС Linux, Windows и VMware ESXi 5.X в среде SAN. Компания NetApp давно тесно сотрудничает с VMware, подтверждением тому может стать тот факт, что нашумевшая технология vVOL была реализована одной из первых ещё в релизе Clustered Data ONTAP 8.2.1 (Август 2014), в то время как vSphere 6.0 ещё даже не был выпущен. Компания NetApp первой объявила поддержку vVol c NFS (Возможно NetApp по-прежнему здесь единственный, не слежу). В связи с чем системы хранения ONTAP крайне популярны в этом окружении.

Эта статья будет полезна владельцам систем хранения с ONTAP, а часть про Disk Alignment будет полезна не только владельцам NetApp`а.

Настройки VMWare ESXi 6.X можно разделить на следующие части:

  • Оптимизация гипервизора
  • Оптимизация гостевой ОС (GOS)
  • Оптимальные настройки SAN (FC/FCoE и iSCSI)
  • Настройки NAS (NFS)
  • Проверка совместимости оборудования, прошивок и ПО


Для поиска узкого места обычно выполняют методику последовательного исключения. Предлагаю перво-наперво начать с СХД. А дальше двигаться СХД -> Сеть (Ethernet / FC) -> Хост ( Windows / Linux / VMware ESXi ) → Приложение.
Оттюнить vSphere 6
Total votes 17: ↑16 and ↓1 +15
Views10.8K
Comments 9

Основные протоколы хранения: использование и перспективы

RAIDIXIT InfrastructureServer AdministrationSANData storage


В этой статье мы проведем небольшой обзор наиболее популярных протоколов, которые используются для построения сетей хранения данных (SAN). Также рассмотрим перспективы развития и использования отдельных протоколов, опираясь на общедоступные роудмапы производителей.
Читать дальше →
Total votes 17: ↑16 and ↓1 +15
Views24.5K
Comments 22

Тренинг FastTrack. «Сетевые основы». «Основы дата-центров». Часть 1. Эдди Мартин. Декабрь, 2012

ua-hosting.companyHostingIT InfrastructureCiscoNetwork technologies
Tutorial
Около года назад я заприметил интереснейшую и увлекательную серию лекций Эдди Мартина, который потрясающе доходчиво, благодаря своей истории и примерам из реальной жизни, а также колоссальному опыту в обучении, позволяет приобрести понимание довольно сложных технологий.



Мы продолжаем цикл из 27 статей на основе его лекций:

01/02: «Понимание модели OSI» Часть 1 / Часть 2
03: «Понимание архитектуры Cisco»
04/05: «Основы коммутации или свитчей» Часть 1 / Часть 2
06: «Свитчи от Cisco»
07: «Область использования сетевых коммутаторов, ценность свитчей Cisco»
08/09: «Основы беспроводной локальной сети» Часть 1 / Часть 2
10: «Продукция в сфере беспроводных локальных сетей»
11: «Ценность беспроводных локальных сетей Cisco»
12: «Основы маршрутизации»
13: «Строение роутеров, платформы маршрутизации от Cisco»
14: «Ценность роутеров Cisco»
15/16: «Основы дата-центров» Часть 1 / Часть 2
17: «Оборудование для дата-центров»
18: «Ценность Cisco в дата-центрах»
19/20/21: «Основы телефонии» Часть 1 / Часть 2 / Часть 3
22: «Программные продукты для совместной работы от Cisco»
23: «Ценность продуктов для совместной работы от Cisco»
24: «Основы безопасности»
25: «Программные продукты Cisco для обеспечения безопасности»
26: «Ценность продуктов Cisco для обеспечения безопасности»
27: «Понимание архитектурных игр Cisco (обзор)»

И вот пятнадцатая из них.
Читать дальше →
Total votes 17: ↑12 and ↓5 +7
Views6K
Comments 5

oVirt за 2 часа. Часть 1. Открытая отказоустойчивая платформа виртуализации

Open sourceIT Infrastructure*nixVirtualizationServer Administration
Tutorial

Введение


Open source проект oVirt — свободная платформа виртуализации корпоративного уровня. Пролистав habr, обнаружил, что oVirt освещен здесь не так широко, как того заслуживает.
oVirt фактически является апстримом для коммерческой системы Red Hat Virtualization (RHV, ранее RHEV), растет под крылом Red Hat. Чтобы не возникло путаницы, это не то же, что CentOS vs RHEL, модель ближе к Fedora vs RHEL.
Под капотом — KVM, для управления используется веб-интерфейс. Базируется на ОС RHEL/CentOS 7.
oVirt может использоваться как для «традиционной» серверной, так и десктопной виртуализации (VDI), в отличие от решения VMware обе системы могут уживаться в одном комплексе.
Проект хорошо документирован, давно достиг зрелости для продуктивного применения и готов к высоким нагрузкам.
Эта статья — первая в цикле о том, как построить работающий отказоустойчивый кластер. Пройдя по ним, мы за короткое (порядка 2-х часов) время получим полностью работающую систему, хотя ряд вопросов, конечно, раскрыть не удастся, постараюсь осветить их в следующих статьях.
Читать дальше →
Total votes 5: ↑5 and ↓0 +5
Views10.8K
Comments 0

oVirt за 2 часа. Часть 2. Установка менеджера и хостов

Open sourceIT Infrastructure*nixVirtualizationServer Administration
Tutorial
Эта статья — следующая в цикле по oVirt, начало здесь.

Статьи


  1. Введение
  2. Установка менеджера (ovirt-engine) и гипервизоров (hosts) — Мы здесь
  3. Дополнительные настройки
  4. Базовые операции

Итак, рассмотрим вопросы первичной установки компонентов ovirt-engine и ovirt-host.
Читать дальше →
Total votes 5: ↑5 and ↓0 +5
Views9.1K
Comments 2

oVirt за 2 часа. Часть 3. Дополнительные настройки

Open sourceIT Infrastructure*nixVirtualizationServer Administration
Tutorial
В этой статье мы рассмотрим ряд необязательных, но полезных настроек:


Эта статья — продолжение, начало см. oVirt за 2 часа Часть 1 и часть 2.

Статьи


  1. Введение
  2. Установка менеджера (ovirt-engine) и гипервизоров (hosts)
  3. Дополнительные настройки — Мы здесь
  4. Базовые операции
Читать дальше →
Total votes 9: ↑9 and ↓0 +9
Views4.1K
Comments 1