Pull to refresh
102.56
CloudMTS
Виртуальная инфраструктура IaaS

Как оптимизировать полосу пропускания в сетях Ethernet

Reading time2 min
Views21K
В блоге 45 Drives вышел достаточно интересный материал Роба МакКвина, который работает в R&D отделе компании. В нем идет речь об оптимизации полосы пропускания. Попробуем разобраться в этой истории и основных моментах, о которых рассказал Роб.

/ Фото Karl Baron CC

Роб сравнивает 10-гигабитный стандарт с покупкой нового «Мустанга» после многолетней езды на обычном городском седане — гигабитном Ethernet. Схожесть в настройке позволяет не только с легкостью перейти с одного на другой, но и настроить 20-гигабитные и 30-гигабитные соединения.

Автомобильные аналогии вполне уместны, ибо пропускная способность как понятие схоже с тем, что из себя представляет магистраль: чем больше полос на дороге, тем больше автомобилей пользуется дорогой. С ИТ-инфраструктурой все аналогично.

Какое оборудование здесь упоминается:

  • Ячейки хранения Storinator (чтение и запись на скоростях больше 2 Гбайт/с)
  • Коммутатор Netgear XS708E
  • Сетевые адаптеры Intel X540-T2 (идут к Storinator'у)
  • Сетевые кабели Cat 6, Cat 6a и Cat7

Дело в том, что любая ОС, автоматически определить возможность использования 10-гигабитной сетевой карты — поэтому сам процесс в целом идентичен настройке стандартной гигабитной сети.

Что еще:

  • DHCP для коммутатора — выдача IP-адресов
  • iperf для тестирования качества сетевого соединения

Весь дальнейший процесс основан на объединении нескольких 10-гигабитных соединений. Драйвер для связывания каналов уже есть в Linux — дополнительного ПО здесь не требуется.

Далее в CentOS нужно создать конфигурационный файл (устройства, IP, подсеть, режим связывания и так далее). Для решения этой задачи Роб советует взглянуть на его руководство по модификации каналов для CentOS 7. Процесс настройки для FreeNAS находится тут.

Роб столкнулся с непредвиденной проблемой, которая позволила получить пропускную способность только в 11,3 Гбит/с (вместо 20 Гбит/с). Подозрение пало на стандартный размер окна TCP, но в итоге выяснилось, что Linux самостоятельно определяет оптимальный размер окна.

Другой ход — переключение на джамбо-кадры дал только 13,9 Гбит/с. А вот две сетевые карты в каждой машине и связывание двух интерфейсов (по одному на каждую карту) с коммутатором дало искомое 20-гигабитное соединение (что и подтвердил iperf).

P.S. Другие материалы по теме из нашего блога:

Tags:
Hubs:
+8
Comments10

Articles

Information

Website
cloud.mts.ru
Registered
Founded
Employees
201–500 employees
Location
Россия