Pull to refresh

Comments 9

Мой брат только что из Mellanox уволился, дальше учиться пошёл. Много хорошего рассказывал про их железки

Если говорить в цифрах, то при использовании ethernet-протокола задержки идут порядка 20-30-40 миллисекунд, то в InfiniBand – задержка 1-2 миллсекунды.


А можно более подробно объяснить почему (с точки зрения протокола и интерфейса) задержка меньше в 20 раз?

Как она считалась — от юзерспейса до юзерспейса через 1 (или N) свитчей?

Здесть просто некорректное сравнение — 40мкс даст обычный PING на обычном сервере на 1GbE. А для infiniband нужно воткнуть сетевушки напрямую и пинговать ibping (или как она называется) и она будет показывать половину раундтрипа, что будет составлять порядка 1мкс. Тот же IPoIB даст уже намного большее время, сейчас не помню, но вроде было на порядок больше.
По сути у Ethernet и Infiniband — это одинаковое железо, просто с разными архитектурными приоритетами в программной части.

Забыли вы еще одну очень важную особенность Infiniband, выросшую из его суперкомпьютерного прошлого: возможность построения неблокирующей сети (с топологией толстого дерева). Т.е. такой сети, где если 50% узлов сети одновременно начнут передавать данные другим 50% сети — задержки и скорость передачи данных останутся на том же уровне, как и при общении одного узла с одним узлом.
Спасибо большое за ценное дополнение.
Если говорить в цифрах, то при использовании ethernet-протокола задержки идут порядка 20-30-40 миллисекунд, то в InfiniBand – задержка 1-2 миллсекунды.

точно миллисекунд?

Кстати да, ЕМНИП, то в ТЗ на суперкомпьютер фигурировали наносекунды, а в википедиях пишут про 1,3 микросекунды для QDR.

Это миллисикундные рубежи — удел модемов на 56к, а не оборудования для сетей в датацентрах :)

А можете немного подробней расписать причину отказа от FC?
Могу ошибаться, но fcoe коммутаторы, с поддержкой дают адекватные задержки и стоили вменяемых денег.
Sign up to leave a comment.