Pull to refresh

Comments 6

Хорошее описание. Насчёт Jumbo Frame спорный вопрос, нужен сценарий нагрузок по соотношению операций. "Товарняк" безсмысленно использовать при r/w 75/25. Безусловно когда группа гостевых ОС грузится, избежать boot atack можно, вопрос проглотит ли СХД. Вообщем есть над чем работать.

Jumbo Frame хорошо утилизирует канал при условии, что его есть, чем нагрузить (3+ Gb/s). В целом, на современном сетевом оборудовании даже при слабой нагрузке большие кадры как минимум не вредят.
Только сейчас более детально вчитался, ошибки/недочёты/пояснения:
1) Параметр Default Gateway не обязателен для использования в сетях SAN, требуется лишь тогда когда необходимо маршрутизировать трафик ВВерх, другим хостам при распределённых ДЦ;
2) Вы подключаете и производите настройку протокола FCP, но описываете далее iSCSI;
3) Использование LUN0 — плохой тон;
4) Для исключения ошибок необходимо включать CRC/Checksum обе галки;
5) Вы используете карты Qlogic 57840, они конвергентные, при этом непонятно при Direct Attach в базе протокол какой у Вас?
6) Опять же по сетевым картам удар, они совместимы только с Windows 2012 R2, с 2019 подтверждённой совместимости нет.
7) Адаптеры очень умные и СХД вероятно тоже, но при этом нигде не ведётся речь о «тонких» настройках, с помощью которых можно качественно оптимизировать сеть хранения данных;
8) Грубейшая ошибка — Вы используете SSD RAID группу, тип 5, учитывая типы накопителей и принципы работы, Вы включаете Write-Back-Cache;
9) Использование Read-Ahead функционала, будет подвешивать массив со временем, изучите принципы работы и разложите их по алгоритму.

Считаю что данный труд — полезен, но далёк от технического совершенства познания мат.части. Без обид, учитывая опыт реализации подобных проектов на разных производителях, данный массив годен лишь для резервных копий и видео наблюдения. Использовать его для чего то серьёзного — hascon.ru НЕ РЕКОМЕНДУЕТ.
Нам, правда, очень приятно, что вы не просто вдумчиво прочли статью, но и потратили свое время на достаточно длинный комментарий. Попробуем ответить по существу:
  • Используемая на скиншотах карта Qlogic 57840 имеет медные порты. И потому никак кроме как в виде Ethernet варианте работать не может.
  • В базе у СХД протокол 10GbE iSCSI. Но Direct Attach поддерживается для всех протоклов (iSCSI и FC)
  • Не понятно, чем вам не угодил RAID5 на SSD с включенным кэшированием контроллера СХД? Write Back Cache позволяет снизить latency массива.
  • О каком подвешивании массива вы говорите применительно к Read Ahead? Не перегибайте. Нет тут такого, все прекрасно работает.

1) Qlogic 57840 — конвергентная карта, то что у неё медные порты не означает её ограниченность;
2) Direct Attach — поддерживают и SAS полки, вопрос топологий которые она может держать по FC SAN;
3) По средством каких манипуляций с алгоритмами расчёта контрольных сумм в RAID 5, вы собираетесь снижать latency при включённом кэшировании операций на запись?

Распишите логику работу массива.

В остальном судя по ответам, продолжать вести диалог не имеет никакого смысла/желания.
Qlogic 57840 — конвергентная карта, то что у неё медные порты не означает её ограниченность;

С удовольствием послушаем, как можно использовать QLE3442-RJ в режиме, отличном от Ethernet. Напомним, что изначально речь шла о «протоколе подключения через Direct Attach».
2) Direct Attach — поддерживают и SAS полки, вопрос топологий которые она может держать по FC SAN;

Эээ, какая еще топология может быть при Direct Attach кроме прямого подключения (что вытекает из названия)? Что же до топологий FC SAN (раз уж вы упомянули), то тут нет ограничений со стороны СХД.
3) По средством каких манипуляций с алгоритмами расчёта контрольных сумм в RAID 5, вы собираетесь снижать latency при включённом кэшировании операций на запись?

Скорость работы кэша контроллера выше скорости SSD. Отсюда и быстрее ответ хосту об успешной записи. А конкретно расчет контрольных сумм уже давно не влияет на производительность у большинства вендоров СХД, поскольку современные вычислительные мощности справляются с этим на раз-два.
Sign up to leave a comment.