Pull to refresh

Comments 3

Как только начнут поддерживать Hyper-V и KVM… как только уйдут от СХД на AllFlash… так сразу
Чтобы эта система поднялась, у вас заранее уже должен быть vCenter и существующая инфраструктура для развёртывания инсталляционной VM. А ещё NTP стабильный и, желательно, DNS. Нормальные коммутаторы тоже. ЦОД «из коробки», не иначе.

Стоит также отметить, что гипервизор VMware vSphere ESXi 6.0 уже предустановлен на всех узлах HyperFlex.
Всё описанное в статье — полная фигня, такое есть у многих вендоров. Самая главная фишка виртуализации на ucs — это vmfex (virtual machine fabric extender). Сетевушки на серверах ucs создаются с помощью vic (virtual interface card) и этих сетевушек на каждом из подключенных к фабрикам серверах может быть гораздо больше двух.

Так вот, vmfex позволяет часть из этих «гораздо больше двух сетевушек» прокидывать напрямую внутрь виртуальных машин с включением directpath i/o. Причём не просто прокидывать (это умеют любые сервера), а прокидывать так, чтобы vmotion оставался функциональным. Вот такого не умеет уже никто кроме ucs.

Зачем нужны directpath i/o сетевушки внутри виртуалок? В первую очередь — это обработка большого количества видеопотоков в реальном времени. Без разделения по отдельным сетевушкам и без directpath i/o работа с большим количеством потоков видео невозможна без ухудшения качества.

Второе приложение — это очистка трафика. Например, ddos на гипервизор с двумя обычными сетевушками положит сетевушки гипервизора полностью, вместе со всеми виртуалками, которые используют эти сетевушки. А вот с vmfex — нет. В подобном случае нагрузка будет только на сетевую подсистему конкретной виртуалки, остальных участников кластера проблема не затронет.
Sign up to leave a comment.