Pull to refresh

Comments 22

Я надеюсь вы предупредили заказчика что SimpliVity морально устарела как уже года 3-4 назад. А деградация SSD на SimpliVity просто бешеная.
Раз у вас с бюджетом все хорошо, почему не использовали карты от TERADICHI? У вас провал по процам, а карты снимают 20-25% общей нагрузки.
Тесты с PCI Intel optine — делали?
Это в стиле Крок :) Продолжать упорно продавливать устаревшие технологии, не информируя клиента о том что есть существенно более грамотные, выгодные и надежные решения.

Проблем технических масса — помимо упомянутой тобой деградации SSD — они еще и лимитируют (резко) скорость записи на SSD, чтобы те не умерли в гарантийный срок.

Это — вопиющий технический косяк.

" Both platforms provide the same capacity and burst performance, but a feature called Media Lifecycle Manager can throttle write performance to ensure a full three years of life on the SSDs in the 4000 series nodes."

h20195.www2.hpe.com/v2/getpdf.aspx/a00019351enw.pdf

TERADICHI как раз смысла на правильных протоколах типа Blast смысла использовать абослютно нет, проблема в жестком перерасходе ресурсов самой Simplivity (RAM в особенности).

В целом даже сами HPE уже все поняли.

https://www.hpe.com/us/en/newsroom/press-release/2019/04/hpe-and-nutanix-sign-global-agreement-to-deliver-hybrid-cloud-as-a-service.html
Вопиющий технический косяк» — на самом деле разумное ограничение, т. к. ноды 4000-й серии содержат в себе Read-Intensive диски.

Если изначально понятно, что ожидается постоянная активная запись 24х7, никто не мешает взять ноды 6000-й серии с Write Intensive дисками, где ничего не лимитируется.
Цены на это чудо (с 6000-й серией) видел? :D

и VSAN (который намного лучше Симпливити технически) и уж тем более NTNX будут намного выгоднее, не говоря о тотальном техническом превосходстве.
Видел, но для каждого заказчика и сравнения — это сугубо индивидуальный вопрос.
По моральному устареванию и деградации — вопрос спорный. Тем более в первую очередь важно решение бизнес-задач и обеспечение для них отказоустойчивой, гибкой и производительной платформы, чему это решение полностью соответствует.

Карты Teradici предназначены для оффлоада нагрузки протокола PCoIP. Здесь же при тестировании да и в целом в проектах мы используем HDX для Citrix и Blast для VMware.

Intel Optane в рамках самого SimpliVity не используется. Отдельных тестов под это не проводили, да и большого смысла под VDI в этом не видим.
Лет 10 назад использовали Autoit и ни какого специального софта для тестирования VDI не требовалось.
Выглядит странным использование 2 x Intel Xeon Platinum 8170 26c 2.1Ghz и SATA SSD
Действительно ли целесообразно использовать платинумы, в которых серьезный процент от цены идет за возможность строить 8-ми сокетную систему без костылей, в двухпроцессорных системах? Выглядит, как неудачный костыль (у нас есть 2х сокетная система, надо бы по максимумуму в нее засунуть ядер, и все равно на цена/перфоманс).

Все таки, $7500 за 1 камень с позорной частотой в 2.1. А ведь за $3000 ведь можно купить Gold 6248, где 20 ядер с частотой 2.5, и они становятся вчетвером в один недорогой 2u корпус типа такого . И такая система на 80 2.5 ГГц ядер будет в разы производительнее купленной.

Да и при готовности платить 30К только за камни (и еще хз сколько за лицензии), странно зажимание денег на NVMe диски. Ну сэкономите за счет SSD, потом пользователи будут ходить утром кофе пить, пока их софт прогревается. Оно того стоит?
Насколько я понял тут речь не о купленном решении, а о том, которое тестировали. Что было доступно на тест из многоядерных процессоров — то и протестировали.
Использование 8170 особенность тестирования, где действительно целью было получить побольше ядер в одном узле.

В реальных проектах, как правильно заметили, чаще всего используем 6148 (новые 6248 только вышли, так что будем в и их закладывать). 4-сокетные серверы ставить не всегда целесообразно, т.к. в итоге получается большой домен отказа, а экономия только в занимаемом пространстве (если сравнивать именно 2U серверы).

Про NVMe диски немного не в тему. В SimpliVity они на данный момент не используются. Да и такого заметного влияния для пользователей они не дадут. А для БД, мегакритичных к задержкам – да.
Про дико устаревший (около 10 лет ему) проприетарный адаптер дедупликации и компрессии коллеги из Крока или сами не в курсе (?), или предпочитают не рассказывать на публику детали.

Дело в том, что этот адаптер «держит» только блоки данных размером 8 килобайт, в итоге все что больше (а почти во всех случаях на сегодня оптимальнее использовать блоки ФС большего размера) — сначала разбивается на блоки по 8, затем обратно «сшивается».
По сути, этот адаптер кардинально замедляет работу подсистемы ввода-вывода, отсюда настолько низкие результаты при тестировании.

p.s. Пример BestPractices от Microsoft для SQL сервера — «Operating System Best Practice Configurations for SQL Server:

»Hence, on a SQL Server machine the NTFS Allocation unit size hosting SQL database files (Including tempdb files) should be 64K.""
Вопрос вопросов для HCI решения, что лучше? Неоптимально так? или на CPU? Тем более для Windows десктопа стандартный блок 4K
Для HCI уже доказано двумя лидирующими вендорами на этом рынке (Dell EMC Vmware и Nutanix) — лучше делать чисто программно.
В современные процессоры (Intel, IBM, AMD) встроены все нужные аппаратные инструкции — как для сжатия, так и дедупликации и криптования (например аппаратная калькуляция хэшей SHA256)

p.s. 4k для Симпливити тоже не оптимально ;)
Лучше бы поделились опытом реальной эксплуатации подобных систем. Синтетика она такая синтетика, на малом масштабе можно сильно пролететь с сайзингом. Например у нас VDI на 120 «power users» использующих в работе СЭД, Почта-офис, UC, CRM «пробивает» в активные часы > 60к write iops avg. В масштабе 300 десктопов 22 iops на арм выглядят далекими от реальных нагрузок.
22 IOPS на рабочее место — это дико низкий результат, отчего вся статья выглядит забавно.

В реалиях должно быть намного выше. 60k на 300 пользователей — вполне верю, это как раз примерно 30% нагрузки на базовый кластер Nutanix из трех узлов (около 180k IOPS random write 4k блоки) (N+1 — два узла и один в запасе).

Какой опыт интересует? Практически все крупнейшие VDI инсталляции в мире сделаны на Нутаникс ;) Есть на десятки и даже сотни тысяч рабочих мест.

В РФ активно ВТБ например использует и регулярно дозакупается.
Это что же за нутаникс-кластер, который 180к иопс тянет на три ноды? All flash там, что ли? У него оверхэд на запись минимум четырехкратный (разве что хранилище RF1 делать).
Где начитались про «оверхеды»? ;) Сказки от конкурентов?

Гибриды, гибриды.

Запись (кроме последовательной) идет всегда на флеш уровень, далее (когда данные остывают) мигрирует на холодный (для гибридных систем).

Нутаникс ОС умеет делать все оптимизации данных (компрессия, дедупликация и прочее) для любого варианта — All Flash (включая NVMe + SSD), Hybrid и т.д.

All Flash цифры намного выше — можно на 4-х узлах легко 600+ тысяч IOPS получить.
Ладно, дальше в приват. Что-то мне подсказывает, что мы слегка о разных нутаниксах говорим. :)
120 пользователь VDI выдаёт 60000 IOPS на запись – это что-то уникальное. Удалось вычислить что действительно создаёт столько нагрузки?

22 IOPS на АРМ в описанных тестах – это дополнительная нагрузка, создаваемая иометром, помимо тех, что создают и другие описанные задачи.

В среднем мы видим по проектам, на дисковую подсистему каждый пользователь генерит по 15-25 IOPS 60/40% R/W. От проекта к проекту цифры естественно разные, но держатся около этих показателей.

Вот для примера скриншоты с реальной системы SimpliVity, расположенной у заказчика под VDI, где создано 216 вм и около 80% из них в среднем активно:
image

image
Да ничего особо уникального, основные потребители браузер, приложение для видеоконференций (видеомост), CRM система (отчеты передаются на клиента в виде .xls), swap — конфигурация vm 4vcpu 8gb ram Win10 Ent LTSC (1809).
Azure нужен для внешних клиентов.
а VDI как правило используют на 99% времени внутри своей сети.
Sign up to leave a comment.