Pull to refresh
9
0
Send message
я правильно помню, что в случае потери одной IO group, ресурсы на вторую перекинутся?
Для каких задач имеет смысл собираться кластер? Придумать не получается…
ссылки на конфиг, на spec.org, идут на одну и ту же конфигурацию.
30 тысяч это какой % от стоимости?
Пара для записи выбирается случайно, репликация поблочно, запись синхронная. Можно увеличить/ уменьшить количество копий блоков, на уровне ВМ. Nutanix пытается растащить данные между несколькими коробками если блоков несколько.
Я не готов ответить на вопрос про величину задержки.

В конфигурации с тремя нодами система гарантирована переживет потерю любой ноды. Время ребилда зависит от многих факторов, но надо понимать что поскольку нет RAID, то, при выходе из строя диска, данные ребилдятся со всех дисков и на все диски, что намного быстрее… Если вопрос про софт, то он вполне надежен — решению не первый год.
Доступное место считается по простой формуле, сложить пространство на все узлах и поделить попалам. (порядка 50ГБ отъедается от SSD на каждом узле для своих нужд). Новый узел добавляется просто. кнопкой Add.

В кластер можно объединять любые узлы с разной конфигурацией, часть узлов может иметь больше SSD, меньше SATA, наоборот. Есть определенный выбор CPU/ количества RAM.
Ньюанс в том, что при малом количестве узлов может быть некий дисбаланс распределения данных между емкими и быстрыми узлами.

Одно из удобств расширения блоками в том, что Вы знаете сколько будет стоить апгрейд на любое количество. При это вместе с емкостью у растет и скорость. Сейчас 20 ВМ, а через год надо 200 и это стоит в 10 раз больше. Классическая СХД, так просто не маштабируется, тут и лицензирование может быть другое и замена контроллеров, помимо того что это непредсказуемо это, как правило, дороже.

В случае сбоев — минимально надо 2 узла для работы, это деградированое состояние, но если хватит места Nutanix сделает две копии данных.
В случае включения выключения коробки тоже все просто CVM загрузились собрали кластер появился сторадж. Если вопрос в том, как включать — включать все сразу.

Мультисайт. Растянуть кластер не получиться (пока). Возможна эта фича будет. Есть асинхронная репликация, есть возможность включить машину на резервной площадке из консоли управления Nutanix. Есть интеграция c SRM.

Решение не только под VDI, но и под серверную виртуализацию. Нишевое — согласен, но виртуализация практически везде есть. Платформа так же работает с Big Data — Hadoop, Splunk.

А что кроме HA есть для отказоустойчивости ВМ? Чтобы Вы еще хотели?

iSCSI — сам протокол у всех одинаковый, и в данном случае протокол зависит от гипервизора. Отличие от остальных решений, что серверы используются не только как вычислительные узлы гипервизора, но и реализуют отказоустойчивую СХД. За счёт того что данные расположены локально мы получаем большую скорость. За счёт того, что всё реализовано программно — гибкость.

В данном документе чуть более подробно написано как защищаются данные:
go.nutanix.com/TechNoteNutanixSystemReliability_LP.html

Если кратко, в случае отказа возможны 2 варианта:
1) мы теряем один или несколько дисков, или саму CVM Nutanix. Тогда данные запрашиваются с других узлов, средствами MPIO гипервизора происходит переключение, как у обычных СХД. Для ВМ это незаметно, есть деградация по скорости, чем больше узлов тем менее заметная.

2) Если мы теряем целиком узел, то данные ВМ доступны на других узлах, и могу быть там перезапущены — вручную или средствами HA, например.

При это каждый из гипервизоров видит пространство как общедоступный раздел/шару. Поверх этого работают все фичи гипервизора: vMotion/Live migration; HA; SCV; DRS итд.

Что касается скорости — заявлено до 20 000 IOPS на узел. Это синтетика. С точки зрения реально производительности я бы ориентировался, я давал ссылку, вот на это: go.nutanix.com/rs/nutanix/images/Nutanix_VDI_Sizing_Guideline.pdf

5000 реальных, честных IOPS, что очень неплохо.
Это реализовано на NDFS. Поверх чего она работает, на основе чего создана не знаю.
Общий принцип тут:
go.nutanix.com/TechNoteNutanixPerformance_LP.html
go.nutanix.com/TechNoteNutanixSystemReliability_LP.html
go.nutanix.com/TechNoteNutanixSystemScalbility_LP.html
тем не менее в виртуалках можно много чего развернуть, например:
Microsoft SQL Server Best Practices
go.nutanix.com/rs/nutanix/images/sql-on-nutanix-bp.pdf

Решение начиналось как VDI, сейчас это и серверная виртуализация
из названия файла дистрибутива.
Кратко процесс обновления: прошивка заливается на один узел, он распространяет его на другие, по очереде перезагружаются ноды. Делается из командной строки. Обещают автоматизировать в следующих версиях, сделать из GUI.
Привязка к железу сделана из маркетинговых соображений, это мое мнение. В прицепе, есть возможны варианты купить Nutanix на другом железе.
Как таковых аналогов мне не известно, если брать только СХД часть, то очень похоже на LeftHand, Starwind итд.
habrahabr.ru/company/croc/blog/214139/#comment_7364367

Цены правильные — GPL, но в России цены предоставляются по запросу.
ОС Free BSD. Почему за год?
Конфиг серваков мне совершенно не понятен, почему так мало памяти? Учитывая что это MS доступно к использованию всего по 32 ГБ на узел, иначе фаловер не сработает. Надо было брать 4 DL360/380. И дешевле вышло бы.
На Essential нет даже HA. Наверно речь о Essential Plus. Переключение без перезагрузки ВМ возможно, но у VMware это одно ядро (пока). Есть ещё такое решение количество ядер не ограничено www.youtube.com/watch?v=5wAUq5lVNBI
Фактически два сервера синхронизированы.

Цену написал чуть ниже в комментариях.
Ответ неверный, цену написал.
Ориентировочная розничная цена за конфигурацию, которая была на тестировании — 140k$
Это без учета больших скидок, которые действуют в данный момент.
Рады были помочь:)
Ну а если мы не строим межплатнетный датацентр и нам не нужен Nexus с 190нс? Строим сеть не очень большого предприятия. Чем руководствоваться?:)

Information

Rating
Does not participate
Registered
Activity