Как стать автором
Обновить
29
0

Архитектор решений

Отправить сообщение

ну вот как раз с lifecycle policy у NetApp StorageGRID очень хорошо. Очень гибко настраиваются политки.

Если есть потребность отображать метрики в Grafana, но нет привязки к zabbix, то советую посмотреть на NAbox.

Ну тогда это вопрос к вендору. Я DPACK как раз воспринимаю как инструмнет для "прикидывания на глазок".

Потому что надо выбирать не по одинаковому количеств удисков, а по требуемым показателям производительности, наджености и функциональности. Каждый вендор может выполнить это требования, используя разные технологии и разное количество дисков.

DPACK не для анализа проблем, котрые были вчера. Это инструмент, который позволяет понять текущее состояние, а дальше уже решать, что с этим делать. Чаще всего его используют для сбора статистики для последующего сайзинга нового решения.

Да, будет выполнен снепшот ВМ, который при наличии интеграции с СХД вызовет создание снепшота на СХД. После этого снепшот на уровне гипервизора удаляется. Снепшот на СХД используется для создания бекапа.
Время жизни снепшота на уровне гипервизора несколько минут.
В случае с NetApp, например, снепшоты не влияют на производительность СХД. Плюс для Veeam и Сommvault поддерживается создание бекапов с реплики снепшота на второй СХД. Всем процессом при этом управляет СРК. Репликация асинхронная, передаётся только разница между снепшотами, так еще и выгода от дедупликации и компрессии сохраняется.

Я конечно понимаю, что Huawei себя прекрасно ощущает на волне импортозамещения. Но давайте фантазии про долю рынка Huawei отложим до того момента, когда это станет хоть немного соответстовать реальности.


IDC

Забавная аргументация. Вы написали пост, в котором вроде как объясняете технологические особенности продукта. При этом на конкретные вопросы про принципы работы ответить не можете.
Каким образом у нас 890 микросекунд превращаются в 90 микросекунд?

Для чего данном случае контрольные суммы? Это erasure coding? Тогда какая схема защиты используется?
Контрольные суммы могут служить вообще для проверки целостности записанных блоков T10-DIF, но при этом никак не обеспечивать защиту данны при выходы из строя SSD.
EC опять-таки накладывает задержки, особенно при записи мелкими блоками.


Низкие задержки достигаются за счет скорости обработки блоков ввода/вывода.

Это не ответ. Объединение данных в цепочки подразумевает храние их в памяти. По вашему же тексту, подтверждения хосту нет пока данные не попали на SSD.

Из текста не особо понятно как происходит защита данных на дисках в рамках одной ноды.


Т.е. поступившие блоки данных объединяются в цепочки, кратные «страницам», и только потом записываются на SSD.

Все промежуточные действия над данными алгоритмом FlexiRemap выполняются в оперативной памяти контроллера. Но массив выдаст подтверждение хосту об успешном завершении операции только после физической записи на SSD.

Как при использовании подхода описанного выше получается получить низкие задержки?
Объединение данных в цепочки подразумевает накопление этих данных в кэше. При условии, что подтверждение хост получает только после фактической записи данных на SSD, то задержки на запись не могут быть низкими.


Что делать если производительности пары контроллеров не хватает? Какие варианты масштабирования?

Запас хода у полицейской Теслы будет ниже, чем у гражданской. Дополнительный вес и ухудшение аэродинамки из-за бампера и мигалок.

В случае с NetApp нет необходимости что-то останавливать и/или забивать нулями. Всё работает автоматически.
В случае SAN https://habr.com/ru/post/271959/
В случае NFS вообще нет такой проблемы.

Как вы знаете, thin provisioning – это путь в одну сторону, если место сожрано, но то его > назад не вернуть.

С каких это пор? NetApp поддерживает space reclamation.

1Password поддерживает работу с YubiKey. Но кажется поддержку добавили не так давно.

1) С каких пор 3Par стал HCI-решением?


3) QoS на LUN, на vvol. Что под диском понимается? Есть интеграция с SIOC.
4) Тут я за вендора отвечать не могу. По эффективности подписывается документ со всеми условиями. Есть 180 дней с момента отгрузки оборудования, чтобы выяснить достигается ли арантированная эффективность. Если не достигается, то клиент обращается к вендору. Для начала выделяют инженера для проверки, что все настроенно в соответствии с best practices, если это не помогает, то вендор отгружает ноды/диски.


При том, что у провайдера жизнь на инфраструктуре достаточно динамичная — под одни включения нужен выше QoS возможно в ущерб эффективности, под другие наоборот. И это ещё во времени меняется
Про это можно подробнее?
QoS по сути неотключаемая функциональность. Каждая нода имеет заявленную производительность с профилем 80/20 rr/rw 4k. В зависимости от модели ноды это 50К IOPS или 100K IOPS на ноду. Для любого создаваемого тома задаётся политика, в которой указывается минимально гарантированная производительность, максимальная и burst. Сумма минимальных QoS для всех томов не может превышать производительность всего кластера. Если нагрузка на томе не превышает максимальный QoS, то накапливаются кредиты. При превышении максимального значения QoS эти кредиты начинают тратиться.

Выгоду от покупки NetApp HCI я уже описал, да по большой части это те преимущества, которые получены благодаря SolidFire. Для этого их и покупали.


То что SolidFire доступен как отдельный продукт говорит о том, что вендор видит в нем востребованность и понимает как на нём зарабатывать в отрыве от HCI.

чаще всего — дешевле классического аналога (за комплект)

Это спорно :) На чем же тогда вендор HCI зарабатывает?


отказоустойчивость выше

За счёт чего?


Масштабируемость у NetApp HCI до 40 storage нод и до 64 compute.
Можно без проблем убирать ноды из существуещего кластера и, например, собирать из них другой кластер на удаленной площадке.
Про API уже писал, всё управление из vCenter происходит. Поддержка на всё от NetApp. В том числе на коммутаторы и VMware.

А какие преимущества даёт любоё HCI решение в сравнении с своими серверами+СХД+гипервизор?

NetApp HCI:
Возможность независимого масштабирования compute и storage составляющих.
Автоматизация и интеграция с чем угодно — API, Trident (volume плагин для k8s и docker), OpenStack драйвер и т.д.
QoS — min, max, burst. Любые тома всегда создаются с QoS политикой.
Гарантированная эфективность 4:1 для Private Cloud, IaaS. Не учитываются клоны, снепшоты и т.д. Если эффективность оказывается меньше, вендор отружает дополнительное железо.

Информация

В рейтинге
Не участвует
Откуда
Москва, Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность