Pull to refresh

Comments 10

Мне кажется или это обработанные напильником серверы Dell? И к примеру чем оно будет лучше по сравнению с Dell VRTX?
Серверы могут быть любые. В данном случае делл, сейчас hpe. Фишка не в серверах, а в софте, который на них работает. В этом и идея гиперконвергенции. Симпливити умеет общее хранилище с дедупликацией и компрессией из локальных дисков, быстрый бэкап между сайтами, DR, централизованное управление. На обычных серверах с локальными дисками. А vrtx — это классические железки
К фишкам софта стоит добавить и аппаратные чудо-карты).

А не сравнивали, случайно, стоимость этих кубиков с классическим решением (стоечные сервера, СХД)? Было бы интересно посмотреть итоговую разницу в % стоимости. Ведь до этого ж заказчик на чем-то работал…

Если сравнивать со стоимостью Сервера+СХД+Сеть хранения+бекап то выходит выгоднее. К примеру в случае с Simplivity дедупликация позволяет понизить требования к дисковой подсистеме в плане производительности. Понадобится меньше шпинделей для получения целевых показателей. Но иногда выходит дороже. Тогда мы предлагаем заказчику классическое решение с выделенной СХД стартового уровня или SDS. По опыту можно сказать что разброс цен ± 30%. Были случаи когда гиперконвергенция была чуть дороже но заказчик все равно ее выбирал так как ему нравилась простота. Чаще всего во всех проектах у нас нет ультимативности, мы предлагаем заказчикам несколько вариантов на выбор и описываем плюсы и минусы.

Михаил, по Вашим данным за прошедшее время в России много внедрений таких решений для удаленных офисов? Из прочитанного могу сделать вывод, что это весьма дорогое решение для филиала в 30 пользователей и 4-5 ВМ, причем эти ВМ должны быть не требовательны к вводу-выводу. Вырисовывается портрет заказчика — хипстера, для которого фиансовый вопрос стоит на последнем месте).

Заказчики которые выбирают гиперконвергенцию для филиалов обычно руководствуются задачей упрощения администрирования на месте и возможностью резервного копирования между филиалами (в случае Simplivity). Им нравится что все из одной консоли, причем эта консоль может быть в центральном офисе. На месте не требуется высококвалифицированный сотрудник и решение закрывает сразу несколько задач. Такую задачу можно закрыть по другому и дешевле, но придется пойти на компромисс. Можно привести в пример поездку на работу. Есть несколько вариантов: Общественный транспорт, своя машина или велосипед. Все варианты решают задачу за разные деньги и с разной скоростью. Нельзя сказать что какой-то вариант не правильный. Гиперконвергенция это один из способов решения. Для некоторых это закрытие всех задач сразу, а кто-то наймет выделенного человека, купит писюк с бесплатным гипервизором и будет бекапить скриптами. Все зависит от уровня развития компании.

А на proxmox+drbd вы такое не собирали? А то идейно вроде бы получается примерно та же схема, и интерфейс управления в вебмордочке и бэкапчики и т.п.
Пока руки не дошли. Хотя у нас даже было пару запросов за прошлый год на proxmox. Но собирали нечто похожее на Red Hat OpenStack Platform + Ceph. Нельзя назвать такой набор полноценной гиперконвергенцией. Но OpenStack платформа дает большие возможности для творчества. И можно прикрутить кучу других сервисов при желании.

Здравствуйте!
Если не ошибаюсь, когда HPE купили SimpliVity они говорили, что хотят выпилить Omnistack Acccelerator Card и перенести все в софт. Кластер можно создать из двух нод? На картинке в статье медь 10Г? Зачем нужна интеграция с vcenter? Что будет если один диск SDD\HDD умрет? Если будет потеряна одна нода? Долго ли ребилд будет в этих случаях? Из маркетинга понятно, что все будет хорошо. А с технической точки зрения, какие механизмы включатся? Зачем нужна интеграция с vcenter? Какие версии vcenter поддерживаются. Сколько нужно отдать вычислительных мощностей для SimpliVity? У ребят в филиале по две ноды, сколько нод в ЦО? Будет ли деградация производительности при большом количестве снапшотов? К примеру в сумме 15 ВМ общим объёмом 1,5 Тб. Нужно будет держать бэкап глубиной в 30 дней, бэкап проходит раз в сутки в ночное время. Компрессия и дедуп на лету проходят или отложенный механизм? Поддерживается ли реплика многие к одному? Интегрируется это решение со сторонними средствами бэкапов и планируется ли?

Если не ошибаюсь, когда HPE купили SimpliVity они говорили, что хотят выпилить Omnistack Acccelerator Card и перенести все в софт. Кластер можно создать из двух нод? -Да. Фактически, можно из одной, если использовать конфигурацию 2+1, где две на основной площадки бэкапятся на одну на второй. На картинке в статье медь 10Г? — 10Gb между нодами в одном кластере. Между площадками плохой канал провайдера. Зачем нужна интеграция с vcenter? — для единой консоли управления всей инфраструктурой. Чтобы не плодить консоли. Что будет если один диск SDD\HDD умрет? — HDD восстановится, у нас ссд в рейде, отказ обрабатывается как для диска на уровне контроллера. Если будет потеряна одна нода? — все останется работать на второй. Долго ли ребилд будет в этих случаях? — зависит от используемого объёма. По сути пока не за синхронизируются все данные. Из маркетинга понятно, что все будет хорошо. А с технической точки зрения, какие механизмы включатся? — обычного восстановления RAID или синхронизации нод. Зачем нужна интеграция с vcenter? Какие версии vcenter поддерживаются. — 5.5, 6.0, 6.5. Сколько нужно отдать вычислительных мощностей для SimpliVity? — от 50 ГБ оперативной памяти и больше, зависит от конфигурации. У ребят в филиале по две ноды, сколько нод в ЦО? — тоже две. Будет ли деградация производительности при большом количестве снапшотов? — нет. К примеру в сумме 15 ВМ общим объёмом 1,5 Тб. Нужно будет держать бэкап глубиной в 30 дней, бэкап проходит раз в сутки в ночное время. — можно. Компрессия и дедуп на лету проходят или отложенный механизм? — на лету. Поддерживается ли реплика многие к одному? — да. Интегрируется это решение со сторонними средствами бэкапов и планируется ли? — интегрируется с любым, кто может бэкапить с VMware.
Sign up to leave a comment.