Pull to refresh

Comments 30

Похоже, что менеджер сабподрядчика сертифицированного интегратора свяжется с вами по факсу.
Shut up and take my money!
PS: Очень долго этого ждал, сам использую ceph в production.
PPS: ждем пока выдернут вэб интерфейс управления.
Цена сильно зависит от конфигурации системы, емкости и предоставляемого уровня sla. Поэтому выдается в конкретные проекты по окончании сайзинга.
Понимаю, что enterprise рынок, но вы задолбали, ей богу. Если есть статья на хабре, то дайте хотя бы ориентировочные ценники, покажите несколько конфигураций и их стоимости, забейте на SLA и напишите, что это без учета SLA. Я сам — enterprise, но все чаще отдаюсь тем, кто дает цены на паблик, а не устраивает чехарду с кучей действующих лиц и навязанными услугами. Этому рынку пора меняться.
+1 к предыдущему оратору!
Хотелось бы оказаться поближе к идеальному миру, когда для того, чтобы понять порядок цен и варианты конфигурации не надо проводить предварительные консультации с поставщиками оборудования такого класса, потом тендер среди поставщиков с детальным ТЗ среди разных производителей, а после этого детализирующий среди поставщиков оборудования уже одного производителя, после которого в последнюю секунду всплывает какой-нибудь SHIT типа «обучения не было включено в этом предложении».

Это именно та причина, почему в последнем нашем тендере на СХД вдруг оказались решения с прогнозируемой ценой и калькуляторами на сайтах — типа Synology/Maxtronic/Etegro.

P.S. Большие вендоры последние годы напрягают — как своей политикой (так и привязкой к брендированным компонентам).
Если есть понимание по своим задачам, которые будут использовать СХД. А так же известен профиль ввода/вывода (соотношение чтения/записи, количество IOPS/Поток в Mb/s и т.д.) и есть понимание как посчитать «свою» конфигурацию СХД. А еще вы готовы взять на себя риски перед руководством, в случае если промажете и работать все будет не так хорошо как планировалось. То да, нафиг все эти партнеры и интеграторы. И можно действовать по плану: «Хочу мороженку наполовину шоколадную, наполовину клубничную, в глазури и чтобы при +20 по цельсию не таяла в течении 15 минут.» сколько будет стоить?

Но далеко не все заказчики такие продвинутые. Поэтому на рынке и существуют компании интеграторы. Да и определение «типовая конфигурация» для СХД не совсем понятно, что должно означать. А если нет типовой конфигурации, то как сделать паблик прайс? Покомпонентно перечислять?
Типа:
Двигатель внутреннего сгорания — 1000$;
Дверь передняя правая 500$;
Руль — 100$;
и т.д.
:)?
А потом заказчик вендора будет спрашивать, а почему я не могу купить у вас машину без руля? Или без заднего моста?
А еще лучше:
— Я купил у вас машину, но она не едет.
— Но вы же не захотели покупать двигатель!
— Ну и что? У вас просто дерьмовые машины. Никогда больше к вам не приду.

Я утрирую конечно. Но на мой взгляд это часть мотивов, которыми в данном случае руководствуются «большие» вендора. Ну и $$ в глазах и в мозгах ими тоже движут :).

Под SLA имелся в виду не только уровень сервиса, но и количество реплик тех или иных данных и требование по производительности — на каких нодах и каких типах дисков собираемся хранить, какое количество копий данных и через какие механизмы будем получать доступ. Кроме того, Часть SSD-дисков можно использовать для увеличения скорости доступа в качестве Tier0.
А на определенном количестве нод дублирование infiniband еще становится обязательным, что тоже не бесплатно.
Поэтому цена для заказчика появится только по результатам сайзинга.
Все остальное будет оценкой тангенциального ускорения сферического коня в вакууме.
Серверы-хранилища сейчас представлены тремя моделями:


  • Basic (12.6 ТБ в одном модуле, 1 SSD для кэша, 2U)
  • Perfomance (34.2 ТБ, 2 SSD для кэша, 4U)
  • Capacity (252.6 ТБ в одном модуле, 1 SSD для кэша, 6U)


А можно без демагогии, просто стоимость вышеперечисленных моделей в базовой комплектации? Без стоимости дополнительных сервисов, доставки, откатов и маржи интеграторов. Просто стоимость отгрузки железяки с софтом с завода самовывозом, с дефолтными настройками и паролями.
Да давайте минималку к примеру. 4 Basic и 1 Management нода. С минимальным SLA.
Я так понимаю, у вас ceph mon и osd сервисы на одной ноде?

Хочется понять принципиальное отличие стоимости 4 серверов + красноглазого админа от вашего решения.
Ого! Да тут не факсом, тут целым разговором лично в бане дело пахнет. Сколько откатываете?
А как вы вообще представляете себе «цену на продукт», состояший из десятков различных компонент, где только дисков может быть от пары десятков до тысяч? Назовите вашу конфигурацию — будет вам цена.
Это ж не пачка масла.
Дык, дайте примеры конфигураций с их ценниками, все равно это отличная ориентация.
На картинке в стаье отлично расписаны объемы в каждой редакции и диски. Какие вам надо конфигурации называть? Три редакции — три ценника. Не надо тут туман наводить. SLA может варьироваться — да, но как уже написали выше можно и без него написать было цену.
Это не три редакции, это три разнык конфига возможных модулей, составляющих кластер, они могут быть в разном сочетании и в разном количестве в готовой системе. И это не считая того, что программные фичи, я полагаю, также могут быть в разном количестве и в разном наборе включены.
И это не считая того, что программные фичи, я полагаю, также могут быть в разном количестве и в разном наборе включены.


А за включение фич, которые и так в коде есть надо тоже платить? O_o
Это не free ceph. Это ceph enterprise, коммерческий продукт за деньги. Плюс собственные разработки Fujitsu. Что значит «и так есть в коде»?
Это и значит. Программные фичи уже написаны. Или тут тоже Home Edition, Professional Edition, Enterprise Edition и прочий стыд?
Удивительно, как же автопроизводитель может сразу назвать цену за машину с определенным мною набором опций, а тут Фуджитсу ломается как девочка на первом свидании, и увиливает от ответа.
Минимальная цена хотя бы будет?
> Здесь не используются RAID-массивы в обычном их сценарии применения. Сложно представить, сколько займет ребилд одного массива на десятки дисков по 6 ТБ. И как часто он будет происходить.

Почти никто не делает очень длинные RAID-группы, в особенности на таких больших дисках, по крайней мере никто из производителей систем хранения это не рекомендует своим пользователям. Ребил ведь вовлекает в перестроение не вообще все диски системы, а работает только в пределах одной группы их. Ну, есть у вас тысяча дисков, разделенных на 100 групп по 10 дисков в каждой, допустим. Вот только эти 10 и будут нагружены ребилдом, при отказе диска.

Так что это неактуальные пугалки в реальной жизни.

> А если дисков несколько тысяч?

… и уж тем более никто не объединяет в одну группу несколько тысяч дисков ;).
Тут скорее речь о том, что из этих 100 групп по 10 дисков пара групп всегда будет находиться в ребилде из-за замены дисков. И, соответственно, 20 дисков будут прогружены бесполезной в общем-то работой.

А если дисков несколько тысяч — то умножьте.

по крайней мере никто из производителей систем хранения это не рекомендует своим пользователям

Даже Netapp для DDP?
Если память не изменяет, то у нетапа максимальный размер дисковой группы внутри пула равно 28 шт, при этом рекомендованный размер не более то ли 14-ти, то ли 16-ти. Соответственно DDP составляется из нескольких таких дисковых групп, защищенных старым добрым Raid.
Угу, посмотрел, видимо путаю с их «старыми» агрегатами. А DDP вообще по логике получается «собственная реализация» Raid60 в конфигурации 8+2. D-Piece по 512 мб собранные в D-Stripe в конфигурации 8Data+2Parity итоговым размером 4 ГБ. В итоге луны, отдаваемые хостам, размазываются по этим D-Stripe. Чем-то напоминает идеологию HP 3PAR.
Infiniband и 2 10Гб порта на каждом сервере совсем не соседствует с понятием «бюджетно». А раз небюджетно, то воспользоваться проприетарным СХД с вменяемой документацией, широким спектром софта и поддержкой гораздо логичнее.
Пулы есть уже вообще у всех, 3PAR вообще отказался от идеологии RAID групп. Многие вендоры предоставляют возможность виртуализации. Зачем покупать весьма недешевые железки чтобы потом еще что-то допиливать самому лично мне непонятно.

А вот про постоянный ребилд поспорю. Например древняя EMC CX4 с которой довелось работать постоянно сама тестирует диски и если считает что диск скоро выйдет из строя начинает копировать на него данные на хот-спару ДО его выхода из строя. В результате количество ребилдов резко сокращается. За 2 года на 2 массивах по 400 дисков реальный ребилд возник 1 раз, когда отказал диск во время эквалайзинга (копирования данных с хот-спары на свежеустановленный диск).
В кластере с Ceph также можно предусмотреть failure prediction, с этим нет никаких проблем. 10G порты не переведут железо по стоимости в класс выше (стоимость дисков одной storage-ноды в разы выше стоимости карточки, встроенной или нет, не говоря об остальном). Акценты расставлены, скорее, не в том порядке — сначала идут открытость платформы и дешевизна масштабирования, обе этих сущности практически закрыты для проприетарных коробков. Есть некоторые нюансы насчет географического разнесения, которые пока что за намного большие деньги решены в проприетарных боксах, ну и пожалуй все.

Да, liberados — это кубинский форк, стало быть?
Это правда, что данная СХД умеет отдавать только по протоколу Ceph, не по стандартным интерфейсам FC, iSCSI? В смысле, что клиенты обязаны ставить себе клиентскую библиотеку Ceph?
можно rbd завернуть в iscsi, я таким образом в xen раньше диски отдавал.
ETERNUS CD10000 может отдавать по S3 и iSCSI, скоро добавится NFS.
Only those users with full accounts are able to leave comments. Log in, please.