Pull to refresh
0
0
Send message
В конфигурации использовалось 2 CPU по 14 ядер, DataCore достаточно одного CPU с 2 ядрами. Маловероятно, что администратор вообще захочет вынимать 14-ти ядерный процессор на работающем сервере, а вот потерять данные на двухконтроллерном массиве, дернув не тот битый диск или устанавливая новый, более реально.
И вообще, у нас отличие по стоимости IBM и DataCore в 20 раз! В 20 раз, Карл! Поэтому мы можем легко добавить второй и третий сервер и решение будет все равно значительно дешевле IBM FlashSystem 900. При этом автору не нужно гадать, как измениться производительность — протестированные конфигурации опубликованы на сайте DataCore www.datacore.com/products/proven-design-reference-architectures.
Я, конечно, понимаю логику системного интегратора — лучше впарить одному заказчику FlashSystem 900, чем 20-ти заказчикам решение с DataCore. Но в конечном итоге будущее за программно-определяемыми СХД.
Конечно DataCore будет работать. Более того, можно поставить процессора с большей частотой, количеством ядер, расширить до 32-х узлов наконец. Такая масштабируемость и отказоустойчивость достижима у IBM FlashSystem 900? А по поводу непревзойденной отказоустойчивости IBM — это маркетинг. Я знаю десяток случаев, когда массивы теряли данные после перезаливки firmware, отказа компонентов… Да что там говорить, даже добавление дисков может вывести из строя двухконтроллерный массив. У меня такое было с DS4700. После разборок IBM вынес вердикт, что диски добавляли быстрее, чем требовалось по инструкции.
Если выйдет из строя процессор, то DataCore продолжит работать в том же режиме, что и классический массив на одном контроллере — с 50% уменьшением вычислительной производительности. Только при этом в классическом массиве выйдут из строя 50% портов, а в DataCore все порты останутся в рабочем режиме.
Хотелось бы понять отличие между «бросающимся в глаза отсутствием какой-либо отказоустойчивости у DataCore» и «полноценной СХД IBM FlashSystem 900, обладающей базовым функционалом по отказоустойчивости». Как видно из спецификации с сайта storageperformance.org, решение с DataCore имеет дублированные блоки питания, процессора и контроллеры. Если необходим Fibre Channel — докупаем 2 FC адаптера, что повысит стоимость решения на 10%, но не в 20 раз как у FlashSystem 900.
Утверждение «Во-первых, Isilon, пришедший в ИТ из медийной области, уверенно занимает корпоративную поляну Больших Данных» ошибочно. Если Isilon хорошо работает с медийными Большими Файлами, то это не значит, что он хорошо работает с Большими Данными. Абсолютно разный характер нагрузки. И если мы заговорили о применимости к Большим Данным, то Вы реально верите (учитывая курс доллара и санкции) в его конкурентноспособность с OpenStack + Hadoop?
Во первых модель 3par 20800 HP позиционирует как High-End массив и (фраза из статьи) «для тех заказчиков, которым нужна максимальная масштабируемость ёмкости.» Т.е. если EMC VMAX или XP7 обладают большей масштабируемостью и производительностью, то не вводите в заблуждение Заказчиков.
Еще в статье много раз упоминается использование ASIC, как основное преимущество массива. И тут выясняется, что не использующий процессоры ASIC массив от ЕМС намного круче 3par и их даже не корректно сравнивать.
3,84 Тбайт SSD дисков и использование процессоров ASIC не помогли дисковым массива HP 3PAR попасть в 10-ку наиболее производительных систем хранения по тестам SPC-1 или SPC2 (ресурс www.storageperformance.org). Даже EMC, который в течении многих лет отказывался публиковать результаты производительности, с удовольствием это сделал при выходе EMC VMAX 400K.
В качестве существенного изменения в 6.0 я бы упомянул возможность использования virtual volumes (VVOLs). Дисковый массив теперь может обрабатывать данные определенного виртуального сервера, а не всех, распожённых на одном LUNe серверов. Этот функционал повлияет не только на производительность, но и методы создания снимков, копий данных и репликации.
При прочтении статьи складывается впечатление, что старые дисковые массивы решили выдать за новые, не особо вкладываясь. Даже картинки в презентации взяли старые, датированные 2012м годом. И опять в качестве основного преимущества выделяют процессор ASIC, без которого другие производители создают отличные массивы. Специализированный процессор ASIC сделает больше операций за один такт, чем стандартный. Но если он работает на 300Мгц, вместо 3 Ггц у Intel, то производительность будет меньше.
И еще удивила ответственность, которую HP готов на себя взять в случае нарушения надежности в 99,9999%. Если массив перестал работать и Ваш бизнес под угрозой, HP готов… не возместить ущерб или хотя бы выкупить массив обратно, а бесплатно продлить поддержку массива на 3 месяца. Вот это уверенность в их отказоустойчивости!
Bareos отличное ПО для построения простейших конфигураций резервного копирования. Если в процессе эксплуатации потребуется резервировать UNIX, SAP и т.п., то тут без bacula (в особенности с версией Enterprise) не обойтись.
IBM в своих хай-эндах использует ASIC? Нет. И от этого он не проигрывает 3PAR'ам. Определенные операции ASIC может выполнять за меньшее количество тактов, чем у стандартного интеловского процессора, но зато у него и тактовая частота в разы ниже.
HP любит позиционировать использование ASIC, как одно из основных преимуществ массивов 3PAR. Хотя известно, что куча других производителей не используют ASIC, не говоря уже о software defined storage. Они что, от этого проигрывают? Были проведены тесты, где преимущество использования ASIC выражено в цифрах?
А что касается продаж XP7, то большинство продется без поддержки FICON. Заказчики выбирают его за надежность и производительность. Другое дело, что HP предпочитает сначала предложить заказчику 3PAR, так как при продаже XP7 ей приходится делиться деньгами с Hitachi
Судя по переписке, просили сравнить swift c описанным ECS, а Вы в качестве контраргумента публикуете снимок с экрана о сравнении ScaleIO c Ceph. Хотя, раз уж опубликовали картинку, то киньте еще и ссылку на эти тесты — какая конфигурация железа, нагрузка и т.п. А то у EMC Isilon картинки тоже были красивыми, а у заказчиков и на независимых тестах storageperformance.org показывала низкую производительность.
«Кроме того, поддержка работоспособности как оборудования, так и Open Source-решений целиком и полностью ложится на самих пользователей.» — если на оборудование поставить Open Source решение типа OpenStack, то оборудование не «слетит» с поддержки производителя. А что касается софта, то помимо бесплатной поддержки сообществом разработчиков, поддержку на тот же OpenStack можно приобрести у Red Hat, HP и других вендоров.
$60 000 в год на лицензии ПО резервного копирования для гигантов типа Сбера — это реально дешево, для небольшой компании — неподъемные деньги. Вы сравнивали стоимость с коммерческим ПО, например, Netbackup? Не удивлюсь, если там стоимость лицензий превышала $1 млн. По каким критериям был выбран Bacula Enterprise в Вашем случае?
Я поэтому и написал, что использование Bacula Enterprise будет стоить небольших денег. В вашем случае $16 690 в год. Независимо от количества серверов, использующих эти опции.
Если провести аналогию по автомобилям, то я бы не брал Ванкеля, а рассмотрел доступные на нашем рынке варианты:
Gluster — Жигули. Стать владельцем реально за 500 долларов (две виртуалки на компе), куча каталогов по ремонту и в каждом гараже готовы оказать сервис (открытый код). А возможность расточить двигатель и добавить закись азота не ограничивает теоретическую максимальную скорость.
Red hat storage server — Новая Lada Priora. Полно документации, любой гараж готов оказать сервис, но что бы сразу после приобретения не слетела гарантия — соблюдаются требования ВАЗа (Red Hat)
EMC Isilon — грузовичок Scania. Хороший официальный сервис. По скорости уступает легковушкам, но зато легко справляется с большими грузами (файлами).
Huawei — китайский автомобиль. Еще 10 лет назад никто не воспринимал в серьез, но последнее время все чаще встречается у таксистов-частников (интернет компаний). Для первоначальной разработки привлекли Bertone (Symantec)
Netaap — Folkswagen. Старожил рынка. Хорошо себя зарекомендовал.
Видно, что как и в автомобилях, среди масштабируемых NAS нет идеального решения. Каждый занимает свою нишу.
Track, судя по ответам Вы все таки являетесь маркетинговым специалистом. В качестве контраргумента сначала привели автомобили, а потом википедию перепутали с spec.org. Можете пригласить технического спеца, который знает и может сравнивать функционал масштабируемых NAS и беспристрастно анализировать результаты независимых тестов?
Так как статья предназначена для технических специалистов, то здесь не найти маркетингового шума типа «мы в два раза лучше, чем обычные масштабируемые NAS». Тут даны реальные цифры, а специалистам самим решать, что им подходит лучше.
Вообще то спидометр и протестированная скорость на треке это разные вещи. Про Huawei написано, так как он на данный момент является лидером по реально протестированной производительности ( www.spec.org/sfs2008/results/sfs2008nfs.html) т.е. реально замеренная скорость на треке, а если говорить про спидометр с теоретической скоростью, то это будет Gluster

Information

Rating
Does not participate
Registered
Activity