Как стать автором
Обновить

Комментарии 39

Вот вам история.

8 лет назад такой «на основе обычного ПК » чудо-сервер-самосбор был установлен в дружественной организации на 15 сотрудников. Потратили 20 000р на какой-то хлам с двумя дисками Maxtor в програмном Windows RAID 1, и 15 000р на Windows SBS. Весь ужас, что он работает. До сих пор работает. 24*7. Без охлаждения, между швабрами и ведрами. До сих пор с этого сервера мне приходят отчеты о производительности.

Ни единого разрыва, господа, ни единого разрыва. С ноября 2007 года.
Я очень рад, что с 2007 года ваша система работает без единого отказа.
Однако неужели «дружественная организация» до сих пор может уместить все свои данные на зеркале из двух старых дисков?
Неужели она не развивалась и там так и осталось всего 15 сотрудников?
Если так, то возможно им действительно хватит этого старого системника.
Вот только 8 лет — серьёзный возраст для ПК, что будет если в разгар рабочего дня он всё-таки сломается?
Или на нём давно уже не лежат критичные для компании данные?
Если нет — то нет смысла сравнивать его с хранилищем данных, от которых зависит работа компании.
История для пятницы, так что не принимайте близко к сердцу. Компания да, не развилась. Не весь малый бизнес стремится стать большим. Когда он сломается, диск вставят в другой компьютер и поедут дальше.
НЛО прилетело и опубликовало эту надпись здесь
Нет необходимости забивать себе голову этим вопросом.
На всём протяжении сервисного контракта (а его можно продлить в любое время) вы просто получаете новые диски взамен вышедших из строя.
Предоставляемые диски проходят дополнительную проверку качества на заводах EMC в отличии от дисков, которые продаются в розничных магазинах.
НЛО прилетело и опубликовало эту надпись здесь
Да, действительно, кроме первых трёх лет (они входят в стоимость) сервисный контракт не бесплатен.

С совместимостью же дисков дела обстоят следующим образом:

1) EMC не выпускает дисков сама, поэтому используются диски других производителей
2) Для обеспечения длительной бесперебойной работы дисков EMC устанавливает на них свою версию прошивки
3) В партнейм EMC обозначающий накопитель входит как сам диск, так и специальные салазки и (в ряде случаев) специальный контоллер

Поэтому диски купленные на рынке могут иметь точно такой же партномер производителя дисков (например seagate), но никто не гарантирует того, что они будут совместимы с системой (система может их просто не распознать).
Однако, даже если такой диск запустится, применение сторонних дисков автоматически лишает весь СХД гарантии.
Благими намерениями, как известно…
В лучших традициях современного бизнеса — попытка привязать к себе клиента любыми способами и усложнить переход к конкуренту.
В этом как раз нет привязки с точки зрения перехода к конкуренту: «свои» диски используют все или почти все системы хранения корпоративного уровня. Переход к конкуренту — как правило осуществляется при покупке новой СХД. И при переходе к конкуренту покупаются и СХД, и диски. Обеспечение простоты перехода к конкуренту чаще лежит в предоставлении инструментов для удобной и простой миграции томов и файловых серверов или наоборот сложности в миграции.
Использование же «своих» дисков позволяет нормально оказывать поддержку: если на диске появляются ошибки и их количество превышают порог — система сама запускает его проактивное копирование на диск горячей замены и создаёт тикет на замену, а после окончания копирования выводит диск из эксплуатация. Подход исходит из того, что сохранность данных гораздо ценнее, чем дисков. И заказчику нет нужды думать о дисках.
Защита от произвольных дисков с рынка в этом безусловно есть – и да, в диски «зашивается» часть совокупной стоимости СХД. Существуют разные модели того, из чего складывается совокупная стоимость: цена может быть в основном зашита в голову, в диски, в потеррабайтные лицензии и т.д. пропорции могут меняться, и производители могут менять модель от поколения к поколению. Причём помимо сугубо маркетинговых за этим порой лежат и вполне осмысленные причины. Но это уже вообще повод для отдельной маркетинго-философской дискуссии и сравнительного анализа. Разумно смотреть на совокупную стоимость владения.
Логично было бы после окончания первых трех лет давать пользователю выбор: использовать свои диски или продолжать платить за них Вам. «система может их просто не распознать» — в наши дни это возможно только в случае, если разработчик системы сам так захотел. По-умолчанию контроллеры, системы и диски несовместимы только разьемом подключения и иногда скоростью интерфеса.
Семейство систем хранения EMC растёт скорее сверху вниз — от high-end систем. Сегмент SMB у EMC начал осваиваться последним. Отсюда и подход, что если система используется под продакшн — она должна иметь контракт на поддержку/обслуживание (для большой железки high-end класса или мейнфрейма — отсутствие контракта на поддержку просто нонсенс — с этим вряд ли кто будет спорить). VNXe — это максимально упрощённые и в обслуживании, и в управлении/настройке системы, но всё-таки в первую очередь имеющие корпоративные корни. Если задача обеспечить гарантированную работу процессов, в обеспечении которых участвует эта система — система должна иметь поддержку.
Если задачи иные — эти системы могут быть не лучшим выбором.
Также, например, на системах VNXe пользователи не имеют доступ к root-у (root на них вообще получается своеобразным образом и получить его в теории может только поддержка). Если приоритетом является желание делать с системой всё что захочется, иметь на ней полный контроль, поставить на неё стороннее ПО — это не тот выбор.
Думаю, что эту информацию стоит вынести в основную статью.

Привязка замены дисков к сервисному контракту сразу отбивает желание читать дальше.
Спасибо за комментарий,
Разговаривая с разной аудиторией порой забываешь о том, что в разных местах разное является «нормой» и «стандартом». В контексте систем хранения EMC — если бы подходили сторонние диски — мы это выделили бы жирным текстом и поместили в первые абзацы =) Но спасибо — учтём.
По дискам у EMC есть техническая особенность. Диски размечаются на сектора не по 512 байт как обычно, а на сектора по 520 байт. Дополнительные 8 байт используются для записи контрольной суммы данных в секторе. Соответственно при каждом чтении данных из сектора происходит еще и проверка, что данные не были повреждены. Т.е. проверяется корректность данных, отдаваемых по запросу «наверх» (какому либо сервису) на уровне самого диска (прошивки диска). Отсюда, в том числе, и «растут ноги» с кастомизированными вендорскими прошивками у EMC и невозможностью поставить в СХД диск «из магазина за углом». Это помимо всех прочих «маркетинговых» причин.

Соответственно если данные не корректны, то дальше происходит восстановление их из контрольных сумм Raid-группы (если есть откуда восстанавливать :)).

В целом такой подход дает гарантию, что повреждение данных будет замечено на «ранней стадии» и исправлено до того как это скажется на сервисах пользователя. Ведь есть еще и внутренние процессы в CХД, которые непрерывно в background-е проверяют целостность записанных на CХД данных. Как то так :).
По дискам у EMC есть техническая особенность.

T10 PI есть не только у EMC и не требует перепрошивки дисков.
Но и в магазине за углом такие диски не лежат в свободной продаже.
Любой диск под SAS поддерживает три размера сектора: 512, 520 и 528. А что в них писать решает СХД.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
достаточно просто поднять owncloud на пентиуме только тссс!!!
НЛО прилетело и опубликовало эту надпись здесь
Действительно сервер с внутренними SSD (если там не стоит какой-то совсем неудовлетворительный контроллер или его не настроили загадочным образом) — будет быстрее, чем внешняя СХД с аналогичным количеством накопителей: Шина PCI-express быстрее чем большинство сетевых протоколов. Но с точки зрения удобства в эксплуатации и высокой доступности часто уже проигрывает.
Если ещё лет 8 назад заказчикам нужно было аргументировать — зачем вообще нужно внешние хранилище SAN или NAS и какие плюсы это даёт по сравнению с внутренней ёмкость серверов – это был регулярный диалог. Сейчас, серьёзнейшим драйвером стало повсеместное распространением решений VMware, это объяснять уже никому не приходится. Меньшее число лет назад — наиболее актуальной темой для объяснения была необходимость в твердотельных накопителях и их надёжность. Сейчас и этот вопрос уже не поднимается.
Но каждое решение стоит рассматривать для конкретной задачи и того, насколько полно оно её решает. Если сервер на atom-е удовлетворяет потребностям и не вызывает проблем — отлично. Если не удовлетворяет – можно посмотреть и на другие варианты, включая EMC VNXe.
В вашем понимании малый бизнес — это филиал корпорации на 10-15 человек. Там да, могут быть кластеры на VMware и даже SLA.
Но более распространённый вариант в России, когда компании просто нужен сервер под 1С и его поломка на день-два не принесёт убытков.
Отчасти вы правы – иногда понятие SMB мы, напичканные западными маркетинговыми материалами, тянем как кальку с западных. И действительно часто у нас и в забугорье под этим понимаю разные вещи. Кстати, для описанного вами (филиал компании) в маркетинговой терминологии для позиционирования часто есть отдельный термин — ROBO (Remote Office, Branch Office).

Если поломка сервера и простой информационных систем на день два не принесёт проблем/убытков – действительно нет нужды в решениях, которые проектируются для высокой доступности. Выбор решения должен быть обоснованным. Решения EMC, как вендора высшего класса в области СХД – конечно прежде всего для тех, для кого простой недопустим или обойдётся дороже.
НЛО прилетело и опубликовало эту надпись здесь
1) Какое преимущество системы хранения по сравнению с сервером или blade-шасси с парой серверов – очень хороший и в то же время коварный вопрос.
Т.к. не открою секрет, что тут нет магии, и концептуально большинство современных внешних системы хранения это и есть по сути blade (специализированное) шасси на пару серверов, с подключёнными к ним дисками и дисковыми полками. Т.е. теоретически можно самостоятельно собрать кастомное решение лучше, быстрее и дешевле, но на практике это мало реализуемо. Те, кто такое собирают раз-два-три, обычно потом основывают компании-стартапы по производству СХД или софта для организации своей СХД (я говорю тут в первую очередь не про Россию, а про мировую практику).
Преимуществами промышленной внешней СХД по сравнению с реальным, а не теоретически идеальным решением будут стандартные плюсы для промышленных решений:
1) Специализированное (уже продумано и обкатано, оптимизировано под задачу)
2) Выделенное.
3) Более простое (в настройке и эксплуатации).
4) Более надёжное (в том числе как следствие предыдущих)

2) Про пример бизнеса на 10-12 (up to 25) человек, которым нужна такая внешняя СХД.
Однозначно это нужно бизнесу, которому недопустим простой из-за остановки информационных систем на день или несколько, или из-за этого убытки или упущенная прибыль будет больше, чем стоимость такой СХД.
В качестве примера, мне проще и понятнее, наверное, привести то что я как IT-специалист и сотрудник дистрибьютора вижу наиболее полно и чаще всего: небольшие интеграторы, поднимающие тяжёлые проекты (часто сроки горят и срыв их недопустим, дополнительно внешняя СХД удобна и для тестирования и отработки некоторых решений)
Небольшие команды разработчиков (СХД для возможности развёртывания продуктивных и тестовых сред) или проектировщиков, работающих с моделями значительного объёма.
Т.е. в первую очередь, наверное, малый IT-бизнес, обслуживающий большой бизнес.
Полагаю, что и для небольших предприятий, ориентированных и на физических конечных заказчиков, особенно для стартапов, где ставки высоки, и остановка работы может быть фейлом, способным загубить начинание.
На практике не так давно общался с коллегой, ответственным за информационные системы в небольшой компании, для которой характерны высокие нагрузки в определённые периоды – у них основное продуктивное хозяйство: 1С и некоторые вспомогательные базы, лежат даже на более мощной СХД на приличном числе твердотельниках. Он честно признался, что полагает, что заложен коэффициент запаса даже избыточный и большую часть времени это простаивает, но он головой отвечает за работу информационных систем в те периоды, которые по-настоящему «горячие».

Т.е. выбор готовой внешней СХД от вендора класса А часто предпочтителен:
• Людям, обслуживающим и ответственным за инфраструктуру, если они имеют компетенции и хотят заниматься скорее уровнем приложений и не тратить время на собирание и создание самостоятельно инфраструктурной части – получить готовую платформу, чтобы на ней развёртывать продуктивные сервисы.
• Руководителям, понимающим, что покупка готовой платформы ускорит развёртывание и качество решения не будет столь сильно зависеть от компетенции их IT-персонала. В том числе это часто позиция опытных эксплуатационщиков, готовых стоять грудью за то, чтобы к ним точно не возникло вопросов.
Тут я говорю о людях, как о роли – в условиях малого бизнеса эта роль может быть как у директора, так и у одного из манагеров.
Спасибо за комментарии, аргументы поняты и понятны. Постараюсь ответить также по пунктам, хотя и не надеюсь, что вы согласитесь, но, надеюсь, что услышите и меня.
1) Такой подход продиктован стандартами отрасли — в основном решения EMC это проектные решения и цена формируется под проект с проектными скидками. Хотя линейка VNXe максимально приближена к тому, чтобы быть рыночным решением — пока нет возможности публично озвучить цены и продавать это в интернет магазинах. Хотя в этом направлении работа ведётся.
2) Всё очень зависит от задач. В некоторых случаях — выбор собственноручно собранного NAS или NAS класса для дома или малого офиса может обоснован (вот наоборот ставить VNXe домой — точно не стоит, если дома нет отдельной серверной). В некоторых же подобные системы являются лучшим выбором. Если эти 10-15 пользователей, связаны совместной работой с какими-то тяжёлыми моделями, и/или для бизнес-процесса недопустим значительный простой – требования иные. Большинство систем VNXe собственное и являются NAS (а некоторые также SAN — потому Unified), но премиального класса и заточенные на корпоративное использование (визарды и шаблоны для подключения к vSphere, Exchange и т.д.).
Надёжность — это комплексное понятие. Чтобы говорить на одном языке, важно точно определить, что под ним понимать: часто рассматривают HA (High Availability — высокую доступность) + DR (Disaster Recovery — восстановление работы после аварии).
Эти системы обеспечивает высокую доступность (HA): отсутствие прерываний в работе при сбоях задублированных компонентов, и отсутствие, или минимизация прерываний работы во время обслуживания.
Функционал для построения DR решений в системах VNXe также заложен: это и репликация, и интеграция с решениями по резервному копированию. Непременной частью DR является регулярный бэкап (резервное копирование).
Даже без полноценного DR регулярный бэкап — необходим. Никакая высокая доступность его не заменяет, т.к. высокая доступность не спасает от порчи данных, например, в случае сбоя ПО или ошибочных или зловредных действий.
3) Права система конечно сама не раздаст. При работе CIFS сервер управление правами будет абсолютно аналогично управлению Windows файловым сервером и делаться через те же инструменты Microsoft и оснастки MMC. Но некоторые вопросы по обслуживанию или продумыванию снимет или упростит, особенно если у администратора нет свободного времени, чтобы внимательно изучать тему хранения, возможности и настройки, а у его начальника нет желания, чтобы устройство работы и настройки знал и умел только конкретный сотрудник.
4) В принципе да, можно сказать и именно так — производитель СХД, имеющий мощный R&D способен сваять прошивку лучше. Системы хранения работают именно в определённой программно-аппаратной конфигурации, именно с такими алгоритмами RAID, проактивной горячей замены и т.д. Поэтому под конкретную конфигурацию, а не абстрактное использование в сотрудничестве с производителями дисков можно сделать прошивку лучше, чем для общего случая.
Защита от установки дисков с рынка — тут тоже есть. Да, часть стоимости СХД по сути «зашивается» в диски.
5) По ценовым вопросам при нашей неготовности приводить конкретные цифры публично диалог конструктивный конечно не получится. Поднять, собирая самостоятельно – да, за само железо + софт вероятнее всего будет дешевле, но у готового решения есть свои плюсы, а целесообразность, глядя на цифры каждый волен определить для себя.
Сдается мне, что с выходом Windows Server vNext, у которого блочная синхронная репликация хранилища уже встроена в базовые возможности, за покупку малым/средним бизнесом «железных» СХД по космическим ценам вообще не останется никаких аргументов.

Да и без этого SMB должно быть достаточно Hyper-V replica. А если сервер олдскульный есть и DFS Replication.

Хотя фича, конечно, ценная. Правда, наверно, теперь в реплицируемых массивах RAID-10 появится дополнительная часть квеста «найди какой диск тормозит запись на массив». )
Могу ошибаться, но её вроде анонсировали только для Datacenter Edition за 250 тыр.
А как вы смотрите на LENOVOEMC™ PX4-400D в качестве решения для SMB по разумной цене?
LENOVOEMC™ PX4-400D — одноконтроллерный домашний NAS, помещенный в стоечный корпус для удобства установки в серверной.

Если брать 12 ти дисковый, то не плохое и относительно бюджетное решение для организации бэкапа на диски (в Raid6 10+1 и 1 HS) в компании среднего уровня (на сотню другую сотрудников). Особенно если софт бэкапа еще и дедуплицировать умеет.

4-x дисковый пойдет под те же цели в уже упомянутые ROBO (Remote Office, Branch Office) той же компании :). Рассматривать как первичное хранилище не стоит в силу единой точки отказа из-за «одноконтроллерности».

Если вы такое решение рассматриваете как primary сторадж, проще уж, как рекомендовали выше, поднять все самому на самосборном (или брендовом :)) сервере или на «просто обычном PC», если не требуется установка в стойку. Будет дешевле и проработать может 8 лет, как писали выше :), а может и не 8-мь.

Кстати, на эти системы, если правильно помню, обычно есть список совместимых дисков, которые в том числе можно пойти и купить в соседнем магазине, если очень хочется.
Как primary storage он, конечно, слабенький. IOPS там взять не с чего, латентность на гигабитном Ethernet печальная.

Но вы же маркетологи, а вот что пишут ваши коллеги:
Perfect for small-to medium-sized businesses and distributed enterprises
up to 75 user

Поправьте их.
Во первых, я к маркетингу не имею никакого отношения и дай бог не буду иметь. (Чур-меня-чур) :)
Во вторых, маркетологи всегда маркетологи. Если такое решение использовать просто под файловую помойку (NAS же это в конце концов), то можно и 100, и 200 пользователей написать. Вопрос только в том сколько будет из них активно использовать эту файловую шару в конкретный момент времени. Но при таком подходе, чем обычный самосборный сервер на винде или на самбе хуже? :)
Да практически ничем, кроме отсутствия салазок, raid-контроллера и ОС.
Но если вы опытный самосборщик )) то последние два пункта можно поменять на что-то вроде FreeNAS
Извините, я про ведущих блог.

А вот вроде бы такая система почти серьезная, а вот на storageperformance.org ее не нашел. Нечего показать?
Если вы про VNXe, то EMC в принципе не любит участвовать в сравнениях «в лоб», насколько я понимаю. По этому найти производительность массивов EMC на профильных сайтах всегда было проблемой. Не думаю что это связано с тем что EMC «нечего показать». Если бы это было так, то они не были бы одним из самых крупных игроков на этом рынке. Но за официальной версией лучше сходить к вендору :).

А в остальном мое мнение, что все «усредненные» синтетические тесты — это измерение «сферического коня в вакууме». Да по ним можно составить какое-то первичное мнение о продукте. Но более правильный способ это требовать у вендора «демо» и тестировать под свои задачи.
Можно и FreeNAS :), но если сконцентрироваться на слове «опытный», то FreeNAS избыточен :). Как и в любом решении «из коробки» может быть много лишнего и не быть чего то остро необходимого.

По поводу Raid-контроллера, не обольщайтесь в LENOVOEMC его нет, как не было и в Iomega из которого все это выросло. Там вполне себе «софтовый» Raid на базе кастомизированного Linux. Да оно и к лучшему наверное :).
Полностью с вами согласен.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий