Как стать автором
Обновить

SDS от NetApp: ONTAP Select

Время на прочтение6 мин
Количество просмотров7.5K
ONTAP Select это логическое развитие линейки Data ONTAP-v, т.е. Software Defined Storage. Софт ONTAP (Операционную систему или прошивку по-народному, если хотите) можно использовать на специализированной аппаратной плтформе FAS или в виде виртуальной машины: в публичных облаках или на комодити оборудовании.
Два последних варината называют ONTAP for Cloud и ONTAP Select соответственно.

Как и предшественник ONTAP Select, этот продукт, который живёт в виде виртуальной машины и полностью опирается на традиционный RAID контроллер, установленный в вашем сервере. Поддерживаются NAS (CIFS, NFS) и IP SAN (iSCSI) протоколы и отсутствует поддержка FCP. В документах NetApp можно встретить внутренее название ONTAP Select — sDOT, это одно и тоже.

Из ожидаемых новшеств:
  • Поддержка High Avalability
  • Поддержка кластеризации до 4 нод
  • Максимальный полезный объем 400 ТБ (по 100ТБ на ноду в 4х нодовом кластере)

На ряду с High Availability и кластеризацией по-прежнему поддерживаются однонодовые конфигурации.

Читать дальше →
Всего голосов 8: ↑8 и ↓0+8
Комментарии27

Назад к истокам или шаг вперед? HPE StoreVirtual VSA

Время на прочтение6 мин
Количество просмотров9.5K
Следуя современным тенденциям в индустрии хранения и обработки данных, я добрался до SDS — программно-определяемых хранилищ, а именно — продукта компании HPE под названием HPE StoreVirtual VSA, о чем и поведаю Вам в данной статье.


Читать дальше →
Всего голосов 14: ↑13 и ↓1+12
Комментарии19

Системы хранения данных: как выбирать?!

Время на прочтение8 мин
Количество просмотров50K
imageПроект любой сложности, как ни крути, сталкивается с задачей хранения данных. Таким хранилищем могут быть разные системы: Block storage, File storage, Object storage и Key-value storage. В любом вменяемом проекте перед покупкой того или иного storage-решения проводятся тесты для проверки определённых параметров в определённых условиях. Вспомнив, сколько хороших, сделанных правильно растущими руками проектов прокололись на том, что забыли про масштабируемость, мы решили разобраться:

  • Какие характеристики Block storage и File storage нужно учитывать, если хотите, чтобы при росте проекта система хранения выросла вслед за ним
  • Почему отказоустойчивость на software уровне надежнее и дешевле, чем на hardware уровне
  • Как правильно проводить тестирование, чтобы сравнивать «яблоки с яблоками»
  • Как получить на порядок больше/меньше IOPS, поменяв всего один параметр

В процессе тестирования мы применяли RAID–системы и распределенную систему хранения данных Parallels Cloud Storage (PStorage). PStorage входит в продукт Parallels Cloud Server.
Читать дальше →
Всего голосов 28: ↑25 и ↓3+22
Комментарии33

Резервное копирование с Software-defined Storage и Erasure Coding – стоит ли игра свеч?

Время на прочтение5 мин
Количество просмотров2.8K
По мере роста активности программ-вымогателей, таких как Petya или BadRabbit, а также в связи с ужесточением требований законодательства (например, как раз вступившим в силу №187-ФЗ «О защите критической информационной инфраструктуры») объемы данных для резервного копирования постоянно увеличиваются. В результате растет стоимость инфраструктуры хранения резервных копий. Такие технологии как Erasure Coding могут кардинально снизить затраты на их хранение. Сегодня мы расскажем насколько именно и о том, как построить Backup на базе Erasure Coding.

image
Читать дальше →
Всего голосов 8: ↑8 и ↓0+8
Комментарии7

СХД NetApp — преемственность поколений, проблемы и способы их решения

Время на прочтение6 мин
Количество просмотров9.8K

Кому интересна эта статья


К написанию настоящей статьи меня подтолкнул кейс, случившийся c одной уважаемой компанией, которая давно и успешно эксплуатирует решения NetApp для хранения данных. Управление данными средствами NetApp происходит в международном масштабе, в том числе и в России. Российское представительство имеет территориально распределённую офисную структуру и часть локальных ИТ-сервисов вынесена в регионы: локации разбросаны от штаб-квартиры в Москве до северных регионов, где бродят белые медведи, а интернет доступен только по узким спутниковым каналам связи.

Статья будет интересна тем, кто:
Читать дальше →
Всего голосов 20: ↑20 и ↓0+20
Комментарии12

HPE Digitize 2018: мероприятие и онлайн-трансляция

Время на прочтение3 мин
Количество просмотров1.3K
Автономный ЦОД с возможностями AI, в котором неполадки устраняются до того, как они проявятся, программно-определяемые решения, которые адаптируются под задачи бизнеса, – это будущее корпоративной инфраструктуры, которое можно воплощать уже сегодня. О конкретных решениях и примерах применения мы поговорим на конференции HPE Digitize в Москве 18 июля, и вот почему вам нужно присоединиться к нам или посмотреть онлайн-трансляцию.


Читать дальше →
Всего голосов 4: ↑4 и ↓0+4
Комментарии0

Хранилище LINSTOR и его интеграция с OpenNebula

Время на прочтение7 мин
Количество просмотров15K


Не так давно ребята из LINBIT представили свое новое SDS-решение — Linstor. Это полностью свободное хранилище в основе которого используются проверенные технологии: DRBD, LVM, ZFS. Linstor сочетает в себе простоту и хорошо проработанную архитектуру, что позволяет добиться стабильности и достаточно внушительных результатов.


Сегодня я хотел бы рассказать про него чуть подробнее и показать насколько просто его можно интегрировать с OpenNebula используя linstor_un — новый драйвер, который я разработал специально для этой цели.


Linstor в сочетании с OpenNebula позволяет построить быстрое и надежное облако, которое можно без проблем развернуть на собственной инфраструктуре.

Читать дальше →
Всего голосов 12: ↑12 и ↓0+12
Комментарии2

Интеграция Росплатформы с grafana+prometheus через consul

Время на прочтение10 мин
Количество просмотров7.8K


Долго колебался мыслями о необходимости написания этой статьи, но все-таки решился. Интерес к красивым дашбордам победил лень и отсутствие мотивации к слишком мудреным реализациям мониторинга такого типа (для микросервисных систем). Плюс накопилось желание поскорее все выложить после полученных впечатлений в процессе изучения, но тут конечно необходимо чтобы это было понятно всем, поэтому постараюсь сдержать свои эмоции:) и описать это более детально.

Былой опыт



Ранее несколько лет назад был 5 летний опыт работы с СУБД Oracle в среде RISC-овой архитектуры на базе IBM, c их очень хорошей юникс подобной ОС AIX c своим прекрасным инструментом smitty, и все это еще разворачивалось на аппаратной виртуализации PowerVM, где можно настраивать балансировку на базе двух VIOS и т.д.



За всем этим набором как-то надо было следить, особенно за БД, и у всех этих программ были свои средства мониторинга, но вдохновлял меня на тот момент самый красивый и имеющий дашборды для всех этих компонентов, инструмент под названием spotlight от компании Quest.
Читать дальше →
Всего голосов 7: ↑6 и ↓1+5
Комментарии12

Интеграция гиперконвергентной Росплатформы на HPE Synergy с СХД 3PAR

Время на прочтение8 мин
Количество просмотров2.7K

Как-то понадобилось интегрировать Росплатформу (Р-Виртуализацию и Р-Хранилище) с аппаратным СХД( 3PAR), и это может очень пригодится в различных сценариях.

Конфигурация Synergy


Ранее такого рода интеграция тестировалась на лезвиях(Blade CH121 v5) блейд центра Huawei c СХД Dorado 5000 v3, где SDS(software-defined storage) Р-Хранилище Росплатформы поверх СХД показал себя довольно хорошо за счет all flash, но с Synergy, при наличии JBOD дисков с модуля D3940, все намного интереснее и гибче.
Читать дальше →
Рейтинг0
Комментарии0

Хранение данных. Или что такое NAS, SAN и прочие умные сокращения простыми словами

Время на прочтение8 мин
Количество просмотров53K

TL;DR: Вводная статья с описанием разных вариантов хранения данных. Будут рассмотрены принципы, описаны преимущества и недостатки, а также предпочтительные варианты использования.


Читать дальше →
Всего голосов 26: ↑24 и ↓2+22
Комментарии13

Как мы превратили «статистическую аномалию» в сервис: новый уровень хранения в облаке

Время на прочтение5 мин
Количество просмотров4.4K
image

Практически любой бизнес сталкивается с плавающей нагрузкой: то тишина, то шквал. За примерами далеко ходить не надо:

  • посещаемость интернет-магазина может значительно колебаться в зависимости от времени суток или сезона;
  • внутренние сервисы компаний могут «пустовать» неделями, а накануне сдачи квартального отчета их посещаемость резко подскочит.

Всего голосов 28: ↑27 и ↓1+26
Комментарии5

Производительность распределенного хранилища: препродакшн тесты

Время на прочтение12 мин
Количество просмотров3.1K

Есть свежее распределенное хранилище. Кластер уже установлен и готов к вводу в продакшн. Самое время протестировать производительность. Такое тестирование проводится, чтобы понять скорость работы хранилища на практике, оценить адекватность инсталляции и понять его максимальную производительность на старте. В этой статье я поделюсь методологией препродакшн тестирования.

Я приведу несколько примеров принятия решений на разных этапах, но цель этой статьи не охватить все возможные кейсы, а описать методологию тестирования — основные этапы, нюансы процесса и некоторые распространенные ошибки.

Нужно сказать, что больше всего я работал с Ceph, поэтому в основном методология строится исходя из этого опыта, но, если не вдаваться в детали, то подход к тестированию более-менее одинаков для всех распределенных программных хранилищ данных (SDS).
Читать дальше →
Всего голосов 28: ↑28 и ↓0+28
Комментарии2

А вот вы говорите Ceph… а так ли он хорош?

Время на прочтение19 мин
Количество просмотров42K


Я люблю Ceph. Я работаю с ним уже 4 года (0.80.x — 12.2.6, 12.2.5). Порой я так увлечен им, что провожу вечера и ночи в его компании, а не со своей девушкой.
 Я сталкивался с различными проблемами в этом продукте, а с некоторыми продолжаю жить и по сей день. Порой я радовался легким решениям, а иногда мечтал о встрече с разработчиками, чтобы выразить свое негодование. Но Ceph по-прежнему используется в нашем проекте и не исключено, что будет использоваться в новых задачах, по крайней мере мной. В этом рассказе я поделюсь нашим опытом эксплуатации Ceph, в некотором роде выскажусь на тему того, что мне не нравится в этом решении и может быть помогу тем, кто только присматривается к нему. К написанию этой статьи меня подтолкнули события, которые начались примерно год назад, когда в наш проект завезли Dell EMC ScaleIO, ныне известный как Dell EMC VxFlex OS.


Это ни в коем случае не реклама Dell EMC или их продукта! Лично я не очень хорошо отношусь к большим корпорациям, и черным ящикам вроде VxFlex OS. Но как известно, всë в мире относительно и на примере VxFlex OS очень удобно показать каков Ceph с точки зрения эксплуатации, и я попробую это сделать.

Читать дальше →
Всего голосов 51: ↑51 и ↓0+51
Комментарии55

CephFS vs GlusterFS

Время на прочтение16 мин
Количество просмотров33K

Будучи инфраструктурным инженером в команде разработки облачной платформы, мне довелось поработать со многими распределенными системами хранения данных, в том числе и с теми, что указаны в заголовке. Кажется, что есть понимание их сильных и слабых сторон, и я попробую поделиться с вами своими мыслями на этот счет. Так сказать, посмотрим у кого хеш-функция длиннее.


Читать дальше →
Всего голосов 20: ↑20 и ↓0+20
Комментарии7

Интеграция Open vSwitch с Р-виртуализацией

Время на прочтение12 мин
Количество просмотров7.8K

Как-то понадобилось интегрировать Open vSwitch (OVS) c Р-виртуализацией плюс Р-хранилище(РП), может пригодится и не только с РП.


Текущая версия РП на момент статьи была 7.0.13-31, ядро в этой версии 3.10.0-1062.12.1.rv7.131.10.1, что соответствует версии RedHat 7.7, а версия OVS, который идет в составе репозитория РП была 2.0.0. Список функционала на OVS 2.0.0 можно посмотреть тут. Ключи для РП можно взять тут.



Цель была попробовать настроить VXLAN и виртуальный коммутатор в качестве альтернативы родным к технологии kvm-qemu и libvirt мостам. Если использовать голый OpenSource kvm-qemu, то там с OVS все в порядке, но захотелось это попробовать с РП, где не просто голый kvm-qemu+libvirt, а много патчей к этой связке и есть vstorage.


Железо


Для этого конечно нам понадобится железо. Минимальные требования РП это три сервера в каждом по три диска, можно конечно и два если все SSD, но в моем случае один SSD остальные HDD. Далее сеть не менее 10 гигабит два порта, в моем случае повезло было 20 гигабит два порта и дополнительный порт 5 гигабит для ввода в кластер тегированного трафика для OVS в обход классическим мостам или другими словами параллельное использование классических мостов Р-виртуализации с OVS. В общем в моем случае повезло в наличии был Synergy c 3 лезвиями, корзинами с JBOD дисками и встроенным коммутатором.

Читать дальше →
Всего голосов 3: ↑3 и ↓0+3
Комментарии2

Краткое сравнение архитектуры SDS или поиск подходящей платформы хранения (GlusterVsCephVsVirtuozzoStorage)

Время на прочтение9 мин
Количество просмотров6.9K
Данная статья написана для того, чтобы помочь выбрать для себя подходящее решение и понять отличия между такими SDS как Gluster, Ceph и Vstorage (Virtuozzo).

В тексте используются ссылки на статьи с более детальным раскрытием тех или иных проблем, поэтому описания будут максимально краткими с использованием ключевых моментов без лишней воды и вводной информации, которую вы сможете при желании самостоятельно добыть на просторах интернета.

На самом деле конечно затронутые темы требуют тоны текста, но в современном мире все больше и больше люди не любят много читать))), поэтому можно бегло прочесть и сделать выбор, а если что непонятно пройтись по ссылкам или погуглить непонятные слова))), а эта статья как прозрачная обертка для этих глубоких тем, показывающая начинку – главные ключевые моменты каждого решения.

Gluster


Начнем с Gluster, который активно используется у производителей гиперконвергентных платформ с SDS на базе open source для виртуальных сред и его можно найти на сайте RedHat в разделе storage, где предлагается выбрать из двух вариантов SDS: Gluster или Ceph.

Gluster состоит из стека трансляторов – службы которые выполняют все работы по распределению файлов и т.д. Brick – служба которая обслуживает один диск, Volume – том(пул) – который объединяет эти brick’и. Далее идет служба распределения файлов по группам за счет функции DHT(distributed hash table). Службу Sharding включать в описание не будем так как в ниже выложенных ссылках будет описание проблем связанных с ней.

image

При записи файл целиком ложится в brick и его копия параллельно пишется на brick на втором сервере. Далее второй файл уже будет записываться в вторую группу из двух briсk(или более) на разных серверах.
Читать дальше →
Всего голосов 10: ↑8 и ↓2+6
Комментарии6

A Brief Comparison of the SDS Architectures for Virtualization

Время на прочтение6 мин
Количество просмотров2.6K

The search for a suitable storage platform: GlusterFS vs. Ceph vs. Virtuozzo Storage


This article outlines the key features and differences of such software-defined storage (SDS) solutions as GlusterFS, Ceph, and Virtuozzo Storage. Its goal is to help you find a suitable storage platform.

Gluster



Let’s start with GlusterFS that is often used as storage for virtual environments in open-source-based hyper-converged products with SDS. It is also offered by Red Hat alongside Ceph.
GlusterFS employs a stack of translators, services that handle file distribution and other tasks. It also uses services like Brick that handle disks and Volume that handle pools of bricks. Next, the DHT (distributed hash table) service distributes files into groups based on hashes.
Note: We’ll skip the sharding service due to issues related to it, which are described in linked articles.

image

When a file is written onto GlusterFS storage, it is placed on a brick in one piece and copied to another brick on another server. The next file will be placed on two or more other bricks. This works well if the files are of about the same size and the volume consists of a single group of bricks. Otherwise the following issues may arise:
Read more →
Всего голосов 2: ↑1 и ↓10
Комментарии0

Зачем нужна гиперконвергенция? Обзор и тесты Cisco HyperFlex

Время на прочтение19 мин
Количество просмотров5.6K

В ИТ главное — это три буквы


Задача любой ИТ-инфраструктуры сводится к обеспечению надежной платформы для бизнес-процессов компании. Традиционно считается, что качество информационно-технологической инфраструктуры оценивается по трем основным параметрам: доступность, безопасность, надёжность. Однако оценка по данной тройке никак не связана с бизнесом и прямыми доходами / потерями компании.

В ИТ правят три главные буквы. Если во главе иерархии ИТ не стоят буквы «RUB», значит вы строите свою ИТ-инфраструктуру неправильно. Конечно, строить напрямую ИТ, отталкиваясь только от доходов/расходов, сложно, поэтому существует иерархия «трех букв» — от самых важных к более частным. SLA, RPO, RTO, GRC – все это специалисты в индустрии знают и давно используют в построении инфраструктур. К сожалению, не всегда связывая эти показатели в сквозную иерархию.



Многие компании сегодня строят инфраструктуру для будущего используя вчерашние технологии на позавчерашней архитектуре. И вместе с тем, ускоряющееся развитие ИТ показывает, что современные сервисы кардинально меняют не только бизнес, но и общество – люди цифровой эпохи привыкли, что для доступа к любой информации достаточно нескольких секунд. ИТ из непонятной техномагии стало обыденностью для широких масс, такой же как бургерная или кофейня. Это добавило новые чрезвычайно важные три буквы в ИТ. Эти буквы — TTM (Time to market) — время до запуска продуктивного сервиса на рынок.


Читать дальше →
Всего голосов 3: ↑2 и ↓1+1
Комментарии10

Гиперконвергентная инфраструктура, для периферийных вычислений, часть 2. Управление несколькими удаленными площадками

Время на прочтение5 мин
Количество просмотров1.4K

Развитие гиперконвергентной инфраструктуры (HCI), возникшей как ответвление технологии хранения данных (SDS) действительно впечатляет.

Пример Люка Пруэна, сотрудника HPE по гиперконвергенции:

«Около 10 лет назад я работал в США с двумя крупными розничными компаниями. У одной из них было более 2600 торговых точек, у другой — 1200. Обе эти компании стремились уменьшить площади своих магазинов и при этом обеспечить максимальную эффективность и доступность. Управление и оркистрация при таком количестве объектов становятся серьезной задачей. В то время отрасль еще не знала понятия HCI — использовалась инфраструктура VMware Infrastructure 3 (vSphere еще не придумали), а HPE еще только приобрела компанию LeftHand Networks.

Я тесно сотрудничал с обеими компаниями, чтобы решить стоящие перед ними проблемы производительности, доступности и управления. Мы разработали решение для программно-определяемого хранения данных (SDS), которое обеспечило высокую доступность при небольшой площади и отличной производительности на площадках, централизованно управляемых с помощью сервера vCenter. Еще одной серьезной проблемой была модернизация площадок. Как эффективно модернизировать каждую площадку в автоматическом режиме? Сценарии! Мы разработали скрипты для отдельных компонентов решения, включая гипервизор ESXi, микропрограммное обеспечение и решение SDS. Чтобы максимально упростить процесс установки исправлений, оба заказчика стандартизировали единую аппаратную платформу для устранения различий между магазинами. Это позволило упростить и оптимизировать процессы управления, модернизации и устранения неисправностей на любой площадке.

Читать далее
Рейтинг0
Комментарии0

Исследование производительности свободных хранилищ LINSTOR, Ceph, Mayastor и Vitastor в Kubernetes

Время на прочтение10 мин
Количество просмотров16K

Кажется это уже стало традицией: каждый раз, когда я выхожу на новое рабочее место, моя деятельность начинается с бенчмарков различных SDS-решений. Мой приход во «Флант» не стал исключением. Я попал в команду разработки Kubernetes-платформы Deckhouse, где решили развивать возможность запуска виртуальных машин в Kubernetes. Но для этого сначала потребовалось найти простое и надежное хранилище блочного типа, которое можно предложить клиентам платформы.

Я взял несколько свободных решений и протестировал, как они поведут себя в тех или иных условиях. В первую очередь интересовала производительность DRBD в различных конфигурациях и сравнение с Ceph.

Но рынок программно-определяемых хранилищ не стоит на месте и постоянно растёт. Появляются новые амбициозные проекты, включая недавно релизнутый Mayastor и pet-проект моего товарища-соратника Vitastor. Результаты оказались очень интересными.

Читать далее
Всего голосов 45: ↑44 и ↓1+43
Комментарии22