Pull to refresh
  • by relevance
  • by date
  • by rating

SnapProtect for Open Systems

System administrationIT InfrastructureData recoveryBackupData storage
В продолжение темы о ПО SnapProtect: Архитектура резервного копирования на системах NetApp FAS, хочу осветить функционал SnapProtect for Open Systems. Начиная с релиза SnapProtect 10.0 Service Pack 4, NetApp теперь поддерживает резервные копии с direct-attached и «сторонних» хранилищ на Data ONTAP 7-Mode SnapVault системы.

«SnapProtect for Open Systems» или коротко (SPOS), выполняет блочную инкрементальную репликацию поддерждивая ОС Windows, Linux и Solaris, а также такие приложения как Microsoft Exchange Server, Microsoft SQL Server и Oracle Database.


Cхема работы SPOS

Принципиальное отличие такой схемы от стандартного подхода NetApp к резервному копированию, заключается в том, что Snapshot'ы снимаются не на уровне хранилища (Hardware Assistant), а на уровне файловой системы (или файлового менеджера типа LVM) ОС самого хоста.
Как работает SPOS
Total votes 8: ↑8 and ↓0 +8
Views2.1K
Comments 2

Архитектура резервного копирования на системах NetApp FAS

System administrationIT InfrastructureData recoveryBackupData storage
В этой статье я рассмотрю как архитектура SnapProtect притворяет в жизнь «парадигму резервного копирования NetApp», используя передовые технологии и преимущества систем хранения, серии FAS. ПО SnapProtect (SP) предназначенно для управления жизненным циклом резервных копий, архивацией и восстановлением данных для всей инфраструктуры, расположенной на СХД NetApp FAS. SP обеспечивает связность с приложениями, консистентность при снятии резервной копии, управление репликацией/архивацией между хранилищами, каталогизацию, восстановление данных в случае необходимости, проверку резервных копий, а также другие функции. FAS очень универсальные системы, которые могут использоваться для задач как «основной» СХД, «запасной» (DR) так и для архивации данных.

Комплекс SnapProtect состоит из следующих основных компонент:

  • Сервер с SnapProtect Management Server (CommServe license), для отказоустойчивости применяется кластеризация (на уровне приложения + кластеризация БД)
  • Серверы с инсталлированным MediaAgent'ами.
  • Агенты iDataAgent (iDA). Устанавливаются на хосты для интеграции с ОС, файловыми системами, приложениями и другими компонентами хостовой ОС.
  • SP взаимодействует с хранилищем NetApp через Oncommand Unified Manager.



Читать дальше →
Total votes 13: ↑12 and ↓1 +11
Views5.3K
Comments 8

SnapProtect 10 SP2: новые возможности

System administrationIT InfrastructureData recoveryBackupData storage
В продолжение темы о ПО SnapProtect: Архитектура резервного копирования на системах NetApp FAS, эта статья посвящена новым возможностям SnapProtect. Софт SnapProtect объединяет высокоскоростные Snapshot NetApp и репликацию на ленту, для уменьшения времени простоя и потери данных. Это единая консоль управления, создания и каталогизации, управления консистентными, с точки зрения приложения, snapshot в инфраструктуре, обеспечивая жизненный цикл хранения disk-to-disk-to-tape (D2D2T).



Эта схема резервного копирования выполнена в соответствии с парадигмой резервного копирования для систем NetApp FAS: основные и резервные данные расположены на СХД, а резервные копии выполняются на основе Hardware Assistant Snapshot, взаимодействуя с приложениями создавая, таким образом, Application Consistent Backup.
Новые возможности
Total votes 12: ↑10 and ↓2 +8
Views3.3K
Comments 0

Парадигма резервного копирования NetApp

IT InfrastructureData recoveryBackupData storageData storages
В этом посте я хотелбы рассмотреть подход к резервному копирования данных на СХД NetApp серии FAS.


Архитектура резервного копирования

WAFL


И начну я издали — со снепшотов. Технология снепшотов впервые была изобретена (и запатентирована) в 1993 году компанией NetApp, а само слово Snapshot™ является её торговой маркой. Технология снепшотирования логически проистекала из механизмов работы файловой структуры WAFL. Почему WAFL не файловая система смотрите здесь. Дело в том, что WAFL всегда пишет новые данные «в новое место» и просто переставляет указатель на содержимое новых данных в новое место, а старые данные не удаляются, эти блоки данных, на которые нет указателей, считаются высвобожденными для новых записей. Благодаря этой особенности записи, «всегда в новое место», механизм снепшотирования был легко интегрирован в WAFL, из-за чего такие снепшоты называют Redirect on Write (RoW). Подробнее про WAFL.
Читать дальше →
Total votes 5: ↑4 and ↓1 +3
Views12.3K
Comments 41

RedHat/Oracle Linux с NetApp FAS (SAN)

High performance
В продолжении темы по оптимизации хоста. В предыдущей статье я писал об оптимизации Windows и SAN сети, в этой статье я хотел бы рассмотреть тему оптимизации RedHat/Oracle Linux (с виртуализацией и без) с использованием СХД NetApp FAS в среде SAN.

Для поиска и устранения узких мест в такой инфраструктуре, нужно опредилиться с компонентами инфраструктуры, среди которых их стоит искать. Разделим инфраструктуру на следующие компоненты:

  • Настройки хоста c SAN (FC/FCoE)
  • Настройки Ethernet сети на хосте для IP SAN ( iSCSI ).
  • Собственно сам хост с ОС
  • Приложениями на Хосте
  • Проверка совместимости драйверов и версий ПО


Читать дальше →
Total votes 23: ↑19 and ↓4 +15
Views13.7K
Comments 6

NetApp FAS и VMware ESXi: Swap

High performance
В продолжение темы об оптимизации хоста с VMware ESXi, рассмотрим как поступать со Swap'ом в инфраструктуре живущей на СХД NetApp FAS. Хотя эта статья должна быть полезна и не только владельцам систем NetApp FAS.

Одна из важнейших возможностей виртуализации заключается в возможности более эффективно утилизировать серверное оборудование, что подразумевает Overcommit ресурсов. Если мы говорим об ОЗУ, это означает, что мы можем настроить каждой виртуальной машине больше памяти, чем есть на сервере на самом деле. А дальше мы полагаемся на ESXi, чтобы тот разрулил борьбу за ресурсы — забрал (такой процесс часто называют reclamation) не нужную память одной виртуальной машины и отдал той, которая в ней действительно нуждается. В тот момент когда не хватает памяти, начинается процесс свапинга памяти.

Начнём с того, что есть два типа свапинга, которые могут происходить на ESXi хосте. Их очень часто путают, поэтому давайте условно будем называть их Тип 1 и Тип 2.


Расположение данных VMware ESXi по умолчанию
Читать дальше →
Total votes 12: ↑11 and ↓1 +10
Views15.7K
Comments 3

VMware ESXi 5.Х и NetApp ONTAP 8: тюнинг

High performance
В продолжение темы об оптимизации хоста для взаимодействия с СХД NetApp FAS, эта статья будет посвещена оптимизации производительности VMWare ESXi, предыдущие статьи были посвящены тюнингу ОС Linux и Windows в среде SAN. Компания NetApp давно тесно сотрудничает с VMware, подтверждением тому может стать тот факт, что нашумевшая технология vVOL была реализована одной из первых ещё в релизе Clustered Data ONTAP 8.2.1 (Август 2014), в то время как vSphere 6.0 ещё даже не выпущен. В связи с чем системы хранения NetApp FAS крайне популярны в этом окружении. Часть про Disk Alignment будет полезна не только владельцам NetApp.

Настройки VMWare ESXi можно разделить на следующие части:

  • Оптимизация гипервизора
  • Оптимизация гостевой ОС (GOS)
  • Оптимальные настройки SAN (FC/FCoE и iSCSI)
  • Настройки NAS (NFS)
  • Проверка совместимости оборудования, прошивок и ПО


Для поиска узкого места обычно выполняют методику последовательного исключения. Предлагаю перво-наперво начать с СХД. А дальше двигаться СХД -> Сеть (Ethernet / FC) -> Хост ( Windows / Linux / VMware ESXi 5.Х и ESXi 6.X ) -> Приложение.
Читать дальше →
Total votes 13: ↑9 and ↓4 +5
Views22.4K
Comments 7

iSCSI 2.0 с FAS2xxx или путь масштабирования маленького ЦОДа

High performance
Сохранение инвестиций востребовано любой компанией. Важно иметь такой концепт инфраструктуры ЦОД, который бы позволил в случае необходимости легкого масштабироваться, при этом максимально утилизировать существующее оборудование для новых потребностей бизнеса. Переход от iSCSI к iSCSI 2.0 может стать базой для такого концепта. iSCSI over DCB часто называют iSCSI 2.0 благодаря дополнительным расширениям DCB для Ethernet.


В продолжение статьи "FC & Ethernet".

DCB, состоит из
  • PFC (802.1Qbb) — Обеспечивает работу Ethernet без потерь фреймов (Lossless Ethernet)
  • ETS (802.1Qaz) — Назначает пропускную способность фреймам, позволяет низкоприоритетному трафику использовать пропускную способность если она не задейстована
  • CN (802.1Qau) — Ставит источник «на паузу»
  • DCBX — Определяет домен DCB

Свичи поддерживающие DCB часто также поддерживают Shortest Path Bridging IEEE 802.1AQ и/или IETF TRILL позволяющие выбрать наиболее короткий путь для Ethernet трафика, что позитивно сказывается на работе iSCSI.
Читать дальше →
Rating 0
Views5.2K
Comments 17

Зонинг для кластерного хранилища в картинках

SAN
Системы хранения NetApp FAS могут объединяться в кластер до 8 нод для предоставления доступа в SAN сетях и до 24 нод для Ethernet сетей. Давайте рассмотрим пример настройки зонирования и схему подключения для таких кластерных систем.

Общая схема подключения для SAN и NAS.
Читать дальше →
Rating 0
Views9K
Comments 9

Кластеризация СХД NetApp используя подручные свичи

SAN
Кластеризация систем хранения данных сейчас набирает оборотов, особенно в свете бурно развивающихся Flash технологий, которые требуют наличия большего количества контроллеров способных обрабатывать выскокопроизводительные накопители. Кроме поддерживаемых кластерных свичей есть множетсво других, которые временно можно исспользовать для этих целей. В этой статье я хотел бы привести пример настройки нескольких свичей, которые мною протестированны для кластерной сети. Многие другие свичи, уверен, тоже будут работать, ведь это обычный Ethernet


Схема подключения свичей для Cluster Interconnect

Когда у вас есть на руках (хотябы временно) больше двух контроллеров FAS, кластерный свич может понадобится, в случае:
Настроить кластерный свич
Total votes 11: ↑10 and ↓1 +9
Views8.3K
Comments 11

Вывод систем хранения данных NetApp из кластера

SAN
Добавление в кластер системы хранения NetApp FAS происходит очень просто:
Подключаются порты кластерного интерконнекта в свич и выполняется команда:
cluster setup


А как вывести ноду из кластера?
Читать дальше →
Total votes 10: ↑9 and ↓1 +8
Views3.7K
Comments 4

FlexPod DataCenter: Direct-Attached Storage

SAN
В предыдущей статье я рассказал о «не-FlexPod DC» архитектуре, которая может поддерживаться из «одних рук» по программе Cisco «Solution Support for Critical Infrastructure» (SSCI). Основная её особенность состоит в том, что в ней нет коммутаторов серии Nexus, а если их туда добавить, такая архитектура может стать полноценным FlexPod DataCenter.

Здесь пойдёт речь про новый дизайн сети, для FlexPod DataCenter, с прямым включением СХД NetApp в UCS домен. Отличие от стандартной архитектуры FlexPod DataCenter заключается в том, что коммутаторы Nexus расположены не между UCS и NetApp, а «поверх» UCS.
Собрать FlexPOD самому
Total votes 10: ↑10 and ↓0 +10
Views4.8K
Comments 3

Data ONTAP 8.3 ADP: Root-Data Partitioning

SAN
ОС Data ONTAP 8.3 cDOT это один из наибольших релизов NetApp. Одной из ключевых особенностей релиза является технология Advanced Drive Partitioning (ADP). Более подробно о том что нового в cDOT 8.3 здесь.

Технология ADP имеет два основных применения:
  • Root-Data Partitioning
  • FlashPool Partitioning (Storage Pools)

В этой статье речь пойдёт про Root-Data Partitioning.

Форматировать СХД
Total votes 11: ↑11 and ↓0 +11
Views8.1K
Comments 18

Data ONTAP 8.3 ADP: FlashPool StoragePools

High performance
ОС Data ONTAP 8.3 cDOT это один из наибольших релизов NetApp. Одной из ключевых особенностей релиза является технология Advanced Drive Partitioning (ADP), в предыдущей статье я рассматривал применение этой технологии для Root-Data Partitioning, в этой же предлагаю рассмотреть внутренее устройство StoragePools. Более подробно о том, что нового в cDOT 8.3 здесь.

StoragePools похожа на Root-Data Partitioning, которая также использует партиционирование предоставляя новый способ распределять SSD кеш для гибридных агрегатов.

Гибридный агрегат


Технология StoragePool была разработана специально для гибридных агрегатов, чтобы более рационально распределять SSD кеш между ними. К примеру у вас в систему установлено всего 4 SSD, а кеш хочется сделать для 2, 3 или даже 4 агрегатов, здесь вам прийдёт на помощь ADP.

Итак, для начала нужно создать StoragePool и добавить туда набор SSD дисков.



Все диски в StoragePool'е будут разбиты на ровные 4ре части. Это нигде не настраивается, система всегда разобъет их на ровные 4ре части. Можно иметь несколько StoragePool'ов. Создавая StoragePool, по-умолчанию, партиции поровну будут поделены между двумя нодами HA системы, но это можно будет изменить.

Набор первых (P1), вторых (P2), третьих (P3) и четвертых (P4) партиций дисков StoragePool'а называется Allocation Unit соответственно (AU1, AU2, AU3, AU4).


Форматировать SSD под кеш
Total votes 11: ↑9 and ↓2 +7
Views5.2K
Comments 7

Зачем обновляться до Data ONTAP Cluster Mode?

SAN
Как я уже писал в своих предыдущих постах, Data ONTAP v8.3.x это один из наиболее значимых релизов операционной системы для систем хранения NetApp серии FAS.

В этой статье я приведу наиболее значимые, с моей точки зрения, новые функции систем хранения NetApp в самой последней версии Clustered Data ONTAP. По традиции приведу пример на автомобилях: Представьте у вас есть Тесла автомобиль, вы обновили прошивку и получили автопилот с автопаркингом бесплатно, хотя его там раньше не было. Правда приятно? Так вот самыми главными аргументами обновить вашу систему до Cluster-Mode является сохранение инвестиций и возможность получить самый современный функционал на старом железе:

  • Онлайн детекция (дедупликация) нулей на ходу, что может быть очень полезно в случае БД и провиженинга виртуальных машин.
  • Онлайн дедупликация для FlashPool (и AFF) систем, что позволит продлить срок службы SSD дисков. Функция доступна начиная с 8.3.2.
  • Если обновиться до VMWare vSphere 6, у вас будет поддержка vVOL как с NAS так и SAN
  • QoS — установка максимального порога операций ввода-вывода или Мб/с на файлы, луны, вальюмы и SVM.
  • Поддержка NFS4.1, которая также присутствует у VMware vSphere 6
  • Поддержка pNFS которая позволяет распаралеливать NFS и переключаться между путями от клиента к файловой шаре без её перемонтирования, поддерживается с RHEL 6.4 и выше.
  • Поддержка SMB (CIFS) 3.0 который работает с клиентами начиная с Win 8 и Win 2012

Обновиться до Cluster Mode!
Total votes 13: ↑9 and ↓4 +5
Views5.4K
Comments 31

NetApp ONTAP: UNMAP в SAN окружении

VirtualizationSAN
Команда UNMAP стандартизирована в рамках набора команд T10 SCSI и используется для высвобождения пространства из тонких лунов назад хрнилищу данных в SAN окружении. Как я писал ранее, протоколы SAN и NAS понемногу заимствуют друг у друга всё лучшее. Одна из полезных вещей которая появилась достаточно давно, это возможность обратной связи СХД и хоста, для того чтобы «возвращать» удалённые блоки в тонкий лун, чего раньше так не хватало в SAN. Функцией UNMAP по-прежнему мало кто пользуется в SAN окружении, хотя она очень полезна в сочетании как с виртуализированными так и не виртуализированными средами.

Без поддержки команды UNMAP любой тонкий лун созданный на стороне СХД всегда мог только увеличиваться в размере. Его рост был вопросом времени, который безоговорочно всегда заканчивался тем, что такой тонкий лун в конце концов станет занимать свой полный объём, который ему положен, т.е. в конце концов он станет толстым.


Вернуть пространство на хранилище
Total votes 14: ↑13 and ↓1 +12
Views6.5K
Comments 8

FlexPod Express: UCS-Managed конфигурация

SAN
Среди трех предыдущих конфигураций Small/Medium/Large в архитектуре FlexPod Express появилась ещё одна под названием Cisco UCS-Managed. В этой статье пойдёт речь об этой новой конфигурации. FlexPod Express и FlexPod Datacenter деляться на два основных типа подключения: прямое подключение СХД к серверам (между СХД и серверами нет коммутатора) или через коммутатор (между СХД и серверами есть коммутатор), напомню что Fabric Interconnect это не коммутатор, а часть UCS домена серверов.

Стоит отметить несколько важных отличий новой конфигурации от предыдущих трех.
  • Во-первых в архитектуре появились Fabric Interconnect, пускай и в исполнении внутренних устройств, установленных в шасси UCS Mini с блейдами.
  • Во-вторых в архитектуре появилась возможность прямого подключения СХД к Fabric Interconnect, ранее между серверами и СХД обязательно должен был наличествовать коммутатор. При этом коммутатор должен был быть только Nexus (3048/3500/9300).
  • В третьих если у нас конфигурация FlexPod Express Cisco UCS-Managed с прямым подключением, коммутатор для подключения конечных пользователей не обязательно должен быть Nexus. Теперь это может быть любой стандартный свич поддерживающий отказоустойчивость на подобии Multi Chassis Etherchannel. Но если между UCS и FAS нужен свитч, то свич обязан быть Nexus.

Собрать FlexPOD Express самому
Total votes 12: ↑12 and ↓0 +12
Views4.2K
Comments 2

NetApp virtual storage appliance: Data ONTAP-v

Cloud computingSAN
Пусть уже давно, но как-то незаметно, прошла новость о том, что Hyper-V а потом и Azure начал поддерживать FreeBSD. Любители старой доброй FreeBSD возрадовались, а многие другие люди могли недоумевать: «зачем?». Именно благодаря усилиям компании NetApp, FreeBSD теперь поддерживается в Hyper-V и Azure. Каким образом NetApp в этом заинтересована? Дело в том, что ОС ONTAP построена на базе FreeBSD. Именно для того, чтобы появились продукты, созданные на базе Data ONTAP-v, такие как Cloud ONTAP и Data ONTAP Edge. Кроме того, компания NetApp является одним из самых больших современных контрибуторов кода для FreeBSD.

Запустить ONTAP у себя на сервере
Total votes 9: ↑8 and ↓1 +7
Views5.2K
Comments 85

NetApp MetroCluster (MCC)

SANData storageData storages
MetroCluster гео-распределённый, отказоустойчивый кластер построенный на базе систем хранения данных NetApp FAS, такой кластер можно представить себе, как одну систему хранения, растянутую на два сайта, где в случае аварии на одном из сайтов всегда остаётся полная копия данных. MetroCluster используется для создания высоко доступного (HA) хранилища и сервисов. Более подробно о MCC официальной документации.

MetroCluster работающий на старой ОС Data ONTAP 7-Mode (до версии 8.2.х) имел аббревиатуру «MC», а работающий на ClusteredONTAP (8.х и старше), чтобы не было путаницы, принято называть MetroCluster ClusteredONTAP (MCC).

MCC может состоять из двух и более контроллеров. Существует три схемы подключения MCC:

  1. Fabric-Attached MetroCluster (FCM-MCC)
  2. Bridge-Attached Stretch MetroCluster
  3. Stretch MetroCluster

Различие в этих трех вариантах по сути только в сетевой обвязке. Сетевая обвязка влияет на два фактора: максимально возможное расстояние на которое можно растянуть кластер и на количество нод в кластере.

Собрать распределённый отказоустойчивый HA кластер СХД
Total votes 12: ↑11 and ↓1 +10
Views11.5K
Comments 6

NetApp ONTAP & ESXi 6.х тюнинг

High performance
В продолжение темы об оптимизации ESXi хоста для взаимодействия с СХД NetApp ONTAP, эта статья будет просвещена оптимизации производительности VMWare ESXi 6.X, предыдущие статьи были посвящены тюнингу ОС Linux, Windows и VMware ESXi 5.X в среде SAN. Компания NetApp давно тесно сотрудничает с VMware, подтверждением тому может стать тот факт, что нашумевшая технология vVOL была реализована одной из первых ещё в релизе Clustered Data ONTAP 8.2.1 (Август 2014), в то время как vSphere 6.0 ещё даже не был выпущен. Компания NetApp первой объявила поддержку vVol c NFS (Возможно NetApp по-прежнему здесь единственный, не слежу). В связи с чем системы хранения ONTAP крайне популярны в этом окружении.
Эта статья будет полезна владельцам систем хранения с ONTAP, а часть про Disk Alignment будет полезна не только владельцам NetApp`а.


Для поиска узкого места обычно выполняют методику последовательного исключения. Предлагаю перво-наперво начать с СХД. А дальше двигаться СХД -> Сеть (Ethernet / FC) -> Хост ( Windows / Linux / VMware ESXi ) -> Приложение.
Оттюнить vSphere 6
Rating 0
Views1.4K
Comments 6