Как стать автором
Обновить
0

SAN *

Сеть хранения данных

Сначала показывать
Порог рейтинга
Уровень сложности

NetApp AutoSupport On Demand

Время на прочтение3 мин
Количество просмотров6.1K
NetApp AutoSupport On Demand (ранее этот функционал был в виде Remote Support Agent или RSA) — это агент в системах ONTAP, позволяющий в случае обращения к техподдержке, ей самой запускать команды на вашей СХД. Устроено это так: AOD конектиться к облаку NetApp и запрашивает команды на выполнение от техподдержки — всё секьюрно, дыр в файерволе открывать не нужно, соединение всегда происходит только от СХД на сайт support.netapp.com, а не наоборот.

Команды которые запрашивает техподдержка не могут что-то менять на СХД, а только просматривать состояние вольюмов, лунов, контроллеров и т.д. Естественно содержимое вольюмов и лунов не может быть скопировано в облако NetApp. В облако NetApp отправляются только логи системы.

Внутреннее устройство Management подключения в FAS платформах


Каждый контроллер NetApp FAS имеет на борту менеджмент-порт с изображением ключика, который так и называется Wrench port. Не путать с ACP (ключик + замочек).


Поддержка, ты же умная, сделай всё сама!
Всего голосов 11: ↑11 и ↓0+11
Комментарии3

NetApp ONTAP: SnapMirror for SVM

Время на прочтение7 мин
Количество просмотров6.8K
Начиная с версии 8.3.1 в софте (прошивке) Data ONTAP был презентован новый функционал под названием SnapMirror for SVM. SnapMirror for SVM это возможность отреплицировать все данные на СХД и все настройки или только часть данных или настроек на запасную площадку (Disaster Recovery).

Чтобы мочь запустить все ваши сервисы на резервной системе, логично чтобы основная и запасная системы были более-менее одинаковые по производительности. Если же на резервной площадке система слабее, стоит заранее задаться вопросом, какие самые критичные сервисы необходимо будет запустить, а какие остануться не запущены. Можно реплицировать как весь SVM со всеми его вольюмами, так и исключить из реплики часть вольюмов и сетевых интерфейсов (начиная с ONTAP 9).

Существует два режима работы SnapMirror for SVM: Identity Preserve и Identity Discard.

Реплицировать данные
Всего голосов 11: ↑10 и ↓1+9
Комментарии19

SDS от NetApp: ONTAP Select

Время на прочтение6 мин
Количество просмотров7.5K
ONTAP Select это логическое развитие линейки Data ONTAP-v, т.е. Software Defined Storage. Софт ONTAP (Операционную систему или прошивку по-народному, если хотите) можно использовать на специализированной аппаратной плтформе FAS или в виде виртуальной машины: в публичных облаках или на комодити оборудовании.
Два последних варината называют ONTAP for Cloud и ONTAP Select соответственно.

Как и предшественник ONTAP Select, этот продукт, который живёт в виде виртуальной машины и полностью опирается на традиционный RAID контроллер, установленный в вашем сервере. Поддерживаются NAS (CIFS, NFS) и IP SAN (iSCSI) протоколы и отсутствует поддержка FCP. В документах NetApp можно встретить внутренее название ONTAP Select — sDOT, это одно и тоже.

Из ожидаемых новшеств:
  • Поддержка High Avalability
  • Поддержка кластеризации до 4 нод
  • Максимальный полезный объем 400 ТБ (по 100ТБ на ноду в 4х нодовом кластере)

На ряду с High Availability и кластеризацией по-прежнему поддерживаются однонодовые конфигурации.

Читать дальше →
Всего голосов 8: ↑8 и ↓0+8
Комментарии27

NetApp ONTAP c Veeam Backup & Replication

Время на прочтение7 мин
Количество просмотров5.6K
Компания NetApp впервые в мире реализовала и запатентовала технологию снепшотирования в 1993 г. С тех пор технология естественным образом развивалась и отлаживалась. Спустя 23 года можно с полной уверенностью сказать, что снепшотирование NetApp отлично работает, не влияя на производительность, независимо от протокола: блочного или файлового. С приходом Flash технологий ИТ индустрия обратила свой взор на использование снепшотов и тонкого клонирования из-за того, что Flash пока что – дорогая технология, и её ресурсы необходимо экономить. Компания NetApp долгие годы единолично вырабатывала и несла на своих плечах парадигму резервного копирования, построенную на сшепшотах, где снепшоты были не временной необходимостью, а основой всей этой идеи, и наконец-то получила признание того, что это эффективный и правильный подход для резервного копирования и разработки. А с появлением Thing Propositioning и UNMAP снепшоты стало действительно удобно использовать и хранить как резервные копии прямо на основную, продуктивную СХД, что позволяет крайне быстро восстанавливать данные после логической ошибки. А для резервирования и защиты от выхода из строя основной СХД использовать технологии репликации данных, основанные на снепшотах, чтобы реплицировать только изменения, а не полный набор данных.

Забекапить данные
Всего голосов 11: ↑10 и ↓1+9
Комментарии17

Истории

NetApp virtual storage appliance: Data ONTAP-v

Время на прочтение4 мин
Количество просмотров5.9K
Пусть уже давно, но как-то незаметно, прошла новость о том, что Hyper-V а потом и Azure начал поддерживать FreeBSD. Любители старой доброй FreeBSD возрадовались, а многие другие люди могли недоумевать: «зачем?». Именно благодаря усилиям компании NetApp, FreeBSD теперь поддерживается в Hyper-V и Azure. Каким образом NetApp в этом заинтересована? Дело в том, что ОС ONTAP построена на базе FreeBSD. Именно для того, чтобы появились продукты, созданные на базе Data ONTAP-v, такие как Cloud ONTAP и Data ONTAP Edge. Кроме того, компания NetApp является одним из самых больших современных контрибуторов кода для FreeBSD.

Запустить ONTAP у себя на сервере
Всего голосов 9: ↑8 и ↓1+7
Комментарии85

NetApp Converged Infrastructure Storage. Предсказания 2016

Время на прочтение3 мин
Количество просмотров3.1K
По опросам 2015 года, 40% IT профессионалов из 451 опрошенного, планируют увеличить траты на конвергентные инфраструктуры. Это прямой знак того, что в 2016 году этот тренд преобретёт более широкое распространение.


Как и со многими технологиями, путь конвергентных инфраструктур обусловлен необходимостью простоты, скорости и уменьшения цены решения.
Предсказания на 2016г
Всего голосов 9: ↑8 и ↓1+7
Комментарии11

FlexPod Express: UCS-Managed конфигурация

Время на прочтение3 мин
Количество просмотров4.7K
Среди трех предыдущих конфигураций Small/Medium/Large в архитектуре FlexPod Express появилась ещё одна под названием Cisco UCS-Managed. В этой статье пойдёт речь об этой новой конфигурации. FlexPod Express и FlexPod Datacenter деляться на два основных типа подключения: прямое подключение СХД к серверам (между СХД и серверами нет коммутатора) или через коммутатор (между СХД и серверами есть коммутатор), напомню что Fabric Interconnect это не коммутатор, а часть UCS домена серверов.

Стоит отметить несколько важных отличий новой конфигурации от предыдущих трех.
  • Во-первых в архитектуре появились Fabric Interconnect, пускай и в исполнении внутренних устройств, установленных в шасси UCS Mini с блейдами.
  • Во-вторых в архитектуре появилась возможность прямого подключения СХД к Fabric Interconnect, ранее между серверами и СХД обязательно должен был наличествовать коммутатор. При этом коммутатор должен был быть только Nexus (3048/3500/9300).
  • В третьих если у нас конфигурация FlexPod Express Cisco UCS-Managed с прямым подключением, коммутатор для подключения конечных пользователей не обязательно должен быть Nexus. Теперь это может быть любой стандартный свич поддерживающий отказоустойчивость на подобии Multi Chassis Etherchannel. Но если между UCS и FAS нужен свитч, то свич обязан быть Nexus.

Собрать FlexPOD Express самому
Всего голосов 12: ↑12 и ↓0+12
Комментарии2

FlexPod DataCenter: Direct-Attached Storage

Время на прочтение6 мин
Количество просмотров5.3K
В предыдущей статье я рассказал о «не-FlexPod DC» архитектуре, которая может поддерживаться из «одних рук» по программе Cisco «Solution Support for Critical Infrastructure» (SSCI). Основная её особенность состоит в том, что в ней нет коммутаторов серии Nexus, а если их туда добавить, такая архитектура может стать полноценным FlexPod DataCenter.

Здесь пойдёт речь про новый дизайн сети, для FlexPod DataCenter, с прямым включением СХД NetApp в UCS домен. Отличие от стандартной архитектуры FlexPod DataCenter заключается в том, что коммутаторы Nexus расположены не между UCS и NetApp, а «поверх» UCS.
Собрать FlexPOD самому
Всего голосов 10: ↑10 и ↓0+10
Комментарии3

Зачем обновляться до Data ONTAP Cluster Mode?

Время на прочтение6 мин
Количество просмотров5.9K
Как я уже писал в своих предыдущих постах, Data ONTAP v8.3.x это один из наиболее значимых релизов операционной системы для систем хранения NetApp серии FAS.

В этой статье я приведу наиболее значимые, с моей точки зрения, новые функции систем хранения NetApp в самой последней версии Clustered Data ONTAP. По традиции приведу пример на автомобилях: Представьте у вас есть Тесла автомобиль, вы обновили прошивку и получили автопилот с автопаркингом бесплатно, хотя его там раньше не было. Правда приятно? Так вот самыми главными аргументами обновить вашу систему до Cluster-Mode является сохранение инвестиций и возможность получить самый современный функционал на старом железе:

  • Онлайн детекция (дедупликация) нулей на ходу, что может быть очень полезно в случае БД и провиженинга виртуальных машин.
  • Онлайн дедупликация для FlashPool (и AFF) систем, что позволит продлить срок службы SSD дисков. Функция доступна начиная с 8.3.2.
  • Если обновиться до VMWare vSphere 6, у вас будет поддержка vVOL как с NAS так и SAN
  • QoS — установка максимального порога операций ввода-вывода или Мб/с на файлы, луны, вальюмы и SVM.
  • Поддержка NFS4.1, которая также присутствует у VMware vSphere 6
  • Поддержка pNFS которая позволяет распаралеливать NFS и переключаться между путями от клиента к файловой шаре без её перемонтирования, поддерживается с RHEL 6.4 и выше.
  • Поддержка SMB (CIFS) 3.0 который работает с клиентами начиная с Win 8 и Win 2012

Обновиться до Cluster Mode!
Всего голосов 13: ↑9 и ↓4+5
Комментарии31

Data ONTAP 8.3 ADP: Root-Data Partitioning

Время на прочтение7 мин
Количество просмотров9.3K
ОС Data ONTAP 8.3 cDOT это один из наибольших релизов NetApp. Одной из ключевых особенностей релиза является технология Advanced Drive Partitioning (ADP). Более подробно о том что нового в cDOT 8.3 здесь.

Технология ADP имеет два основных применения:
  • Root-Data Partitioning
  • FlashPool Partitioning (Storage Pools)

В этой статье речь пойдёт про Root-Data Partitioning.

Форматировать СХД
Всего голосов 11: ↑11 и ↓0+11
Комментарии18

non-FlexPod DC: Direct-Attached Storage, Поддержка «из одних рук»

Время на прочтение3 мин
Количество просмотров7.2K
В одной из своих статей я рассказал что такое архитектура FlexPod DC и из чего она состоит, к физическим компонентам FlexPod DC относятся: СХД NetApp серии FAS, сервера Cisco UCS и Nexus свичи. Существует большое разнообразие поддерживаемых дизайнов FlexPod DC состоящего из этих трех основных компонент. Для того чтобы воспользоваться кооперативной поддержкой из «одних рук» необходимо наличие соответствующего сервиса поддержки для всех этих компонент.

Что если сервисы Cisco SnartNet и NetApp Support Edge у вас есть, а в архитектуре отсутствуют Nexus свичи, при этом СХД напрямую включена в UCS Fabric Interconnect?

Это и есть «не-FlexPod DC» архитектура о которой пойдёт речь, она тоже может поддерживаться из «одних рук» по программе Cisco «Solution Support for Critical Infrastructure» (SSCI).


Общий дизайн SAN сети с прямым включением
Сделать ЦОД своими рукам
Всего голосов 9: ↑8 и ↓1+7
Комментарии4

Кластеризация СХД NetApp используя подручные свичи

Время на прочтение9 мин
Количество просмотров9.5K
Кластеризация систем хранения данных сейчас набирает оборотов, особенно в свете бурно развивающихся Flash технологий, которые требуют наличия большего количества контроллеров способных обрабатывать выскокопроизводительные накопители. Кроме поддерживаемых кластерных свичей есть множетсво других, которые временно можно исспользовать для этих целей. В этой статье я хотел бы привести пример настройки нескольких свичей, которые мною протестированны для кластерной сети. Многие другие свичи, уверен, тоже будут работать, ведь это обычный Ethernet


Схема подключения свичей для Cluster Interconnect

Когда у вас есть на руках (хотябы временно) больше двух контроллеров FAS, кластерный свич может понадобится, в случае:
Настроить кластерный свич
Всего голосов 11: ↑10 и ↓1+9
Комментарии11

Вывод систем хранения данных NetApp из кластера

Время на прочтение2 мин
Количество просмотров4.2K
Добавление в кластер системы хранения NetApp FAS происходит очень просто:
Подключаются порты кластерного интерконнекта в свич и выполняется команда:
cluster setup


А как вывести ноду из кластера?
Читать дальше →
Всего голосов 10: ↑9 и ↓1+8
Комментарии4

Ближайшие события

Зонинг для кластерного хранилища в картинках

Время на прочтение3 мин
Количество просмотров12K
Системы хранения NetApp FAS могут объединяться в кластер до 8 нод для предоставления доступа в SAN сетях и до 24 нод для Ethernet сетей. Давайте рассмотрим пример настройки зонирования и схему подключения для таких кластерных систем.

Общая схема подключения для SAN и NAS.
Читать дальше →
Рейтинг0
Комментарии9

Импортозамещение Часть 2. Huawei OceanStor Family

Время на прочтение6 мин
Количество просмотров31K
На сегодняшний день на рынке дисковых массивов от компании Hauwei существует легкая неразбериха. Связано это с тем, что за неполный год Huawei анонсировал целых 2 новых поколения СХД, оставляя при этом на рынке ряд решений из предыдущих линеек. При этом разница между поколениями достаточно значима.

Поэтому, я решил рассказать о текущих предложениях компании Huawei для прояснения данного вопроса.
Читать дальше →
Всего голосов 7: ↑7 и ↓0+7
Комментарии10

Оценка влияния уровней Сache на производительность ввода/вывода в EMC VNX5400

Время на прочтение10 мин
Количество просмотров5.5K

Введение


После тестирования и написания статьи о влиянии механизмов кэширования на производительность в младшей модели (entry level) СХД EMC VNXe3200, периодически начали чесаться руки проделать то же самое с ее старшими собратьями массивами VNX2. Недавно такая возможность представилась. Удалось прогонять тесты на VNX5400. Кроме того, помимо тестирования непосредственно VNX5400, получилось потестировать еще и решение EMC ExtremCache (PCI-E SSD карточка EMC XtremSF700 на eMLC чипах + софт EMC XtremSW). Но про EMC ExtremCache будет следующая статья. Пока же поговорим про массивы VNX2.
Добро пожаловать под кат
Всего голосов 3: ↑3 и ↓0+3
Комментарии2

Настройка виртуальной инфраструктуры: оптимизация кластера VDI

Время на прочтение8 мин
Количество просмотров16K
Ну как оптимизация. Креативные усилия по выравниванию кренящейся и шатающейся инфраструктуры, которую изо всех сил пытались удержать способом «ничего не трогайте, всё может поломаться». Опасная фраза, быстро превращающаяся в жизненную философию ИТ специалиста, остановившегося в развитии. Источник «ошаманивания» ИТ.

Полгода прошло с тех пор, как самый ответственный за виртуальную инфраструктуру человек уволился и оставил мне всё хозяйство и эксплуатационную документацию в виде списка служебных учёток. За это время был проведён ряд работ по укреплению фундамента, повышению надёжности и даже комфортности конструкции. Ключевыми моментами хочу поделиться.



Итак, дано:
Инфраструктура виртуализации VMware Enterprise Plus. Включает продуктив, тестовую зону и VDI. Последний реализован на базе продукта fujitsu Pano Logic, который уже 2 года как не обновляется и, судя по всему, не поддерживается.
Основной модернизируемый кластер — VDI, как самый объёмный критичный сервис и самый плотный по утилизации ресурсов. Реализован на базе полных клонов, ибо связанные клоны pano manager сам по себе не понимает, а покупать ещё и View бизнес не хочет.

В качестве СХД используется набор массивов EMC — несколько CX4-240 и пара VNX. А также есть такой изыск как IBM SVC. Используется для консолидации и виртуализации хранения (то есть lun монтируются со стораджей на SVC, там объединяются в пулы, а на этих пулах уже создаются новые LUN, отдаваемые серверам). Все хранилища подключены по FC SAN.
Читать дальше →
Всего голосов 8: ↑8 и ↓0+8
Комментарии7

Небольшая оценка влияния уровней Сache на производительность ввода/вывода в EMC VNXe3200

Время на прочтение5 мин
Количество просмотров4.9K

Введение


Недавно и не надолго ко мне в руки попала система хранения данных (СХД) VNXe3200, которая была анонсирована компанией EMC2 для заказчиков 5 мая 2014 года. VNXe3200 — это второе поколение entry-level Unified СХД компании EMC2. В данной модели появились технологии доступные ранее только на более старших и более дорогих midrange массивах. В частности технология FastCachе — т.е. кэш второго уровня на SSD дисках, который встает в разрез между традиционным кэшем в оперативной памяти контроллера СХД (в терминологии EMC — Storage Processor) и собственно дисками. Я решил проверить, как данная технология влияет на производительность ввода/вывода на самых младших СХД компании EMC2.
Подробности под катом
Всего голосов 4: ↑3 и ↓1+2
Комментарии0

По поводу появления 8 и 10Тб жёстких дисков

Время на прочтение3 мин
Количество просмотров57K
Новость: начались поставки 8Тб жёстких дисков, анонсированы 10Тб жёсткие диски с «черепичной» системой записи (shingled magnetic recording), которая обещает увеличение объёмов путём снижения скорости случайного доступа (подробности).

Комментарий


SSD почти полностью сожрали всё в диапазоне десятков/сотен гигабайт. HDD используется только как сверхдешёвая заглушка, и я не понимаю, почему ни один ушлый китаец не догадался сделать SD-кардридер с mSATA-интерфейсом. Для low-end'а (лишь бы загрузиться) этого хватит за глаза и за уши, а стоить будет дешевле. Если же человеку это «медленно», то очевидно, что SSD его спасёт. По мере продвижения за 300-400Гб картинка становится экономически непривлекательной для многих сегментов (1Tb стоит €50 за HDD против €350 за самую дешёвую SSD). Но все понимают, что выход на бюджетный терабайт для SSD — вопрос времени. Хотя потребности в месте растут (игры/кино всё больших разрешений), в то же самое время область потребностей сокращается (зачем качать, когда можно смотреть в онлайне), то есть десктопный рынок можно считать потерянным.

Но, кроме него есть и другие рынки.

HDD, кроме low-end'а, продолжают жить:
  1. Из-за совершенно сумашедшего парка серверов, которые живут много больше, чем диски. Диски надо менять.
  2. Из-за гигантских объёмов за разумные деньги
  3. Из-за лучшей производительности на устоявшуюся линейную запись.

Вот последний фактор определяет уникальную нишу для HDD — они лучше подходят для линейной записи. У SSD с этим много хуже — если на SSD постоянно писать большими блоками, то housekeeep'инг перестаёт справляться (особенно, если запись циклическая внутри файла, типа серверов видеонаблюдения), кеш забивается, и SSD деградирует до уровня WD Green'ов или даже хуже. При этом стоят они дороже, износ на запись у них множится на write amplification (когда диск забит данными, SSD приходится перемещать несколько блоков, чтобы записать один), чем дешевле SSD, тем у неё обычно хуже ресурс (а в отличие от бытового «ой, моя SSD'ка изнашивается» потенциальный износ SSD на сервере видеонаблюдения — вполне объективный вопрос).
Читать дальше →
Всего голосов 98: ↑75 и ↓23+52
Комментарии124

NetApp SnapManager for Oracle & SAN сеть

Время на прочтение10 мин
Количество просмотров6.4K
SnapManager — это набор утилит компании NetApp позволяющих автоматизировать процессы снятия так называемых Application-Consistent Backup (ACB) и Crash-Consistent Snapshots (CCS) без остановки приложений, средствами СХД NetApp FAS серии, их архивации, резервного копирования, тестирования копий и архивов, клонирования, примапливания склонированных данных к другим хостам, восстановления и др. функциями через GUI интерфейс одним только лишь оператором приложения без привлечения специалистов по серверам, сети и СХД.


SnapManager for Oracle on Windows, Cloning Operation

Зачем вообще бэкапировать данные при помощи снапшотов и тем более средствами СХД? Дело в том, что большинство современных способов бэкапирования информации подразумевают длительность процесса, ресурсоёмкость: нагрузка на хост, загрузка каналов, занимание пространства и как следствие к деградации сервисов. Тоже касается и клонирования больших объемов информации для Dev/Test подразделений, увеличивая «временной разрыв» между актуальными данными и резервируемыми, это повышает вероятность того, что бэкап может оказаться «не восстановим». С применением «аппаратных» снапшотов компании NetApp, не влияющих на производительность и занимающий не положенные 100% резервной копии, а только лишь «разницу» (своего рода инкрементального бэкапа или лучше сказать обратного инкрементального бэкапа, на снятие и сборку которого не нужно тратить время), а также возможность передачи данных для резервирования и архивирования в виде снапшотов, позволяя более элегантно решать современные высокие требования бизнеса для подобных задач, уменьшая время передачи информации и нагрузку на хосты.
Читать дальше →
Всего голосов 2: ↑2 и ↓0+2
Комментарии5