Pull to refresh

Comments 21

(андрюх, привет!) а как подмонтировали флешку? nexenta дает примаунтить через интерфейс?
Немного не понял вопроса, но nexenta встала на флэшку. А танцы с бубном через командную строку.
Главный вопрос, почему не встроенный функционал ws2012? scale-out file server + asynchronous cluster? зачем отдавать 2 сервера под sql? глупо ведь. кто вам сказал что рейд 5 — быстр?
Асинхронный кластер фактически убирает точку отказа из системы (разве только свитч, но поставьте 2 и все).
RAID 5 на SAS — быстро и безопасно.
2 сервера под SQL — для распределения нагрузки на чтение, автоматического фэйловера и потери максимум одной транзакции? Глупо? Возможно.
А вы про асинхронный кластер, про Hyper-V или MSSQL, если про Hyper-V? То каким образом он убирает точку отказа?
RAID 5 на SAS — быстро и безопасно.

Не на трёхтерабайтных монстрах, максимально рекомендуемый объем составляет 600 Гб. Для больших дисков надо использовать RAID6/10/DP/DDP.
Полностью поддерживаю. У нас 300 Гб.
Меня сбил с толку скриншот Nexenta, на котором ST33000650NS.
А вот про SoFS я честно не совсем понял, куда вы его собираетесь вставлять? Поднимать его на кластерном диске который уже используется? Добавлять еще одну службу прослойкой?
Стандартная реализация подразумевает JBOD, подключенный к двум нодам SoFS:

image
Я в курсе. А так как возможности поставить туда JBOD нет — такой услуги у хостера нет, а везти свой в Германию не целесообразно, то мы и используем Nexenta. И подцепляем CSV по iSCSI. Поэтому мне было непонятно, как предалагает использовать уважаемый 4c74356b41
встроенный функционал ws2012
.
Вопрос про SQL Вы не совсем поняли, почему Вы сделали это на физических серверах, а не на виртуальных?
Про функционал ws2012… картинка не вставляется habrastorage.org/storage2/488/00b/813/48800b8135b558718170a62683297517.jpg
Это разве не sofs?
Про кластер, я не вполне пойму где точка отказа если все дублированно, 2 хоста 2 для виртуальных машин и 2 для сторейджа?
По картинке.
Кластеризуется только доступ по SMB.
В нашем случае мы можем через SoFS опубликовать папку c нашего CSV.
Он подключен к кластеру по iSCSI. Такое тоже может быть, на вашей картинке внизу этот случай тоже имеется или как проиллюстрировал navion — JBOD, но смысла в этом особого нет. Так как, этот диск и так подцеплен к каждой ноде.

Почему SQL на физических серверах?
А вы пробовали размещать базу размером порядка 40Гб, к которой идет порядка 3000 запросов в секунду в виртуальной машине? Проект неплохо нагружен.
Как скорость работы?
Если размещать подобную базу в виртуальной машине, то нужно ооочень быстрое хранилище.
Конечно, как вариант, создать на той же nexenta еще один LUN и разместить базу в нем, а к серверу подцеплять по iSCSI, но скорость, все равно, будет в разы меньше, чем на SAS дисках.

Точка отказа — это SAN, nexenta. Она является единственным «строайджем». Именно поэтому в системе предусмотрено резервирование виртуальных машин репликацией.
Нет-нет-нет. по картинке в кластере 2 сервера файловые, а остальные к ним обращаются.
касательно нагрузки на sql — у меня около нуля идей, я не специалист по базам данных, но «guest clustering» (в вашем случае «always on») мне кажется удобнее всегда чем 2 реальных сервера.
И соответственно я вел речь про свою картинку. те 2 файловых сервера и несколько хостов hyper-v. нет единой точки отказа.
А каким образом 2 файловых сервера будут иметь общее хранилище? Вы не совсем понимаете картинку? Это чисто теоретические умозаключения по картинке?
это тн file based (smb 3.0) storage для hyper-v
Путаете своими комментариями людей. Без JBOD он бесполезен.
А почему в качестве кластерного хранилища не использовали тот же Windows Server 2012? Сейчас даже не обязательно редакцию DataCenter иметь, iSCSI на всех прекрасно работает.
Честно говоря, рассматривали данную возможность.
Но, честно говоря, смутила реализация: VHD файл, даже не VHDX — лежит на жестком диске и отдается службой, это первое. Второе — скорость получалась меньше.
Второе — скорость получалась меньше.

Сильно? Сеть, я так понимаю, 1G, и диски обычные на обычном контроллере?

Я прямых сравнений не проводил, если честно. Когда-то давно сравнивал со StarVind-ом под той-же виндой, в конечном счете вышел паритет, но при сети в 1G, производительность дисковой подсистемы не очень-то важна. Сейчас у меня есть парочка программных SAN-ов на основе Windows Server 2012, но там 24 SAS диска по 15K оборотов в 10-х RAID-ах на контроллерах с кучей памяти и по 2 10G оптических интерфейса. Вот на них бы получилось сравнение более правдоподобное. Но они пока в продакшене.

P.S. Хотя я конечно сторонник «аппаратных» решений, да и FC как-то роднее iSCSI, хоть и гораздо более специфичен и капризен.
Да, в принципе, не сильно. Сеть — да 1G. Больше смутила реализация в WIndows.
И как поживают такие SAN?
На момент реализации Windows 2012 только появилась — не решился в продакшене эксперементировать.
Недавно Nexenta поставил на самосборный SAN с Enterprise HDD, SSD и большим количеством памяти — весьма не плохо, если учитывать некоторые моменты.
P.S. «Аппаратные» решения тоже больше нравятся, но стоимость, порой не оправдана для некоторых задач.
И как поживают такие SAN?

Да прекрасно поживают. Захожу на них ОЧЕНЬ редко. С момента внедрения, около 9 месяцев, раза три заходил LUNку создать и все. Кормят эти штуки данными два кластера по 4-ноды, один на Hyper-V второй на VMWare. Пяток SQL-ей, серверов 1С, и еще около сотни виртуалок от контроллеров домена, до фермы SP и SCCM. Производительности всем хватает, правда кое где есть затыки, но только там, где iSCSI 1G.
Sign up to leave a comment.

Articles

Change theme settings