Как стать автором
Обновить

Комментарии 35

Получается, что для каждого пользователя необходимо создавать свой диск? Поддерживается ли клонирование iSCSI дисков (таргетов)?
Можно скопировать диск и присвоить ему новый таргет. Это не проблема.
Меня вот больше интересует то — как будет себя вести сеть, когда все будут активно работать с диском.
Аплинки на сервере не выдержат, да и если там не будет быстрого рейда — потери производительности будут довольно сильными.
Для галочки это наверное интересно попробовать, но все же в продакшен удобнее использовать тонкого клиента. имхо.
Для iSCSI обычно строится отдельная сеть. То есть в клиенте должно быть две сетевые платы — одна для работы файловой системы, другая для сетевых функций.
Это понятно… А сколько должно быть сетевых у сервера и какой пропускной способностью они должны обладать :)
В общем всякое решение под свои нужды — iSCSI наверное будет неплох для решения, где сотрудники работают с базовыми программами + интернет. Где нет нагрузки на диск…
сетевая должна быть 10g
Вот именно. и свичи уже явно не dlink — выгода в 2500 с рабочего места как-то меркнет
Конечно меркнет. Это решение подходит для средних организаций для организации корпоративного облака. Но в такой реализации конечно это не очень удобно. Тонкие клиенты гораздо интереснее.

Вообще говоря, еще интереснее тонкий клиент подключаемый к VPS на сервере. На современном сервере с двумя 6-8 ядерными процессорами E5 и HT и массивом из SAS дисков и памятью в 64-128Гб ОЗУ (средняя цена выйдет в районе 200тыс руб) можно запустить 32 VPS — то есть клиентские машины — по два виртуальный ядра и 4Гб ОЗУ. С быстрыми дисками производительность будет не хуже стандартной машины в офис клиентское место обойдется в 15тыс руб где-то.

А преимуществ масса. И подключение с любой точки мира и резервное копирование и выделение доп ресурсов по надобности.

Одним словом некий RDP но с четким разграничением ресурсов.
2 ядра и 4 гига — это уж очень крутые офисные машинки… Обычно одного ядра и гига оперативки хватает для базовых сотрудников.
Конечно, смотря какие цели просто.

Ну и осталось пустить в массы технологию по которой изображение на монитор в «родном» качестве будет попадать. Тогда и дизайнеры смогут обходится такими технологиями.
Дизайнеры уже могут работать в виртуальных рабочих станциях. RemoteFX это уже позволяет. На сервер ставятся видеокарты типа Quadro и в путь.
Профессионалы да. Я имею ввиду всяческих веб-мастеров, начальников, менеджеров, маркетологов которым нужно смотреть видео, правильно видеть отображение цветов, которым нужно качество рабочего места выше среднего. Что-то типа серверной видеокарты с интерфейсом 10g который может раздавать реально изображение прямо на монитор.
> некий RDP но с четким разграничением ресурсов
VDI. И коэффициент количество клиентов на сервер куда выше может быть. И пользователи получают полноценные рабочие места, если использовать PCoIP или RDP с RemoteFX.

Правда в идеале нужно городить СХД и как минимум пару серверов, так что решение получается очень не бюджетным, но плюсы в некоторых случаях перевешивают.
Да не плохое решение. СХД нужно при больших объемах, а так вполне можно обойтись и без него. 8 дисков SAS в RAID10 потянут очень много. А для работы обычно больше 20-30Гб не нужно.
Теоретически вы можете использовать один target для сколько угодно initiator'ов, главное пропишите их IQN'ы в соотв. разделе таргета, всё равно что если бы было возможно подключить один HDD к N'ому количеству ПК одновременно. Однако если мы говорим об установленной на этот ISCSI диск операционной системе, понятно, что сразу N инициаторов не смогут загрузить ОС и работать правильно. Для экономии места можно использовать Difference VHD, тогда будет скажем один GOLD образ ОС, который будет честно занимать, скажем, 20 ГБ, а все остальные Difference VHD (которые будет занимать ровно столько на сколько они отличаются от GOLD образа), т.е туда будут записываться только отличия от GOLD образа.
Вопрос про клонирование не совсем понял. ISCSI диск на хостовой машине представляет собой обычный файл с расширением VHD, копируете его и вот вам клон.
Сейчас работаю на программе CCBoot, в сети, организованной подобным образом, есть информация о том, можно ли подобное сотворить в вышеуказанной программе? Если нет, возможны ли альтернативы какие-нибудь ей?
Ещё очень интересует какой-нибудь менеджер этих Difference VHD.
На сколько я понимаю CCBoot тот-же самый iSCSI таргет, просто в другой оболочке, и платный (Зато работает на не серверной ОС).
Менеджер VHD? А какие именно задачи должен решать этот менеджер?
Меня больше всего интересует способ работы с помощью 1 Gold-образа и diffами для каждой машины. Собственно менеджер толком не нужен, но нужно прозрачное управление этими diffам и голд образом, очистка\удаление например диффов для нужных машин, а также обновление голд образа при необходимости методом слияния одного из дифов в голд например, чтобы не нужно было заново ставить систему и делать образ с нуля.
Как то так. Буду очень признателен за предоставленное решение данной задачи, с использованием упомянутого в статье софта.
Спасибо)
Удалить какой-то dVHD проблем не вызывает, укаляете как обычный файл а к таргету подключаете какой-то другой dVHD или просто VHD. А вопрос про слияния одного из дифов в голд — самому было бы интересно такое. Первая ссылку гугла привела сюда
Т.е. функционал с dVHD для каждой машины встроен в эту прогу изначально? Не обязательно для каждой машины хранить полный образ?
Если вы говорите про Microsoft iSCSI Target то сама программа не умеет создавать разностные диски но умеет с ними работать. Я создавал разностные диски с помошью vb скрипта который нашел на просторах интернета. Если в таком варианте то да, хранить образ для каждой машины НЕ надо. Нужен голд образ и разностный vhd для каждого клиента.
Не подкините ссылку на статью о разностных и gold vhd образах?
Я не вижу преимуществ такого способа перед грамотно настроенными рабочими станциями с автоматической заливкой образов ос по сети, даже не говорю про SCCM. А вот недостатков полно: нужно хорошее сетевое оборудование, мощные сервера и т.д.

В общем, если исходить из любви к искусству, то идея неплохая. Однако, если говорить о реальном применении, то сразу возникает вопрос: «Но зачем?»

Для начала для реализации подобного решения ничего дополнительного покупать не придется. Сколько стоит sccm? Тысяч 40 рублей?.. Хорошее сетевое оборудование и мошьный сервер это миф. Да если у вас парк из 50+ пк то возможно вам эта технология не интересна даже. Но на меньшее хватит и обычного гигабитного свича и гигабитных сетевух. И все это без труда обслужит один ssd диск, правда его размера не хватит)
>Для начала для реализации подобного решения ничего дополнительного покупать не придется.

Придется. Такая система является SPOF, значит нужна дополнительная надежность от N+1 ==> в любом случае 2 сервера.

>Сколько стоит sccm? Тысяч 40 рублей?..

Я говорил преимущества перед автоматической заливку образов по сети, SCCM только упомянул. Если рабочие станции используются в качестве клиентов сервера терминалов, то образ будет стандартный и несложный.

>Хорошее сетевое оборудование и мошьный сервер это миф.
Если не мощный, то хотя бы надежный. Не наколеночный. Тоже денег стоит.

>Да если у вас парк из 50+ пк то возможно вам эта технология не интересна даже. Но на меньшее хватит и обычного гигабитного свича и гигабитных сетевух.

Давайте посчитаем. Скорость среднего не-SSD диска возьмем в 100МБ/сек на последовательные чтение и запись. Причем этот диск в монопольном распоряжении рабочей станции, подключен по SATA, следовательно задержки очень малы. Теперь прикинем, на сколько нам хватит 1 гигабитного свитча. Т.к. сервер подключается по гигабитному порту, имеем 1 гигабит на всех. Возможно, этого хватит на 10 машин. Но учтем еще и задержки и прочую сетвевую активность, а также то, что обычный свитч неуправляемый и не обеспечивает приоретизацию трафика, и получим что даже на 10 машинах в некоторых случаях будет тормозить.

А если машин больше 10? Не верю я в общем про «обычный гигабитный свитч».

>И все это без труда обслужит один ssd диск, правда его размера не хватит)

А потом он сломается и привет.

Итого, какие есть реальные преимущества перед заливкой образов по сети?
На счет загруженности сети, никто не мешает в сервер поставить хоть 5 сетевух, каждая из которых будет обслуживать по 10 клиентов. Пиковая загрузка сети происходит только во время загрузки ОС, дальше загрузки незначительный или очень кратковременные. Хочу сказать что даже 100 мегабитной сети вполне хватает для комфортной работы по такой технологии, лично сам сидел на таком ТК около месяца. Опять же подчеркиваю что основная работа происходит всё равно через RDP.

Лично в моём случае указанная вами надежность N+1 мне не нужна. Важную информацию у меня никто не хранит на тонких клиентах, все на сервере. И даже если вылетит диск с VHD'шками, востановить копии из бекапа на другой диск и перепрописать таргеты займет не больше часа.

Я не совсем понимаю что вы имеете ввиду про заливку образов по сети. Вы имеете ввиду роль
windows deployment services? Так там ведь без HDD никак
>Лично в моём случае указанная вами надежность N+1 мне не нужна. Важную информацию у меня никто не хранит на тонких клиентах, все на сервере. И даже если вылетит диск с VHD'шками, востановить копии из бекапа на другой диск и перепрописать таргеты займет не больше часа.

Надежность в данном случае нужна для доступности, а не для сохранности данных. А то помрет сервер, и вся контора будет стоять пока новый не поставите. N+1 нужна обязательно.

>Я не совсем понимаю что вы имеете ввиду про заливку образов по сети. Вы имеете ввиду роль
windows deployment services? Так там ведь без HDD никак

Ну так и поставить маленькие диски. Если посчитать стоимость второго сервера для надежности, то получится так же или даже дешевле.
Обычный гигабитный свитч вполне потянет. Даже виртуальные инфраструктуры, в которых серверы загружаются по iSCSI и работают по 1Гбит существуют и отлично работают. Потому что пропускная способность не является ограничителем.
Другой вопрос, что по IOPSам требования для десяти машин будут куда больше чем у одной.
Все это я пишу с уклоном на то что роль клиентского пк загрузить ос, почта, серфинг интернета и тд. А остальная работа происходит в терминале.
Решение необычное :) Обычно если уж терминалы — так бездисковая загрузка сразу в терминальный клиент, и тогда экономия становится ещё выше. Если же в вашем случае сделать следующий шаг и загружать ОС в виртуальной машине, то получится решение VMware View =)
На счет еще большей экономии с трудом соглашусь. Я купил себе какой-то китайский no-name Multi-User Thin station TS6600, обошелся он мне в районе 55 долларов(доставка была бесплатная), я думаю это одно из самый дешевых устройств на рынке, у него Windows CE. Мало того что он притормаживает в терминале(допустим если включить видео с ютуба в терминале), так он еще больше 24 бит не поддерживает. Да и Windows CE для обычного пользователя выглядит страшным и непривычным. Опять-же к этой штуке нельзя подключить DVD-ROM(разве что USB), а лично у нас люди постоянно смотрят диски 1С ИТС.
А Эти компы я собирал сам, первая версия мне обошлась ~161 долларов. Вторая версия на новом Atom D2700 ~175 долларов.
~60 баксов мать
~50 баксов Корпус
~12 баксов память
~39 баксов Windows 7 Starter (Кстати никто не мешает купить Pro и загнать в домен)
+ Опционально DVD ~ 25 баксов
Если будет интересно могу сделать фотки как получилось.

Вобщем, аналогичный по функционалу ТК на рынке не найти, на мой взгляд. А более менее именитые бренды типа Acer,Asus,HP будет стоить столько-же, как и мой самосбор, но будут хуже по функционалу.
Ну знаете ли :) Видео в терминале… Разбаловались совсем :) Их обычно для того и ставят, чтобы соблазн смотреть видео отсутствовал. А WinCE пользователю и видеть не надо — включил и сразу в терминальную сессию, без промежуточных вариантов.

По поводу компьютеров — на базе мини-itx мы обычно и собираем для такой цели, можно и дешевле (винда в качестве терминального клиента не нужна особо).

Вообще терминальные решения обычно лишь сулят дешевизну, но подходить к ним с точки зрения «съэкономить на железе» лучше не стоит, главное это управляемость и унификация.
> Вообще терминальные решения обычно лишь сулят дешевизну, но подходить к ним с точки зрения «съэкономить на железе» лучше не стоит, главное это управляемость и унификация.

Полностью соглашаюсь. Экономия на спичках вообще до добра не доводит.
Хорошо, а в интернет зайти пользователям в таком случае как, если сразу RDP идет, а на сервере интернет запрещен для юзеров.
Разрешить на сервере? :)
Наверняка в комментах есть знающие люди, которые смогут ответить на вопрос, не дающий мне покоя уже несколько лет:

Можно ли писать диски на SATA DVD-RW, подключенный к linux-хосту, с ноутбука на Windows XP (непринципиально), подключенного через Wi-Fi? Софт стандартный, интересует именно запись DVD посредством iSCSI.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.