Pull to refresh

Comments 20

Очень интересует скорость работы ОС в подобной конфигурации. У вас есть опыт «боевого» использования подобного решения?
Скорость работы ОС зависит от скорости подключения к локальной сети. На практике запускал ноутбук через Ethernet 100 Мбит/сек. Система и программы запускаются чуть медленней, но задержки в несколько секунд по моему не критичны. К тому же, загруженные в оперативку программы работают без задержек, если не производят интенсивный обмен с дисковым устройством.

Локальная сеть нагружается в основном в момент загрузки ОС, запуска программ и при выполнении операций чтении/записи объемных файлов. При бездействии системы (на которое обычно приходится 90% времени работы компьютера) локальная сеть не загружена. К тому же обмен данных с диском кэшируется в оперативной памяти компьютера.
Скорость работы ОС зависит от скорости подключения к локальной сети.

Не только от этого, но и от количества IOPS ISCSI-устройства. Если у вас будет линк 10Гбит, но всего ~50 IOPS на таргете, ОС будет еле ворочаться.
А что будет если допустим нужно переустановить драйвер сетевухи? Или поменять IP компьютера? Насколько это реально в такой конфигурации?
На бездисковом ПК драйвер сетевой карты менять не приходилось. Но предполагаю, что система на короткое время отключит имеющийся драйвер и подключит новый. Кратковременное отключения от локальной сети не вешает систему. ОС какое то время ждет ответа от дискового устройства, и потом по тайм-ауту «ловит» ошибку. На практике выдергивание Ethernet-кабеля на 30 секунд не приводила к ошибкам.
Проверял так, запускал Word 2010, в момент запуска программы выдергивал сетевой кабель, загрузка останавливалась с выводом заставки ворда, а через пол минуты снова втыкал сетевой кабель, и Word дальше запускался и работал.

Не вижу смысла менять IP-адрес на компьютере. Для этого в DHCP сервере можно привязать по MAC-адресу нужный IP, либо добавлять на сетевую карту второй IP-адрес.
Допустим.
Гигабитные свичи уже не редкость, скорость работы будет сравнима со скоростью фрагментированного старого жесткого.
А на «сервере» можно настроить умное кеширование — чтобы запись происходила сначала в память сервера, а уж потом на диск сервера. А система на клиента думала что данные уже на диске?
В самой программе StarWind Virtual SAN уже предусмотрено кэширование iSCSI устройств. В процессе создания дискового устройства в StarWind Management Console задается объем и параметры кэширования (режим синхронной либо асинхронный записи данных).
По умолчанию объем кэша составляет 128 Мб на каждое дисковое устройство.
Расскажу свой опыт, я тоже писал статью по данной теме и через некоторое время отказался от данной задумки, купив самые дешевые hdd. Более менее нормально работает только если vsd шки лежат на ssd диске, все остальное просто мучительно медленно(я клал на 10raid из 4 дисков), сразу это не заметно, когда только один клиент кажется что приемлемо.
Кстати, мне ваш пост очень помог при изучении данной темы. И да, такое решение естественно не подойдет для установки на 100500 компов, где все преимущества от экономии на дисках сведутся на нет. Для этого лучше настроить тонкие клиенты для подключения к терминальному серверу.
В свете новых «интерфейсов» офисных программ, где всё круглое и глянцевое — терминальное решение уже не обеспечивает той скорости работы как в 1с 7.7, скроллинг экрана в браузуре или другом софте вызывает дикие лаги.
Ну это если мы принимаем во внимание комфорт пользователя. Если же «работай или увольняйся» — тогда да, на терминальные клиенты можно ставить всё что включается.

Я же склоняюсь в сторону «многоголовых» (multihead) решений.
У меня более-менее нормально в терминальном режиме работал даже новый ДубльГИС, а уж видео на фоне вообще без всяких вопросов и тормозов, причем терминалом выступала железка на rk3188, а соединение с терминальным сервером происходило через Интернет. Даже видео записал специально.
А вы настраивали кэширование iSCSI устройств в оперативной памяти сервера? Это должно ускорить обмен данных с удаленным диском.
Raid10 рейду10 рознь. Если у рейда отключен кэш на запись, у него может быть все очень плохо с IOPs.
А изыскания чисто академические или есть опыт боевого использования такой конфигурации?
Как ведет себя такое решение в парке из 10 и более машин?
Более чем на 2 машинах проверить пока не могу. Но если у вас есть возможность проверить на большем количестве машин то пишите результаты своих тестов, мне то же интересно узнать.
Использую iSCSI для работы компьютеров, находящихся на борту авиатренажера, о котором я писал.
В качестве iSCSI target у меня выступает NAS DS812+, подключенный двумя агрегированными 1Gb/s линками к свичу, от свича гигабитные линки уходят уже на компьютеры.
На NAS, свиче, компьютерах разрешен Jumbo frame. Скорость копирования с/на iSCSI диск колеблется около 100Мбайт/с.
Из особенностей — я долго пытался установить винду прямо на iSCSI диск, потом плюнул, воткнул диск, установил на него, и дальше сделал dd с этого винчестера прямо на iSCSI диск. Помню, что была какая-то возня с драйверами iSCSI, но подробностей я не помню, да и решилось это быстро.
Всего компьютеров — 6, соответственно я просто скопировал 6 раз один и тот же образ на соответствующие таргеты.
Другая особенность — если винда грузится с iSCSI, то она ставит default GW на машину с iSCSI, а у меня этим занимаются разные хосты, соответственно после загрузки запускается скрипт, который меняет маршрут на нужный.
В остальном — все, как в статье.
Неприятностей с производительностью не замечено, ну т.е. для моих задач хватает.
Забавным побочным эффектом оказалось то, что почти у всего лицензионного софта, который мы используем, на всех 6 машинах Hardware ID совпадает. А вот сама винда сразу понимала, что она на другой машине и требовала ре-активации.
Как перенисти установленный Windows в вирт. диск? Или .wim образ Acronis c установленным Win?
Может есть какие-то решения, без полной переустановки.
Спасибо, хотел заплюсовать, да кармы нет.
Sign up to leave a comment.

Articles