Pull to refresh

Comments 52

Если ничего не получается — прочти наконец инструкцию!

Народная российская мудрость.
По прошествии времени уже не помню почему, но Xen был исключен из рассмотрения, чем то он не устроил. Так что Xen не стал предметом знакомства
Эти минусы за безобидный пост напомнили 2004 год. Сидел тогда я на opennet.ru. Не знаю как там сейчас, но тогда на этом ресурсе никто винду упоминать не смел. Выложили как-то раз статистику клиентов, оказалось около 90% пользователей заходит из под winXP. Похоже сейчас религией для некоторых стал Xen :))
Очень кривой обзор.
1)Вы очень часто указываете «мои задачи» и сравниваете по этому критерию. Но эти задачи для читателя остаются неизвестны. И очень правильно было бы вынести их в начало статьи.
2)Я не знаю какие сложности у вас возникли с Hyper-V, но являясь тем еще линуксоидом разобраться с ним мне не составило труда.
3)KVM. Есть очень подробная инструкция прямо на хабре. Которая вполне себе соответствует Linux way
1) Эти 2 задачи описаны по ходу повествования. Одна из них, это работа с сетевой картой в режиме моста (если не путаю термины), то есть сделать так, чтоб гостевая система «думала», что она подключена напрямую кабелем. Вторая задача — проброс USB устройств в гостевую систему.
2) С Hyper-V я разобрался, но вот с описанными в пункте №1 задачами он не справился.
3) Я не спорю, инструкция есть и я видел её на хабре. Но есть и другие инструкции и ни у одной из них нет «шильдика», что она написана «KVM Gold Partner» и является единственно верной.
1)Я считаю, что это не правильный подход. Цели должны быть вынесены в заголовок и быть понятны читающему. Зачем читать весь обзор и только в конце понять, что тебе он не интересен, потому что обозревает по каким-то совершенно левым задачам?
2)Не разобрались к сожалению. Читайте мануалы. Он отлично умеет делать мост. Проброс USB не проверял к сожалению. Вечером попробую проверить.
3)Это линукс. Можете конфигурировать его как душе угодно, но если не умеете линукс, то зачем лезть обозревать линуксовые решения?
1) по этому пункту частично согласен, постараюсь выделить ненавязчиво во вступлении. Но я бы не сказал, что критерии в конце, они описаны в разделе про vSphere, так как эта основная используемая среда. Назвать их левыми язык не поворачивается, ибо это реальные задачи, которые необходимо реализовать, а не обзор сферических гипервизоров в вакууме. Есть и другие программно-аппаратные возможности обойти эти задачи, но это уже иная постановка задачи. Либо мы решаем проблему, либо обходим. В данном случае решаем.
2) Разобрался, сделал, но не заработало. Ответ от DHCP провайдера приходил 1 раз из 5. После получения ответа линк пропадал. В течении недели решение найдено не было, знакомые приверженцы Hyper-V тоже не справились и опустили руки. Было предположение, что может у провайдера используется что-то больно специфическое, но на этом же канале с ProxMox все заработало с пол пинка.
3)Не находите, что vHost — слишком ответственный узел, чтобы конфигурировать его как душе угодно? В любом случае я никому не указываю чего делать, а чего не делать. Лишь указал, что мой выбор в данном вопросе — законченное решение.
Да кстати, по пункту 2 забыл упомянуть, что при первом знакомстве с Hyper-V сложности возникли непреодолимые :) Однажды был опыт разворачивания сети для выездного мероприятия краевого значения. Организация интернет канала была возложена на MTS, но в связи с возникшими у них трудностями они обещали все сделать только в день начала мероприятия, то есть к тому времени все настройки нужно было сделать «вслепую». Интернета нет в радиусе 10-15км. В надежде на брендовое железо был взят диск со знакомым vSphere и присутствовал дистрибутив Hyper-V, с которым так и не успел познакомиться. Никакого брендового оборудования там не было, естественно vSphere не заработала. И тут выясняется, что ко всему прочему для Hyper-V нужно скачать пакет средств администрирования. К сожалению тогда я еще не был знаком с ProxMox, она бы подошла как нельзя лучше.
О каком пакете-то для hyper-v речь?
В версии винды с GUI весь пакет управления присутствует в базе.
В core версии — там вообще никаких гуёв нет. Как бы логично. Но core — это не для первого ознакомления и не версия для экстимальных случаев.
ну как бы в названии топика все сказано. «бесплатная виртуализация» поэтому и версия гипервы ясно какая. гуи там есть, но писаны любителями. к тому же оснастка управления для вин7 это ИМХО тоже гуй
А, в этом случае да. Без RSAT на win 7 ничего мы не увидем. Тут согласен.
Эту платформу пропустил. Сейчас почитал — достаточно интересно. Но вот популярность у неё не высока. Было бы интересно услышать реальные отзывы того, кто ей уже попользовался.
UFO landed and left these words here
Вместо абстрактных критериев рассматриваются проблемы, с которыми пришлось столкнуться при решении практической задачи. Кому это не интересно, всегда можно посмотреть на других ресурсах графики сравнения производительности или total cost владения архитектурой. Я такую цель перед собой и не ставил. Если бы встретил такой обзор год назад, то сэкономил бы кучу времени.
UFO landed and left these words here
Из чего вы сделали вывод что хватит домашнего VirtualBoxa? Зачем пытаться подкалывать человека с которым не знакомы? Не проще задать вопрос, который интересует? Или основная цель показать «какой вы умный»?
Ладно, одна из задач, с которой уже 3 года как справляется vSphere с одним единственным вылетом за все время ипользования:
Брендовый сервер с нормальным серверным железом. Там трудятся программный маршрутизатор, реализующий функции L3 свитча и поднимающий канал с провайдером+NAT для предприятия, второй программный маршрутизатор для отдельного VLAN, Контроллер домена на Win2012R2, SMB сервер, сервер HASP ключей (вот и необходимость проброса USB ключей), xmpp сервер на CentOS, внутренний web сервер на еще одном Centos, а также MySQL+MS SQL, плюс ежедневные бэкапы и репликации. Так вот бесплатная vSphere решает все эти задачи и я описал трудности с которыми можно столкнуться в таком реальном использовании с другими платформами. Я думаю любой, кто пользуется всем этим для работы в определенных сферах может почерпнуть для себя информацию.
Другие задачи более приблеженные:
2) организация полевой сети для выездного мероприятия на 1000+ подключений по вайфаю, с резервированием канала для ряда служб и устройств, плюс постоянный мониторинг узлов. Все это на обычном оборудовании, без вариантов изменения оборудования.
3) домашняя виртуальная лаба. Личный проект. Должна была реализовывать программный маршрутизатор, веб, фтп, видео серверы на разных системах. Тут как раз и использовался ProxMox. На данный момент наигрался, но решил описать с чем столкнулся. Потому как опять же по официальным возможностям выбрал Hyper-V, но он не позволил решить эту задачу.
Свои 5 копеек по ProxMox
Почему то переконфигурация не давала эффекта без перезагрузки

Это дебиан, самое простое использовать ifup и ifdown прописывая предварительно настройки в /etc/network/interfaces никакие перезагрузки ненужны включая поднятие vlan и аггрегацию линков.

Кроме того без «недокументированных возможностей» нет и поддержки сетей в VLAN

Vlan есть и задается стандартно для deb. систем.
Например чтоб поднять vlan151 надо добавить в /etc/network/interfaces
auto vlan151
iface vlan151 inet manual
	vlan_raw_device eth0
auto vmbr151
iface vmbr151 inet static
	address  0.0.0.0
	netmask  255.255.255.255
	bridge_ports vlan151
	bridge_stp off
	bridge_fd 0



Затем выполнить
ifup vlan151 && ifup vmbr151


Java RE более старой версии ничего не позволяет сделать, на игноры предупреждения безопасности вылазит только окно Error.

Настраивается и отключается в настройках самой java, proxmox тут не при чем.

к сожалению адрес пробрасываемого устройства меняется после перезагрузки

Настроить udev не пробовали?

VMware vSphere — замечательный продукт, но по сравнению с открытыми решениями из недостатков я вижу:
1) Цена на процессор.
2) Устройство бэкапов.
3) Отдельная программа для управления, вменяемо работающая только под windows.
4) Каждая дополнительная функция — это отдельный софт за отдельную плату.
Приятный комментарий. Попробую ответить на все пункты.
ifup, ifdown знаю, собственно первоначальную конфигурацию и делал в /etc/network/interfaces по образу и подобию настройки CentOS и был очень удивлен тому, что ifup не поднимал интерфейс. После рестарта системы все встало на свои места и больше вмешательств не требовало.
«Недокументированне возможности» недаром были взяты в кавычки. Как я и упомянул в плюсах этой системы, это то, что в основе лежит Debian и потому при желании можно все сделать. Тут лишь имелись в виду ограничения настройки через WEB-панель управления. Поэтому я и не указал в его недостатках недоступности аналога l2 vSwitch. Хотя по части удобства настройки тут vSphere опять же впереди.
По части Java RE естественно особенности именно Java. В настройках безопасности Java отключил предупреждения, скорее всего версия Java была слишком старая, может чего-то и не поддерживала. И тут скорее личная неприязнь к Java повлияла на восприятие. Как раз дело было в то время, когда мучился, скрещивая Openfire с Open-JDK, решение которого нашел кстати тут же на хабре.
Настроить так, чтоб не менялся адрес USB устройства не получилось, хотя судя по вашему замечанию это возможно.
По поводу VMWare vSphere:
1) Использовался бесплатный продукт ESXi
2) Бесплатные утилиты Veeam позволяют работать с бэкапами и как уже упомянул делать storage vMotion. Правда последняя версия Veeam стала сыпать ошибки при этих действиях, хочу уже откатиться к старой.
3) Не поспорить, в бесплатной редакции веб-панель еще не реализовали
4)На самом деле бесплатных функций очень много для проприетарного продукта.
Странный обзор, как для меня.

На KVM почитать Вы не поленились для выбора варианта установки, а на Hyper-V и OpenNode жалуетесь за отсутствие интуитивности и необходимости читать мануалы. Выдвигаемые требования и рассматриваемые продукты находятся немного в разных областях применения. Серъёзные продукты требуют серьёзного подхода. VWware, Hyper-V, KVM, OracleVM — это всё серьёзные продукты. Они не претендуют на интуитивность как одно из основных достоинств.

За интуитивностью — это в VirtualBox. Тут вообще можно не читать ничего. но это и не для серьёзных производственных областей.
VMWare может не претендует на интуитивность, может у них случайно он вышел достаточно интуитивным. Области применения позиционируются одни, дело в нюансах
Совершенно согласен с автором, что в бесплатной редакции (ESXi) продукт от VMWare серьезно превосходит конкурентов. Тут и установка парой нажатий на Enter, и удобная консоль, и многочисленные инструменты для P2V конвертации, и большая база знаний, и очень хорошие драйвера под Windows. Если с железом проблем нет — лучший вариант для малого офиса.
С другой стороны, для большого предприятия использование ESX дорого, лицензии нужны на каждый чих, политика лицензирования запутанная, а значит, сложно предугадать, сколько денег потребуется на дополнительные лицензии в случае расширения предприятия и т.п.

Если предприятие среднее (и есть лицензии на Windows Server 2008R2/2012) — лучше использовать Hyper-V — будет дешевле, хотя кое-каких функций не хватает (вроде бы до сих пор нет Fault Tolerance и т.д.). Плюс навязчивый маркетинг от Microsoft — вас пытаются убедить, что раз этого нет в Hyper-V, то это нинужно. Сейчас убеждают в ненужности USB passthrougth, а было время, когда убеждали в ненужности memory balloning и live migration.

И, наконец, Citrix Xen — платформа на базе стабильной ветки гипервизора Xen, для любителей Linux. Есть и бесплатная (без storage migration) и коммерческая редакции. Когда пробовал ее полгода назад, сильных отличий от других не заметил.

А вот Xen с сайта xen.org и KVM из текущего ядра — это не платформы виртуализации, а, скорее, конструкторы для создания собственных платформ (например, если вы — облачный провайдер). Плюс, нестабильный Xen — это университетсий проект и полигон для опытов в сфере виртуализации, отсюда революционные нововведения каждый новый релиз — то stub-domains, то PVH. Достаточно сказать, что для нестабильного Xen до сих пор есть только альфа-версии драйверов под Windows.
По поводу «ванильного» KVM уже писали на Хабре (http://habrahabr.ru/post/176823/) — это тоже весьма нестабильный конструктор (по крайней мере, для Windows-гостей), а стабильной его работы можно ожидать разве что в составе RHEL.
Дистрибутивы типа Proxmox и т.д. не являются самостоятельными решениями и построены базе какого-нибудь популярного дистрибутива с неcкучным web-интерфейсом. Они, конечно, наследуют все проблемы KVM.
ESXi и рассматривался бесплатный. Уже в редакции Standart стоимость его становится весомым фактором, чтобы задуматься. Хотя для некрупных организаций есть же еще редакция vSphere essentials — стоит вполне терпимо, особенно если не нужны FT и vMotion, до 3х хостов. Видел решение vSphere essentials + view = очень логичная реализация VDI. Да и цена решения если не ошибаюсь получилась не сильно кусачей.
Proxmox честно скажу весьма понравился. Хотя стабильность его в производственной среде проверить не удалось. У Citrix'а же всегда наблюдаются интересные решения, но я все заглядываюсь на их XenApp, только свободной версии нету. Сейчас хоть убей не вспомню почему от него отказался, хотя следующим в рассмотрении после Hyper-V был именно Citrix.
Fault Tolerance действительно нет. Может всё же соизволят допилить в какой-ниудь windows server 2018.

По поводу USB — тут двояко. Вроде и нужно, когда дело касается standalone хоста. А с другой стороны если посмотреть, то совершенно ненужная штука при, например, создании кластера. Ибо при полном вылете ноды с подключёнными данглами, они становятся не видны в виртуалке, и толку от этой виртуалки становится мало. Тут как раз имеет смысл использовать что-то типа usb over ip.
Да, при создании кластера ненужная. Но кластер создается не всегда. Я бы предпочел использовать решение USB over IP, но а) в данном случае все работает б) его покупку надо обосновать и на следующий год его заложат в бюджет, а решать ситуацию надо быстрее. Можно было ускорить покупку, просто мне на самом деле повезло, я изначально выбрал vSphere, хотя сразу необходимости в USB passthrougth не было. Приятно было осознать, что он поддерживается.
Неожиданность была только одна за все время, когда включил репликацию DFS в гостевой системе вдруг весь хост упал с kernel panic. Оказалась проблема в виртуальных адаптерах, переход на VMXNET3 решил проблему. Опять же за счет мощного комьюнити решение нашел быстро.
Кстати Fault Tolerance и в vSphere если не изменяет память имеет пока весьма серьезные ограничение на использование vCPU, так что с этой технологией придется идти на уступки.
Ага, то же самое маркетинговый отдел VMWare говорил про то, почему ESX 3.5 usb passthrougth нет, а в VMware Workstation — есть. Live migration в кластере может не работать по разным причинам — процессоры разные, PCI passthrougth включен (особенно актуально сетевыми картами от Intel и IO-SRV) и т.п., и отключать USB passthrougth только из-за того, что с ним live migration не работает — это очень странно и походит на маркетинговую уловку )
Кстати раньше писалось о невозможности vMotion при подключенных USB устройствах, сейчас же в настройках увидел такую опцию «Support vMotion while device is connected». Цитата с vmgu.ru: «которая позволяет устройству USB оставаться доступным для виртуальной машины, даже в случае ее динамического перемещения ее на другой хост средствами vMotion. Это действительно работает». UsbOverIP как оказалось тоже пока далек от идеала. Когда искал возможное решение, натыкался, что не все USB over IP хабы умеют делить порты для доступа из разных машин, некоторые модели пробрасываются целиком всем хабом в виртуалку.
А как же Citrix XenServer? ИМХО, это второй по плюшкам и удобству после VMware. Сейчас в виртуализации выиграет тот, кто первым выкатит fault tolerance больше чем с одним виртуальным ядром. Т.е. это когда у вас падает хост, его в туже секунду подхватывает резервный сервер. Не путать с HA. HA запустит виртуалки, но только с нуля, т.е. поднимать все службы и тд. Пока что, FT для нескольких ядер обещала vmware, правда уже со времен версии чуть ли не 3-4.
А вот выше как раз XenServer упоминался. Вот честно не могу вспомнить почему от него отказался. У меня он тоже был в приоритете на рассмотрении. Платформы не все попробовал из существующих, лишь несколько крупных игроков. Но попробовал на одной задаче и для себя уже сделал выводы. Citrix XenServer попробовать хочется, как выяснилось после личного знакомства отношение сильно меняется либо в одну либо в другую сторону.
Я после Vmware не могу нормально смотреть на цитрикс :) Какой-то он не удобный и по функционалу беднее. Хотя, от тех кто встретил цитрикс раньше вмваре, говорят ровно наоборот.
ну у VMWare опыта больше, оно и заметно в конечном продукте. Самый первый их продукт я пробовал Workstation 4 или даже 3. Уже тогда это был удобный продукт, с большим количеством плюшек, нежели в Microsoft VirtualPC. А других крупных продуктов я и не припомню. Когда добавили функционал управления ESXi гостями из Workstation это была настолько очевидная и гениальная идея, что я сразу проникся.
C Fault Tolerance интересны границы его применимости — многие считают, что полная отказоустойчивость эффективна разве что для самых критичных узлов инфраструктуры (вроде контроллеров домена), но дело в том, что критичные службы, как правило, умеют в отказоустойчивость и без FT. При этом для FT падает производительность, фактически простаивает второй сервер. Может быть поэтому VMWare не спешит добавлять поддержку нескольких процессоров, делая FT скорее маркетинговой уловкой, чем реально применимой технологией? Все-таки ограничение в 1 CPU для Windows 2012 выглядит смешно )

У того же Xen были две попытки сделать FT — Kemari (патч) и Remus (в основной ветке). Оба в CitrixXen и в промышленное использование не попали.
про hyper-v — честно, штатной mmc консоли обычно хватает для быстрого руления одного-2-3-4-5 хостов.
Для всего остального есть повершелл, veeam, System Center VMM.
Кстати, про VMWare — я толком не пробовал, но ESXi хостами можно тоже рулить через повершел скрипты, чем кстати ранее упомянутый System Center VMM прекрасно занимается, кажется, через vcenter.
На одном из последних проектов, куда я ходил собеседоваться, через VMM рулилось 2 десятка хостов hyper-v (одна саб-компания), с полсотни XEN'ов (второй офис) и пару десятков ESXi (третий цод).

vcenter переводит продукт сразу в категорию платных.
mmc для руления hyper-v это я так понимаю вы имеете ввиду Hyper-v как роль, а не свободную редакцию «сервер» в поставке core.
По вашей логике мне надо развернуть роль hyper-v на рабочей станции, чтоли, чтобы подключаться к другим серверам?

Никто не мешает подключаться mmc оснасткой к другому server-core и не core, хоть powershell, хоть mmc хоть vmm хоть veeam, хоть другими комплексами п/о

не, про подключение с рабочей станции ММС оснасткой никто не спорил. Я думал вы говорите про управление штатной ММС прям с самого сервера.
на самом деле статья бесполезная, если не считать показания того насколько автор далек от темы. OpenNode как показатель чего либо это смешно. Проксмокс еще кое как справляется, но это опять же не для серьезных установок.

Фраза «Один утверждает, что надо все вручную сделать через libvirt, другой — что достаточно поставить VirtManager, а дальше все сделается автоматом» вообще убила. virt-manager, и вообще virt-* это части virt-tools, стандартного инструментария libvirt.

Короче, в следующий раз, чтоб не позориться, найдите специалиста и посоветуйтесь. Желательно такого кто использует KVM в серьезных установках и знает о чем говорит.
А я и не позорюсь. Это большинство боится высказать свое мнение, в результате просто копирует чужое. Я радуюсь, что в свое время рядом не оказалось такого «специалиста» который насоветовал бы KVM, сейчас сижу и радуюсь на работе VMWare ESXi. И другу посоветовал — ему тоже нравится. KVM и прочие рассматривал для техники, не входящей в VMWare HCL.
> А я и не позорюсь. Это большинство боится высказать свое мнение, в результате просто копирует чужое

ну конечно же!

> Я радуюсь, что в свое время рядом не оказалось такого «специалиста» который насоветовал бы KVM, сейчас сижу и радуюсь на работе VMWare ESXi. И другу посоветовал — ему тоже нравится. KVM и прочие рассматривал для техники, не входящей в VMWare HCL

ну куда нам «специалистам» до вас, профессионалов и миллионеров.
то есть вы до сих пор уверены, что несмотря ни на что, мне бы больше подошел KVM?
не понимаю, к чему спор? обидели вашу любимую систему виртуализации? ну у неё есть свои плюсы, я это указал в статье, потому она и заняла в моем выборе почетное 2-ое место.
или вопрос в выборе Proxmox а не конструктора «очумелые ручки»? ну я рассматривал системы, а не конструкторы.
я все еще уверен что проведенный анализ настолько любительский что публиковать такое должно быть стыдно. уровень понимания темы нулевой, и вы еще и гордитесь этим. Вы рассматривали не системы и не конструкторы, а ваше собственное, искаженное недопониманием их видение.

конкретные задачи и критерии, кстати, в статье не упоминаются. вся статья выглядит как «я решил поиграться и потыкаться не разбираясь ни в чем, остановился на том что у меня хоть как-то заработало, и теперь считаю себя знатоком и пишу об это статейки»
Спорить не буду — дело неблагодарное. У вас свое мнение, у меня свое. Кратко — мне не стыдно, ни капли. Я рассматривал системы, как я их вижу. Еслиб мне было нужно рассмотреть их с точки зрения других людей, какого бы черта я этим занимался, ушел бы в психологи пожалуй.
Задачи кратко описаны в начале статьи, еще раз повторюсь, нужны проброс USB, адекватный сетевой мост, остальное по возможности. Делалось это как дома, так и на работе. Дома естественно «поиграться и потыкаться», брэндовых серверов домой не покупаю. На работе был взят продукт из тех, кому доверяю (vmware) удовлетворяющий требованиям и совместимый с имеющимся железом. И ни разу не пожалел, более того — понимаю, что он единственный удовлетворяет всем запросам. В остальном, да, я привык чтоб техника работала и предпочитаю женское общество неоправданному рукоблудию с никсами там, где они заменяются другим ПО. Почему я заговорил про никсы? Да просто судя по вашиму безапелляционному выбору KVM мне на работу — вы как раз из этих… «типа никсоидов»
Стыдно должно быть писать ошибочную информацию, и при этом вместо восприятия ошибок продолжать спорить. Проброс USB, сетевой мост и прочее можно сделать на vmware, xen, kvm и еще кучке всякой экзотики, но вы не разобрались в том как оно работает, продемонстрировали некомпетентность, и пишете об этом статьи.

Мой выбор — KVM не потому что я не знаю vmware, VCP5 вроде как дают за знание, и не потому что я не пользуюсь ничем кроме KVM, а именно потому что это самое удобное из решений подходящих для задачи. все возможности ESXi и ни одного из ограничений.

На этом метание перлов прекращаю, я в принципе понял с кем имею дело, и мне не интересно.
Да мне сразу не было интересно. Как говорится, какой вопрос — такой и ответ.
Спасибо за статью.
Как раз выбираю средство виртуализации чтобы можно было пробросить hasp ключ от 1С в гостевую машину.
На сколько я понял Вы проброс делали для 1С?
У меня 4 hasp ключа проброшены, 2 от 1С и 2 от Kompas 3D. Какое то время были проброшены в разные виртуалки (можно по одному ключу выбирать). Они еще разные версии драйверов требовали. Пока не нашел реализацию от Ethersoft hasp драйвера под Linux. Сейчас живет маленькая виртуалка на CentOS чисто с ключами. Судя по всему KVM тоже это умеет, но у меня в то время не получилось пробросить USB устройства на постоянку. После перезагрузки у них менялся адрес физический. На ESXi отваливались несколько раз, при отключении USB хаба физически.
Если есть поддерживаемое железо, то ставьте ESXi — там проброс USB-устройства (неважно какого) делается парой кликов мыши. У них теперь еще WEB-клиент в ESXi встроен и практически не надо мучиться со standalone-клиентом, написанном на .NET.

Кстати, некоторые RAID-контроллеры не поддерживаются из коробки, но для них есть сторонние драйверы, например, Adaprec 6405E.

Proxmox умеет пробрасывать USB, но надо отредактировать конфиг ВМ вручную (одна строчка). И ESXi, и Proxmox (KVM-QEMU) пробрасывают устройство на основе его физического расположения в порту. Переткнули в другой порт — проброс отвалился и надо править конфигурацию.
А как проявляется неподдерживаемость Adaptec'а 6405E? У меня 5405, сходу все все завелось, с конфигурированием из биоса либо из предварительно загруженной откуда нибудь десктопной системы. Правда вот дотянуться до SMART либо конфигурации дисков при работающем ESXi оказалось непростым квестом, но через MaxView под виртуалкой в итоге заработало.
Очень просто — ставите 6.0, а в стораджах контроллера нет. Качается VIB с сайта Adaptec'а, ставится через консоль и все ОК
Значит я уже не могу уверенно сказать, что и на 5405 все работает. Как раз данные VIBы ставил еще на 5.5, а 6.0U1 ставил как обновление. Было кстати похожее и с сетевыми картами. После обновления с 5.1 на 5.5 вроде бы у меня вдруг перестала работать сеть на Intel встроенном контроллере. Откатился тогда назад — начал гуглить. А оказалось, что новые дрова у всех нерабочие с определенной серией Intel'а. Пришлось заранее залить vib драйверов от 5.1 и после обновления откатить версию на более старую.
Only those users with full accounts are able to leave comments. Log in, please.