Pull to refresh

Comments 36

libvirt сильно под rhel/centos заточена.
Да ви шо? А как я его использую под gentoo?
Я не говорю, что оно Centos only, я говорю, что оно сильно на идеологию виртуализации рэдхэта заточено.
Ждём статью про libvirt?
Если этот ↑ ваш коммент наберет +10 — ждем статью. И никаких отмазок болел-забыл!
Ну всё, ждём четыре статьи. Когда первая?
Ну ладно. Подумаю что туда написать :]
Тю, я ожидал чего-то серьёзного. 30-40 машин — это ерунда. Вот когда там сильно за 10000, вот тогда-то начинаются проблемы с управляемостью…
Вы в «вконтакте» работаете?
причём здесь вконтакте?
зачем им 10к виртуалок?
скорее хостинг/дц.
Тыг, как бы «Селектел», облако, и всё такое. И проблема управляемости — одна из острейших проблем. Грубо говоря, на 10к начинают тормозить казалось бы тривиальные операции и приходится отдельно думать, как бы их сделать быстро.
вам лучше знать :)
но разве обычная топология — дерево, не применима?
узел отвечает за 100 виртуалок-листьев.
узлы связываются в корень, который при надобности отправляет запросы вниз по дереву.
имхо, такая система довольно просто масштабируется до определенных пределов (само собой чем сложнее система, тем крупнее аппарат управления — балансировка нагрузки на узлы, мониторинг, ...).
Но на 10к в теории софтварных проблем с управлением именно виртуалок должно быть не очень много.
правда, всё это теория :)
Ага, ага.

А теперь вопрос, как будет выглядеть в такой топологии запрос «найди мне машину с именем quququ»? А задача «сделать сеть, которая соединит машину quququ1 с quququ2»?

На таких масштабах любой чих — десятки секунд (если не минуты) исполнения.
ну я не знаю же как у вас всё устроено, но я бы реализовал функционал роутинга пакета с инструкциями.
Ну и в данной модели достаточно послать четыре пакета:
1. data1 = get_data(quququ1)
2. data2 = get_data(quququ2)
3. add_network(quququ2, data1)
4. add_network(quququ1, data2)

Пакеты обрабатываются узлами.
Роутинг можно сделать и «жадным» — броадкаст по дереву, узел который содержит эту машину отвечает.
PS: конечно, я понимаю, что это всё что-то типа разминки для ума, и на самом деле всё сложнее и есть подводные камни.
UFO just landed and posted this here
Планирую, хотя выходит кривовато. Про 10к машин там не будет точно, т.к. это глубоко субъективное и текущее, я про него объективно писать не могу.
Это вторая статья, за которую я бы продонейтил.
По-моему, речь идет не о виртуальных машинах, которых много, а о linux-машинах, которых много.
chef'у без разницы, что конфигурировать.
Не пробовали применять следующее решение vagrantup.com/? По сути это набор из ruby-скриптов поверх VirtualBox с интеграцией puppet и chef.
Если пробовали, прокомментируйте пожалуйста.
Мы очень редко используем аппаратную виртуализацию, пока все наши задачи решаются с помощью виртуализации на уровне операционной системы (OpenVZ) и VmwareESX для всего остального. Мой субъективное мнение, что VirtualBox все же пока сыроват, как и vagrant.

Используем, vagrant очень удобен для разработки и тестирования chef рецептов.
>>Так как наша инфрастуктура закрыта снаружи, срок жизни виртуальных машин сравнительно небольшой, проблемы безопасности в этом окружении для нас не особо важны, то мы выбрали именно этот путь
а на кой тогда все эти пляски с авторизацией по ключам? :)
да нет, это понятно. но на мой взгляд вводить пароль, или копировать его из буфера в случае ссш намного удобнее, чем хранить ключ. использование ключей в первую очередь имеет преимущества для повышения безопасности.
ладно, в данном случае все это скорее вопрос привычки и предпочтений, не более.
сколько сложностей, а ведь openstack именно для этого и придумали. хотя если не хочется заморачиваться с таким монстром, можно поднять oVirt — там большинство данного функционала можно сделать из коробки, плюс готовая интеграция с Foreman, для управления, деплоймента и пост-конфигурации.
Вы не забывайте, что статья писалась в начале 2011 года и на тот момент блистал только Proxmox, с возможностью кластеризации и возможностью выбора гипервизора из коробки.
Openstack писали админы для админов, со всеми вытекающими отсюда последствиями. И при серьезных инсталляциях будет довольно тяжело и дорого его поддерживать. Сейчас ситуация с ним чуть лучше, но на тот момент все это доставляло немало проблем.
oVirt — это KVM и RedHat. Плюс надо организовывать сетевое хранилище. Proxmox приятней, проще и функциональней. Как-то так )
oVirt официально перезапустили как раз в 2011, и уже тогда он умел и кластеризацию, и API, и интеграцию с foreman. Там же, из коробки, было три портала — для админов, для пользователей и для продвинутых пользователей, с разделением доступа и возможностей. Сетевое хранилище надо организовывать, само собой, но иначе о каком кластере может быть речь? Аргумент «это KVM и RedHat» я вообще не понимаю — что в этом плохого? На самом деле, единственное в чем проксмокс обошел ovirt даже на сегодняшний день, даже если не смотреть на то что новые фичи в 3.2 все поголовно не поддерживаются и имеют экспериментальный статус, это в поддержке контейнеров. Но и это должно скоро измениться, как только libvirt полностью начнет контролировать LXC

openstack тогда тоже уже был, и хоть он и кажется сложным монстром, вся его красота как раз в том что на десятке хостов он монстр, а когда дело доходит до сотен, вдруг оказывается что по сравнению даже в вмварью, он очень удобен и экономит время и деньги.
Sign up to leave a comment.

Articles