Information

Founded
Location
Россия
Website
southbridge.io
Employees
51–100 employees
Registered
Pull to refresh
Comments 32
Digital Ocean так-то дешевле, можно за $5 почувствовать себя DevOps«ом
За 2.99€ будет 2GB памяти, что должно хватить, но вот CPU там слабые, сильно уступают даже DO за 5$. Чистая установка master сервера отъедает большинство ресурсов, а загрузка CPU в простое около 40-50% (на все обслуживающие kubernates процессы, docker, плагин сети). Для обычной kubernates будет нормально, но вот для master нет.
Kubernates еще удобно устанавливать с помощью Juju, но к сожалению в дефолтное ядро не включен один модуль, из-за чего приходится собирать свой образ.
Scaleway к машине за 3 евро цепляют винт на 50Gb, стоимостью больше самой машины. Пришлось экстренно оттуда бежать.

Вообще то нет. Один вольюм 50гб в комплекте. Дополнительные 50 стоит 1 евро

Ещё бы было что-то такое же, но чтобы был мультьмастер.
Может мне кто-то пояснит, как это делается в продуктивных кластерах, ведь если вылетит мастер, то тогда кластер всё. Как выглядит обычная практика? Делают много мастеров?
Я пытался по информации вот отсюда поставит несколько мастеров. Но не работает.
В k8s все сервисы кластера stateless, мультимастера нет. Обычно вертят сверху HA решения, чтобы обращения шли на «общий» ipшник. Однако, имеет смысл сделать несколько инстансов etcd, поскольку этот сервис как раз использует k8s для хранения конфигурации кластера.
Ну т.е. компоненты мастера сделать НА возможно, но не все элементы. Верно?
ну под мультимастером я имел ввиду, что теперь есть два etcd и kube-api.
Я, по совету ниже, поставил кластер через kubesprey, удобная вещь оказалась.
> Ещё бы было что-то такое же, но чтобы был мультимастер.

Попробуйте Mesos/Marathon/DSOS, там он есть.

Ставите kubectl и kubeadm из соответствующего репозитория и дальше все то же самое. Полный гайд для центоси и убунты есть в документации

Самое удобное и универсальное средство, которое мне удалось найти — это kubespray. По сути это набор ansible скриптов. Поддерживает множество операционных систем, в тч atomic. Умеет и мультимастер поднять.
+1, тоже поднимаю с kubespray, не понимаю почему все статьи про kubeadm, он же еще не умеет мультимастер
Потому как kubeadm, если я верно понял, решение, которое предоставляет сам проект и, как результат, умеет поднимать кластер на последних версиях всего. Да, и, кажется, самый простой вариант.
Ну примером сейчас кубеспрей выливает Кубернетис версии v1.6.7, когда через месяц уже будет 1.8. И еще:

> The easiest way to run the deployement is to use the kubespray-cli tool.

И паралельно в доках Кубернетис написано

> kubespray-cli is no longer actively maintained.

А еще там написано, что на продакшн рекомендуется собирать from scratch

Ну по комитах действительно kubespray-cli не активно девелопится.

> А еще там написано, что на продакшн рекомендуется собирать from scratch

А вот такого не видел. Ссылку?

Не совсем точно выразился


WARNING: kubeadm is in beta, please do not use it for production clusters.

Гласит документация и сам kubeadm

Да, это видел. И вообще у них много способов засетапать Кубернетис, но половина из них не первой свежести, kubeadm в бете и т.п. Что вообще лучше всего использовать и как его сетапать? Я говорю о bare-metal.
Вроде как мультимастер с kubeadm должны реализовать. Об этом есть в доках.
Однажды провозился с установкой локально на виртуалочки с центосью — потратил 3 дня собрал половину тикетов на SO и бросил это дело.

Тут можно учить Kubernetes в интерактивном режиме бесплатно и без смс.

На убунте не запустится. Будет ошибка нод.
runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
Спасибо, мне не будет. Я, как и предыдущий комментатор, в это забагованное поделие наигрался.
А вот для тех, у кого много свободного вренмени, можно было бы и дописать эту строчку.
раньше надо было cni в ручную устнавливать при такой ошибке, там немного в принципе, надо только небольшой json в /etc/cni.d записать.
Та версия с которой я сейчас работаю(1.7.3) такой ошибки уже не имеет, точнее говоря она есть, но как-только сеть установишь, то она исправляется.
Как его запустить? Весь день над этой ошибкой бьюсь
В моем случае для создания SSH туннеля сработала такая команда:

ssh -N -L 8001:127.0.0.1:8001 username@remotehost
Only those users with full accounts are able to leave comments. Log in, please.