Comments 12
UFO just landed and posted this here
Тоже поймали такую штуку как во второй истории, и так же фиксили.
Сервис на Django если вдруг кому пригодится.
Сервис на Django если вдруг кому пригодится.
+2
Pod завершает работу только тогда, когда истекает период «изящного» ожидания и он убивается SIGKILL.
А что будет с активными запросами? Ingress-контроллер их перепошлет незаметно для «внешнего мира»? Или предполагается, что за это время их уже не будет?
0
Зависит от настроек, по дефолту еще 2 раза перепошлет запрос, если он идемпотетный (считай не POST).
Можно перенастроить https://kubernetes.github.io/ingress-nginx/user-guide/nginx-configuration/configmap/#proxy-next-upstream-tries
0
У нас был кейс, аналогичный п.1. ТОлько там был aws и ClusterAutoscaler. ClusterAutoscaler навешивает taint на ноду перед тем, как её удалить (scale down cluster). И из-за сбоя, некоторое количество нод оказалось с тэйнтом. Поды съезжались на ноды без тэйнтов и благополучно их вешали, после чего ноды убивались, заказывались новые и итерация повторялась.
+1
Немного дежавю github.com/hjacobs/kubernetes-failure-stories
+1
"Изящное" выключение — очень интересный перевод. Я бы до такого не догадался. Звучит круто. Но по мне — это скорее "безопасное" выключение (аналогично "безопасному" извлечению USB-устройств). Все-таки русская терминология до сих пор хромает ((((
0
Согласен: перевод здесь не совсем привычный, но остановились на таком варианте конкретно в этом материале для сохранения авторского стиля/настроения*. Этот стиль начинается с заголовка «Grace is overrated» и картинки, которую мы не оставили в тексте:
А вот — лучшая иллюстрация красоты словесных оборотов в оригинале:
А вот — лучшая иллюстрация красоты словесных оборотов в оригинале:
We’ve got pod disruption budgets coming out of our ears, our statefulsets are very stately, and rolling node replacements run without a hitch.
+2
Sign up to leave a comment.
3 истории сбоев Kubernetes в production: anti-affinity, graceful shutdown, webhook