Спасибо! Весьма полезно. А какую задачу вырешали выводя CI_JOB_ID в имя контейнера?
И знали ли при -p ключ у docker-compose? Что бы можно было делать например так
Где-то с год назад смотрел на нее. Парни очень навязывали вместе с CI еще и деплоилку и механику деплоя через свою тулзу — BOSH.
На сколько далеко они продвинулись в отвязывании от неё?
существующим клиентам Check Point, так и будущим, которые еще не определились с выбором решения
Коллеги, внимательно подумайте прежде чем ввязываться в покупку решения по VPN.
В течении двух лет я являюсь "довольным" пользователем CheckPoint SNX, утлиты snx под Linux и MacOS. За это время у меня 4 раза ломался snx фатально выдавая ошибки типа не удалось соединится потому что не правильный логин и пароль. Который на самом деле были различными другими ошибками. Типа неверный тип шифрования и такое.
База решения вопросов закрыта и никак не помогает решать проблемы. После регистрации на сайте воспользоваться решениями нельзя. Ибо они доступны только людям имеющим ключ, чего у меня как у пользователя VPN не может быть в принципе.
Для решения приходилось гуглить более новые или более старые версии snx.
Возможности их откуда либо скачать с оф сайта нет.
У остальных продуктов очевидно будет такое же достоинство, но сказать что либо хорошее или плохое не могу.
Я соглашусь, что возможны ситуации когда админу наплевать на варианты типа "выполнить не удалось; повторить через час".
Бывает что им не нужна история или историю они делают через mkrtk_22.`date +%s`.txt
Бывает что потом когда на сети появляется еще один вендор эти админы разводят руками и говорят "ой мой скрипт перестал работать напишу еще один" и заканчивают с 15 вендорами и богатым кроном.
Это увы не так. Когда серверов достаточно, выясняется что нужны templated дашборды и соответственно аварии по ним. Но графана с таких пока не умеет делать алярмы.
Рекомендую рассмотреть довольно удобную связку prometheus + telegraf.
Преимущества такой связки становятся очевидны после некоторой эксплуатации. Дело в том, что influxdb довольно плохо себя ведет на значительных объемах метрик.
Когда колво серверов измеряется десятками influx справлятся на ура, но масштабирование за эти пределы для нее становится неприятным. Из-за
Неоднозначного времени старта. Из-за механики хранения метрик на диске во время старта надо построить индекс в памяти. это может занять любое колличество времени. Его нет возможности предсказать и оно практически не зависит от характеристик сервера(есть мнение, что такое построение индекса упирается в производительность одного ядра). Есть надежда, что в релизе 1.3 у парней получится решить эту проблемму через использования дискового индекса.
Предсказуеммости операции compact. Потребление диска предсказать так же почти невозможно. В настройках по уполчанию compact будет отложен на 4 часа после последней записанной точки в кусок. С одной стороны эта операция сама по себе может занять до 12 часов. С другой стороны в это время на диске метрики будут лежать в режиме не максимального сжатия. Для примера скажу, что полностью сжатый кусок занимает 25G, а не сжатый 457G. Прогнозировать утилизацию диска в такой ситуации на грани возможного.
Предложенная мною связка решает вопрос с хранением метрик.
prometheus очень быстро стартует
хранит метрики в раздельных файлах и
очень бережно относится к диску я одно время проводил сравнение большую часть времени по использоемому месту идут нос к носу, бывает что prometheus потребляет на 3-5% больше диска.
Кроме этого prometheus умеет алертинг, в связке Influx+telegraf приходится добавлять capacitor, а его конфигурация не самое приятное занятие.
Хочу порекомендовать посмотреть штуку по имени molecule.
Это примерно как test-kitchen, только сильно заточенная на ansible.
Она же сама запускает вагрант, провиженит, потом запускает тесты на testinfra и/или serverspec.
Очень удобная штука, но пока не безгрешная.
Каков у вас план по работе с СОРМ ?
Спасибо! Весьма полезно. А какую задачу вырешали выводя CI_JOB_ID в имя контейнера?
И знали ли при
-p
ключ уdocker-compose
? Что бы можно было делать например такГде-то с год назад смотрел на нее. Парни очень навязывали вместе с CI еще и деплоилку и механику деплоя через свою тулзу — BOSH.
На сколько далеко они продвинулись в отвязывании от неё?
Коллеги, внимательно подумайте прежде чем ввязываться в покупку решения по VPN.
В течении двух лет я являюсь "довольным" пользователем CheckPoint SNX, утлиты snx под Linux и MacOS. За это время у меня 4 раза ломался snx фатально выдавая ошибки типа не удалось соединится потому что не правильный логин и пароль. Который на самом деле были различными другими ошибками. Типа неверный тип шифрования и такое.
База решения вопросов закрыта и никак не помогает решать проблемы. После регистрации на сайте воспользоваться решениями нельзя. Ибо они доступны только людям имеющим ключ, чего у меня как у пользователя VPN не может быть в принципе.
Для решения приходилось гуглить более новые или более старые версии snx.
Возможности их откуда либо скачать с оф сайта нет.
У остальных продуктов очевидно будет такое же достоинство, но сказать что либо хорошее или плохое не могу.
Обидно да.
Верно. больше хороших штук. Только в проде не оставляйте как наиграетесь. Пожалейте приемника ему же это поддерживать, а он ни в чем не виноват…
Я соглашусь, что возможны ситуации когда админу наплевать на варианты типа "выполнить не удалось; повторить через час".
Бывает что им не нужна история или историю они делают через
mkrtk_22.`date +%s`.txt
Бывает что потом когда на сети появляется еще один вендор эти админы разводят руками и говорят "ой мой скрипт перестал работать напишу еще один" и заканчивают с 15 вендорами и богатым кроном.
Все эти варианты вполне…
И чего только люди не придумают, чтобы не ставить Noc.
А расскажите, пожалуйста, как используются qr коды на оборудовании? Куда ведут? Как используются ?
Это довольно старое обсуждение, в более менее свежих версиях проблема ушла.
Это увы не так. Когда серверов достаточно, выясняется что нужны templated дашборды и соответственно аварии по ним. Но графана с таких пока не умеет делать алярмы.
Рекомендую рассмотреть довольно удобную связку prometheus + telegraf.
Преимущества такой связки становятся очевидны после некоторой эксплуатации. Дело в том, что influxdb довольно плохо себя ведет на значительных объемах метрик.
Когда колво серверов измеряется десятками influx справлятся на ура, но масштабирование за эти пределы для нее становится неприятным. Из-за
Предложенная мною связка решает вопрос с хранением метрик.
Кроме этого prometheus умеет алертинг, в связке Influx+telegraf приходится добавлять capacitor, а его конфигурация не самое приятное занятие.
Это примерно как test-kitchen, только сильно заточенная на ansible.
Она же сама запускает вагрант, провиженит, потом запускает тесты на testinfra и/или serverspec.
Очень удобная штука, но пока не безгрешная.