Pull to refresh
2
0
Send message

Каков у вас план по работе с СОРМ ?

Спасибо! Весьма полезно. А какую задачу вырешали выводя CI_JOB_ID в имя контейнера?
И знали ли при -p ключ у docker-compose? Что бы можно было делать например так


  script:
    - docker-compose -f .docker/docker-compose.yml -p ${CI_COMMIT_REF_SLUG}-tests build tests
    - docker-compose -f .docker/docker-compose.yml -p ${CI_COMMIT_REF_SLUG}-tests up --exit-code-from tests tests
  after_script:
    - docker-compose -f .docker/docker-compose.yml -p ${CI_COMMIT_REF_SLUG}-tests down -v

Где-то с год назад смотрел на нее. Парни очень навязывали вместе с CI еще и деплоилку и механику деплоя через свою тулзу — BOSH.
На сколько далеко они продвинулись в отвязывании от неё?

существующим клиентам Check Point, так и будущим, которые еще не определились с выбором решения

Коллеги, внимательно подумайте прежде чем ввязываться в покупку решения по VPN.
В течении двух лет я являюсь "довольным" пользователем CheckPoint SNX, утлиты snx под Linux и MacOS. За это время у меня 4 раза ломался snx фатально выдавая ошибки типа не удалось соединится потому что не правильный логин и пароль. Который на самом деле были различными другими ошибками. Типа неверный тип шифрования и такое.


База решения вопросов закрыта и никак не помогает решать проблемы. После регистрации на сайте воспользоваться решениями нельзя. Ибо они доступны только людям имеющим ключ, чего у меня как у пользователя VPN не может быть в принципе.


Для решения приходилось гуглить более новые или более старые версии snx.
Возможности их откуда либо скачать с оф сайта нет.


У остальных продуктов очевидно будет такое же достоинство, но сказать что либо хорошее или плохое не могу.

Завод не построили. Рабочих мест создали менее 500.
Обидно да.

Верно. больше хороших штук. Только в проде не оставляйте как наиграетесь. Пожалейте приемника ему же это поддерживать, а он ни в чем не виноват…

Я соглашусь, что возможны ситуации когда админу наплевать на варианты типа "выполнить не удалось; повторить через час".
Бывает что им не нужна история или историю они делают через mkrtk_22.`date +%s`.txt


Бывает что потом когда на сети появляется еще один вендор эти админы разводят руками и говорят "ой мой скрипт перестал работать напишу еще один" и заканчивают с 15 вендорами и богатым кроном.


Все эти варианты вполне…

И чего только люди не придумают, чтобы не ставить Noc.

А расскажите, пожалуйста, как используются qr коды на оборудовании? Куда ведут? Как используются ?

Это довольно старое обсуждение, в более менее свежих версиях проблема ушла.

Это увы не так. Когда серверов достаточно, выясняется что нужны templated дашборды и соответственно аварии по ним. Но графана с таких пока не умеет делать алярмы.

Рекомендую рассмотреть довольно удобную связку prometheus + telegraf.
Преимущества такой связки становятся очевидны после некоторой эксплуатации. Дело в том, что influxdb довольно плохо себя ведет на значительных объемах метрик.
Когда колво серверов измеряется десятками influx справлятся на ура, но масштабирование за эти пределы для нее становится неприятным. Из-за


  • Неоднозначного времени старта. Из-за механики хранения метрик на диске во время старта надо построить индекс в памяти. это может занять любое колличество времени. Его нет возможности предсказать и оно практически не зависит от характеристик сервера(есть мнение, что такое построение индекса упирается в производительность одного ядра). Есть надежда, что в релизе 1.3 у парней получится решить эту проблемму через использования дискового индекса.
  • Предсказуеммости операции compact. Потребление диска предсказать так же почти невозможно. В настройках по уполчанию compact будет отложен на 4 часа после последней записанной точки в кусок. С одной стороны эта операция сама по себе может занять до 12 часов. С другой стороны в это время на диске метрики будут лежать в режиме не максимального сжатия. Для примера скажу, что полностью сжатый кусок занимает 25G, а не сжатый 457G. Прогнозировать утилизацию диска в такой ситуации на грани возможного.

Предложенная мною связка решает вопрос с хранением метрик.


  • prometheus очень быстро стартует
  • хранит метрики в раздельных файлах и
  • очень бережно относится к диску я одно время проводил сравнение большую часть времени по использоемому месту идут нос к носу, бывает что prometheus потребляет на 3-5% больше диска.

Кроме этого prometheus умеет алертинг, в связке Influx+telegraf приходится добавлять capacitor, а его конфигурация не самое приятное занятие.

Хочу порекомендовать посмотреть штуку по имени molecule.
Это примерно как test-kitchen, только сильно заточенная на ansible.
Она же сама запускает вагрант, провиженит, потом запускает тесты на testinfra и/или serverspec.
Очень удобная штука, но пока не безгрешная.

Information

Rating
Does not participate
Location
Россия
Registered
Activity