Pull to refresh

Comments 21

Чем представленное решение лучше Zabbix?

Чтобы ответить, нужно хорошо знать Zabbix и работать с ним несколько лет (бекапить его, переносить данные между серверами и т.д.). У меня такого опыт нет, поэтому ответить я не смогу.

Zabbix работает хорошо. В качестве клиентов оптимально использовать либо zabbix-агенты (которые есть для windows и linux) или snmp (который может быть даже в кофеварке). Ну и всякие разные другие навороты.

Ровно тоже самое могу сказать и про Icinga. Агенты, SNMP, сети, свои скрипты, скрипты с Nagios Exchange (там их сотни). Каждому свое, OpenSource дает выбор - выбирайте и пользуйтесь ) логично же.

НО - все это нас ни разу не приближает к ответу - Чем лучше )

Тогда ждем в камментах человека, с опытом использования обоих систем (практического сравнения конечно же). Просто по фичам они сильно похожи.

В этом сила площадки, в комментариях люди делятся настоящим опытом, часто отсекая рекламную мишуру.

Согласен - я часто в комментариях находил очень интересные советы, ссылки на продукты. Бывает и лично человеку напишешь, поделится опытом. Хабру респект и уважуха!

Для меня, в основном в том, что конфиги в нормальных текстовых файлах и я могу их нормально редактировать в любимом редакторе и хранить в git. Следующая причина - развитый язык шаблонов, избавляющий меня от написания множества однотипных правил. Следующая причина - наличие зависимостей. Т.е. мне достаточно написать, что сервис А зависит от сервиса Б и все остальное будет автоматически. Т.е. мне не нужно руками описывать для каждого сервиса, что не посылать мне уведомления, если не работает сервис Б, а так же сервис Ц, от которого зависит Б, а так же ещё каких-нибудь 2 других сервиса и т.д. Задолбался я в zabbix возить мышкой, настраивая вот это всё.

Спасибо, любопытная информация! Я то по старинке делаю, руками и мышкой )))
А насчет архитектуры, объема баз данных, скорости работы PostgreSQL есть чем поделиться ?

Zabbix подходит для прода - стабильно работает годами и не падает. А как с этим у Icinga?

За 5 лет у меня проблем не было с демоном (ядром) никаких. Агенты ранних версий иногда падали (но редко).

А как с этим у Icinga?

Собственно, а как там может быть? Наследник Nagios с многолетней историей. Что там может быть иного, кроме того же самого работает годами и не падает.

А насчет архитектуры, объема баз данных, скорости работы PostgreSQL есть чем поделиться ?

Вопрос не понял. Архитектура чего, объём каких баз и при чём тут скорость работы postgresql?

Сразу предупрежу - у меня сеть не большая. Пяток серверов и железок разных, да сотня сервисов.

Здравствуйте.
На этапе "ansible-playbook 5-director-kickstart.yml" получаю следующую ошибку:

fatal: [debian]: FAILED! => {"changed": true, "cmd": ["icingacli", "director", "kickstart", "run"], "delta": "0:00:00.261169",
"end": "2023-12-03 12:44:44.057956", "msg": "non-zero return code", "rc": 1, "start": "2023-12-03 12:44:43.796787", "stderr":
"ERROR: Icinga\Exception\ConfigurationError in /usr/share/icingaweb2/modules/director/library/Director/KickstartHelper.php:360 with message:
I found no Endpoint object called "srv-monitor" on 127.0.0.1:5665", "stderr_lines":
["ERROR: Icinga\Exception\ConfigurationError in /usr/share/icingaweb2/modules/director/library/Director/KickstartHelper.php:360 with message:
I found no Endpoint object called "srv-monitor" on 127.0.0.1:5665"], "stdout": "", "stdout_lines": []}
С Icinga2 знаком мало, погуглив, не нашел понятного мне решения по этой ошибке. Буду признателен за помощь.

Нужен статический IP адрес, полно доменное FQDN имя через hostnamectl и прописать соответствие имени и IP в файле /etc/hosts.

В Вашем случае что то вида srv-monitor.test.local. И это имя обязательно указываем в самом первом Playbook.

В общем рекомендую заново сделать на чистой виртуалке.

Спасибо за оперативный ответ.
В /etc/hosts указано полное имя, т.е. "srv-monitor.test.local", а вот в /etc/hostname только "srv-monitor".
Внес изменения в указанных местах и после повторной установки все завелось.
Еще раз большое спасибо!!

Пожалуйста - надеюсь Icinga2 понравится и Вам пригодится в работе.

У меня в Playbook-ах есть недоработка, дело в том, что IcingaDB новый модуль и я его с колес изучал перед написанием статьи. Уже после публикации, в процессе внедрения у Заказчика, выяснил, что для IcingaDB нужно было еще одну настройку сделать (сгенерировать файлик /etc/icingaweb2/modules/icingadb/commandtransports.ini), либо настроить через WEB-морду, как на скриншоте:

Пароль от API берется из файла: /etc/icinga2/conf.d/api-users.conf

Без этой настройки в разделе IcingaDB не получится посылать сигналы на хосты и сервисы, например, ReCheck.

Потом как ни будь добавлю в PlayBook )))

Полагаю, что этот момент для IcingaDB достаточно добавить в конце основного поста.
Мне ранее доводилось пользоваться Icinga первой версии, но не приходилось заниматься установкой и настройкой. А вот установка с использованием Ansible - за это отдельный респект и уважуха!!!

После моего способа руками уже не хочется ставить, к хорошему привыкаешь))))))

Пробовал еще в 2017 поставить icinga/TICK Stack но что-то мне не зашло, в итоге zabbix установил 4.0 LTS и апгрейдил версии только два раза. Для k8s конечно же лучший вариант это софт иного рода вроде VictoriaMetrics + prometheus exporter-ы + grafana. Хотя если не хочется уходить от Telegraf то можно и писать тоже в VictoriaMetrics.

Sign up to leave a comment.

Articles