Как стать автором
Обновить

Комментарии 22

Для сбора статистики и тд не смотрели на sensu?
Нет, спасибо за наводку, выглядит интересно.
А еще вкупе с сенсу есть riemann.io/
Типа riemann есть еще bosun и heka — они может быть более просты будут чем riemann (сам я пока ни до одной из них не добрался :-) )
logstash+elasticsearch+kibana не пробовали?
Logstash отдельно немного пробовали, разбирали логи Greenplum. Опыт был очень интересный, всё что хотели — получилось, однако дальше разбора не пошли — оказалось намного проще создавать в Greenplum внешние таблицы, смотрящие на файлы логов, и уже их анализировать и визуализировать.
А как-то решали вопросы агрегации множества e-mail уведомлений в одно? Чтобы некритические уведомления по email отсылались не в режиме 1 уведомление — 1 письмо, а раз в минуту—15 все накопленные алерты объединялись и отсылался дайджест — мол на таких то хостах были такие-то изменения триггеров.

Я готовое решение для себя не нашел, когда занимался заббиксом; пришлось делать связку:

bash-скрипт помещения алерта в очередь (отдельным media type в zabbix) => rabbitmq => скрипт по крону разбирает очередь, аггрегирует и отсылает email.
Мы тоже не используем готовое решение. В тех приложениях, где возможна отсылка большого числа алертов, используем очень похожий процесс, только реализован он на SAS Base (исторически так сложилось, что на SAS написана большая часть DWH-инфраструктуры).
Спасибо, очень интересно!
Вы не пробывали забирать данные для Grafana из Заббикса?
Спасибо! Рад, что вам понравилось :)
Нет, не пробовали, но были мысли об обратной интеграции — отсылать метрики diamond'ом в zabbix. Навскидку то, о чем говорите вы, вполне реально — можно попробовать забирать данные zabbix напрямую из её БД (повторюсь, это лишь мысли вслух, надо покопаться).
Попробую покопаться :)
Вау. Это очень и очень круто, спасибо за ссылку.
А Вы пробовали?
Я создал датасорс, который вытаскивает через Zabbix API одну метрику, но чтоб это было удобно нужно написать editor метрик, документации нет нормальной.
У меня были пока только мысли, к сожалению. Хочу более пристально посмотреть в этом направлении после этой статьи :)
Дмитрий, возможно вам стоило поинтересоваться у своих коллег как использовать для подобных задач: Splunk and SaltStack.
Или у вас возникли какие-то проблемы с интеграцией данных решений?
И да splunk умеет дружить c hadoop, a salt использует zeromq or raet и умеет отдавать и собирать метрики ОЧЕНЬ быстро. Например по средствам splunk sdk отправлять данные напрямую в индексеры splunk… вешать на них триггеры, прогнзировать события и строить красивые dashboards ;)
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Да, аутентификация в версии 2.0 работает ок, правда, в дальнейшем хотелось бы увидеть интеграцию с AD. В InfluxDB пока пугает отсутствие функций для обработки данных в метриках.
Collectd и Diamond сравнивали? Если да, почему Diamond выбрали?
Спасибо, пофиксили старые ссылки, теперь всё работает.
Зарегистрируйтесь на Хабре , чтобы оставить комментарий