cyberflow_gravatar

Cyberflow

I am linux system administrator.


Navigation
» Home
» Categories
» Github
» XML Feed

Cyberflow


    send kapacitor alert to Icinga 2

    08 Dec 2017 | Comments

    Сталкнулся с необходимостью мониторить метрики собираймые с хостов при помощи telegraf.

    Описание задачи

    Есть хост с icinga2 занимающийся мониторингом разного и рассылающий алерты соответствующим людям. Так же есть метрики с хостов, собираемые telegraf, хранящиеся в influxdb. Нужно реагировать на метрики и присылать алерты с incinga2.

    Реагирование на метрики

    Можно насти разные подходы для процуссинга метрик с хоста, но разработчики influxdb имеют специализированный engine для этой задачи. Дополнительно он решает вопрос реагирования на пики между активными проверками. А этот вопрос обязательно возникнет, если выбрать подход опроса influxdb активными проверками со стороны icinga2. Таким образом мы вибираем подход в котором данные с хостов процессятся в kapacitor.

    Тестирование сайта на jekyll и авто-deploy на github pages

    19 Jun 2016 | Comments

    Как и все в IT сайт нуждается в тестировании. Качество и количество тестов зависит от функциональности и значения сайта. Для своего блога я то же решил использовать тесты. Ну а так как все системные администраторы жутко ленивы, то и настроить автоматическую выкладку новых статей на github pages (в моем случае через travis-ci)

    html-proofer

    Первым инструментом тестирования я выбрал html-proofer. Он позволяет проверять ссылки сайта, правильность оформления изображений а так же работоспособность внутренних и внешних скриптов. Для работы нужно установить gem или добавить строчку в Gemfile:

    gem 'html-proofer'
    

    Миграция старых indices elasticsearch на другую ноду

    03 Jun 2016 | Comments

    Я использую elasticsearch для централизованного хранения логов с серверов. Логов хранится много и каждый новый индекс ест ресурсы на сервере (статью об оптимизации используемых ресурсов для одной ноды можно посмотреть здесь). Однако это решение не спасает при хранении логов за очень большие периоды, в связи с чем я решил рассмотреть вариант хранения старых логов на отдельном сервере.

    Т.к. речь идет именно о логах, то шансы изменения данных из прошлого стремятся к нулю. Это позволяет нам не думать о необходимости записи в старые индексы и просто хранить их на сервере (например более дешевом с медленными дисками). Генеральная идея состоит в том, чтобы добавить дополнительную ноду данных в кластер и распределять индексы (indices) в зависимости от времени их создания.

    Оптимизация standalone сервера elasticsearch

    12 May 2016 | Comments

    При использовании elasticsearch для сбора и анализа логов возникает вопрос оптимизации для одного сервера. Т.к. elasticsearch расчитан для использования в кластере, то большинство настроек “по умолчанию” выставлены так, что один сервер работает не эффективно. В этой заметке я разберу несколько примеров оптимизации elasticsearch для работы на одном сервере.

    Grafana/nginx auth proxy httpaswd

    17 Mar 2016 | Comments

    Краткое описание настройки Grafana (> 2.0) и nginx с использованием auth basic авторизации через файлы htpasswd.

    Необходимые настройки конфига Grafana:

    [server]
    protocol = http
    http_port = 3000
    domain = localhost
    http_addr = 127.0.0.1
    ...
    [auth.basic]
    enabled=false
    [users]
    allow_sign_up = false
    auto_assign_org = true
    auto_assign_org_role = Editor
    [auth.proxy]
    enabled = true
    header_name = X-WEBAUTH-USER
    auto_sign_up = true