aoishiの備忘録

備忘録

Zabbix Sender + LLD(ローレベルディスカバリ) + dstat + Grafanaでリソースモニタリング

はじめに

Zabbix Advent Calendar 2017 の3日目の投稿です。

リソースモニタリング方法については、色々な手法が提案されていると思いますが、今回はZabbix SenderとLLD(ローレベルディスカバリ)を使い、dstatで得られるデータを収集・グラフ化してみたいと思います。

こだわりポイントとしては2つあります。

  • dstatはオプション次第でさまざまなデータを取得することが可能です。そこで、オプション変更の都度テンプレートを修正しなくても良いように、LLDを使ってdstatのデータからアイテムをディスカバリさせます。

  • モニタリングするための導入物を減らすためにZabbixで提供されているzabbix_senderコマンドは使わず、Zabbix SenderのプロトコルPythonで独自*1に実装します。

目次

Zabbixサーバ側の準備

まず、Zabbixサーバ側の設定をします。

LLD(ローレベルディスカバリ)用の汎用的なテンプレートを作成します。

ホストグループ作成

今回の環境準備のために、ホストグループ作成します。

特にこの名前のグループでないとダメといったことはありませんので、既存のホストグループを利用しても結構です。

ここでは、下記の名前でグループを作成することとします。

項目 設定値
グループ名 Universal Sender servers

テンプレートの作成

ディスカバリルールを作成するためのテンプレートを作成します。

ホストに対してディスカバリルールを作成することもできそうですが、複数台展開のことを考慮してテンプレート化した方が後々楽できると思います。

下記のテンプレート名、そして先ほど作成したホストグループに所属させます。

項目 設定値
テンプレート名 Template Universal Sender
グループ Universal Sender servers

ディスカバリルールの作成

先に作成したテンプレートに対してディスカバリルールを作成します。

「作成したテンプレートを選択 > ディスカバリルール > ディスカバリルールの作成」で作成画面に遷移できます。

Zabbix Senderを利用するので、タイプはZabbix トラッパーとします。キーはスクリプトでZabbixサーバにデータを送る際に使うため、間違えないよう注意してください。

項目 設定値
名前 universal sender discovery
タイプ Zabbix トラッパー
キー universal.discovery

アイテムプロトタイムの作成

ディスカバリルールと同じく、先に作成したテンプレートに対してアイテムプロトタイプを作成します。

「作成したディスカバリルールを選択 > アイテムのプロトタイプ > アイテムのプロトタイプ作成」で作成画面に遷移できます。

ディスカバリルールと同様に、タイプはZabbix トラッパーとします。後にデータを送るときやグラフ化する際に名前とキーを使うため、ここも間違えないよう注意してください。

データ型は、数値データをまとめて扱うために数値(浮動小数)としています。

項目 設定値
名前 {#KEY_NAME}
タイプ Zabbix トラッパー
キー universal_sender[{#KEY_NAME}]
データ型 数値(浮動小数

ホストの作成とテンプレート割り当て

最後に、ホストを作成して先に作成したテンプレートを割り当てます。

項目 設定値
ホスト名 test_server
グループ Universal Sender servers
テンプレート Template Universal Sender

クライアント側の準備

スクリプトの配置

下記コマンドで、モニタリング対象のホストにPythonスクリプトを配置します。 dstatだけインストールされていれば、Python2,3どちらの環境でも追加パッケージ不要で実行できるはずです。

ZABBIX_SERVERとZABBIX_PORTについては、各環境に合わせて変更してください。

$ cat <<EOF > universal_sender_dstat.py
import json
import socket
import re
import csv
import subprocess
import tempfile
from datetime import datetime

# change for your environment.
ZABBIX_SERVER = "10.0.0.1"
ZABBIX_PORT = 10051


ZABBIX_HOST = 'test_server'
DSTAT = 'dstat -cdglmnprsy --tcp --udp --unix --nocolor --noheaders --output {} 1 2'
KEY_NAME = '{#KEY_NAME}'
DISCOVERY_KEY = 'universal.discovery'
ITEM_KEY = 'universal_sender[{}]'

def get_data():

  with tempfile.NamedTemporaryFile('rw') as f:

      command = DSTAT.format(f.name)
      subprocess.check_output(command, shell=True)

      f.seek(2)
      data = csv.reader(f)

      # skip header rows
      data.next()
      data.next()

      first_header_list = list()
      prev_header = ""
      for row_item in data.next():
          if row_item:
              prev_header = re.sub('\s|/', '_', row_item)
          first_header_list.append(prev_header)

      second_header_list = data.next()

      key_list = [
        'dstat.{}.{}'.format(
          first_header_list[i],
          second_header_list[i]
        ) for i in range(len(first_header_list)) ]

      # discovery data
      discovery_data = [
        {
          'host': ZABBIX_HOST,
          'key': DISCOVERY_KEY,
          'value': json.dumps({'data': [ { KEY_NAME: key } for key in key_list ]})
        }
      ]

      # sender data
      # skip first sample data
      data.next()
      item_data = [
        {
          'host': ZABBIX_HOST,
          'key': ITEM_KEY.format(key_list[i]),
          'clock': datetime.now().strftime('%s'),
          'value': value,
        } for i, value in enumerate(data.next())
      ]

      return (discovery_data, item_data)

def send(data):

    sender_data = {
        'request': 'sender data',
        'data': data,
    }
    # print(json.dumps(sender_data, indent=2, ensure_ascii=False))

    client = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
    client.connect((ZABBIX_SERVER, ZABBIX_PORT))
    client.sendall(json.dumps(sender_data))
    response = client.recv(4096)

    print('response: {}'.format(response))


if __name__ == '__main__':
  discovery_data, sender_data = get_data()

  send(discovery_data)
  send(sender_data)
EOF

なお、Zabbix Senderのプロトコルは下記フォーマットのJSONデータをSocketで送るだけの非常にシンプルな作りになっています。

[LLDのデータを送信する場合]
{
  "request": "sender data",
  "data": [
    {
      "host": "test_server", 
      "value": "{\"data\": [{\"{#KEY_NAME}\": \"dstat.total_cpu_usage.usr\"}, ... ]}", 
      "key": "universal.discovery"
    }
  ]
}

[アイテムのデータを送信する場合]
{
  "request": "sender data",
  "data": [
    {
      "host": "test_server", 
      "value": "39.547", 
      "key": "universal_sender[dstat.total_cpu_usage.usr]", 
      "clock": "1512231561"
    },
    .
    .
    .

  ]
} 

どちらのデータも基本的には同じフォーマットですが、LLDのvalueはディスカバリによって作成されるアイテム名のJSONオブジェクトが、dumpされた文字列となっているので注意してください。

モニタリング開始

データ取得の開始

下記のコマンドで、データ収集を開始します。

$ watch -n 10 python universal_sender_dstat.py

正常に動作した場合、Zabbix Senderプロトコルで通信した際のレスポンスとして、下記のメッセージが出力されます。

ZBXD\{"response":"success","info":"processed: 1; failed: 0; total: 1; seconds spent: 0.006614"}
ZBXD\{"response":"success","info":"processed: 38; failed: 0; total: 38; seconds spent: 0.000635"}

データ送信に失敗した場合は、下記のメッセージが出力されます。

ZBXD\{"response":"success","info":"processed: 0; failed: 1; total: 1; seconds spent: 0.006340"}
ZBXD\{"response":"success","info":"processed: 0; failed: 38; total: 38; seconds spent: 0.000724"}

プロトコルとしては正しく通信できているが、キーが異なるかZabbixサーバ側でまだアイテムが作成されていないために、データを受け取れていないと思われます。

また、プロトコルが不正(dstatコマンドの結果のパースに失敗してJSONデータがおかしくなった場合など)の場合には、下記のようなメッセージが表示されます。

ZBXDa{"response":"failed","info":"cannot parse as a valid JSON object: unexpected end of string data"}

データ取得結果の確認

まずは、ホストのアイテム一覧でディスカバリで作成されたアイテムが存在することを確認します。

ステータスが正常となっていれば問題ありません。

f:id:akihisa_oishi:20171202232537p:plain

次に、ホストの最新データを確認し、ディスカバリで作成されたアイテムについてデータが取得できていることを確認します。

f:id:akihisa_oishi:20171202233318p:plain

データが取得できていれば、取得時刻と値が表示されます。

取得したデータのグラフ化

Grafanaでダッシュボードを作成して取得したデータをグラフ化します。

Grafanaの導入および、Zabbixのデータソース設定方法は既に記事が多数ありますのでここでは割愛します。

最終的な見た目は下記のようになります。 f:id:akihisa_oishi:20171203003002p:plain

ダッシュボードはテンプレート機能を利用し、Zabbixのクエリでホストを選択できるようにします。

項目 設定値 説明
Name Group Host
Type Query Query
Data source Zabbixのデータソースを指定 Zabbixのデータソースを指定
Query {Universal Sender servers} {Universal Sender servers}{*}
Query の意味 Universal Sender servers のみ選択できる Universal Sender servers グループのホストが選択できる

f:id:akihisa_oishi:20171203003644p:plain

グラフ作成画面にて、テンプレート機能で作成した変数およびディスカバリで作成されたアイテム名を入力し、グラフを作成します。

項目 設定値 説明
Group $Group テンプレート機能で選択されたホストグループの変数
Host $Host テンプレート機能で選択されたホストの変数
Item /dstat.*cpu.*/ グラフ化したいアイテム名(ここではCPU系のデータを正規表現でまとめて指定)

f:id:akihisa_oishi:20171203003016p:plain

まとめ

Zabbix Senderでdstatのデータをモニタリングしてみました。

今回の方法には下記の課題がある思いますが、数値データのモニタリングに限ってしまえば妥協できるものかと思います。

  • アイテムプロトタイプを数値(浮動小数)としているため、文字列データが扱えない。
  • トリガーの設定をしようとすると大変。

まだカレンダーに空きがあるようなので、次回は今回の内容を下記観点でブラッシュアップした記事がかければと思っています!

  • watchコマンドではなくcronなどで定期実行されるようにする。
  • dstatでのデータ取得とZabbix Senderでデータ送信する処理を粗結合にし、モニタリング項目追加に拡張性を持たせる。

参考

Zabbix Sender 無しで Zabbix Server にデータを送る - mattintosh note

*1:偉そうなことを言っていますが、既に先人がおりますので、それらを参考にさせていただいています