0

プライマリ Elasticsearch クラスター (marveltest) を監視するために別のクラスター (kibanacluster) をセットアップしようとしています。以下は、私が使用している ES、Marvel、および Kibana のバージョンです。ES版は当分の間修正されます。必要に応じて、他のコンポーネントを更新またはダウングレードできます。

  • キバナ-4.4.1
  • エラスティックサーチ-2.2.1
  • marvel-agent-2.2.1

監視クラスターと Kibana は両方ともホスト 192.168.2.124 で実行され、プライマリ クラスターは別のホスト 192.168.2.116 で実行されます。

192.168.2.116: エラスティックサーチ.yml

marvel.agent.exporter.es.hosts: ["192.168.2.124"]
marvel.enabled: true
marvel.agent.exporters:

id1:
    type: http
    host: ["http://192.168.2.124:9200"]

DEBUGモニタリング クラスタのログを見ると、データがプライマリ クラスタから来ていることがわかりますが、クラスタ名が異なるため、「フィルタリング」されています。

[2016-07-04 16:33:25,144][DEBUG][transport.netty] [nodek] ノードに接続 [{#zen_unicast_2#}{192.168.2.124}{192.168.2.124:9300}]

[2016-07-04 16:33:25,144][DEBUG][transport.netty] [nodek] ノードに接続 [{#zen_unicast_1#}{192.168.2.116}{192.168.2.116:9300}]

[2016-07-04 16:33:25,183][DEBUG][discovery.zen.ping.unicast] [nodek] [1] {node1}{Rmgg0Mw1TSmIpytqfnFgFQ}{192.168.2.116}{192.168.2.116 からの応答を除外する: 9300}、同じ cluster_name [marveltest] ではありません

[2016-07-04 16:33:26,533][DEBUG][discovery.zen.ping.unicast] [nodek] [1] {node1}{Rmgg0Mw1TSmIpytqfnFgFQ}{192.168.2.116}{192.168.2.116 からの応答を除外する: 9300}、同じ cluster_name [marveltest] ではありません

[2016-07-04 16:33:28,039][DEBUG][discovery.zen.ping.unicast] [nodek] [1] {node1}{Rmgg0Mw1TSmIpytqfnFgFQ}{192.168.2.116}{192.168.2.116 からの応答を除外する: 9300}、同じ cluster_name [marveltest] ではありません

[2016-07-04 16:33:28,040][DEBUG][transport.netty] [nodek] [{#zen_unicast_2#}{192.168.2.124}{192.168.2.124:9300}] からの切断は、明示的な切断呼び出し [ 2016-07-04 16:33:28,040][DEBUG][discovery.zen] [nodek] フィルタリングされた ping 応答: (filter_client[true], filter_data[false]) --> ping_response{node [{nodek}{vQ- Iq8dKSz26AJUX77Ncfw}{192.168.2.124}{192.168.2.124:9300}]、id[42]、マスター [{nodek}{vQ-Iq8dKSz26AJUX77Ncfw}{192.168.2.124}{192.168.2.124:9300}]、hasJoinedOnce [true]、 cluster_name[キバナクラスター]}

[2016-07-04 16:33:28,053][DEBUG][transport.netty] [nodek] [{#zen_unicast_1#}{192.168.2.116}{192.168.2.116:9300}] からの切断は、明示的な切断呼び出し [ 2016-07-04 16:33:28,057][DEBUG][transport.netty] [nodek] ノードに接続 [{nodek}{vQ-Iq8dKSz26AJUX77Ncfw}{192.168.2.124}{192.168.2.124:9300}]

[2016-07-04 16:33:28,117][DEBUG][discovery.zen.publish] [nodek] サイズ 5589 の完全なクラスター状態バージョン 32 を受け取りました

4

1 に答える 1

0

問題は、 Marvel 1.x 設定Marvel 2.2 設定の使用を混在させていることですが、Andrei がコメントで指摘したように、他の構成もオフになっているようです。

marvel.agent.exporter.es.hosts: ["192.168.2.124"]

これは Marvel 2.x で認識されている設定ではありません。また、コピー/貼り付けによっては、空白が原因で YAML の形式が正しくない可能性もあります。

marvel.agent.exporters:

id1:
    type: http
    host: ["http://192.168.2.124:9200"]

これは次のようになります。

marvel.agent.exporters:
  id1:
    type: http
    host: ["http://192.168.2.124:9200"]

Andrei がほのめかしていたように、本番ノードを に追加した可能性が高くdiscovery.zen.ping.unicast.hosts、クラスタに参加させようとします。監視クラスターでその設定を完全に削除できると思います。

[2016-07-04 16:33:26,533][DEBUG][discovery.zen.ping.unicast] [nodek] [1] filtering out response from {node1}{Rmgg0Mw1TSmIpytqfnFgFQ}{192.168.2.116}{192.168.2.116:9300}, not same cluster_name [marveltest]

これは、他のノード ( node1) が同じクラスターにないため、接続しているノードも無視していることを示しています。


個別の監視クラスターをセットアップするのは非常に簡単ですが、最初に可動部分を理解する必要があります。

  1. 少なくとも1 つのノードを持つ別のクラスターが必要です(ほとんどの人は 1 つのノードで十分です)。
    • この個別のクラスターは、監視対象のクラスターに関する情報を実質的に持っていません。データのみを受信します。
  2. 本番クラスターからその別のクラスターにデータを送信する必要があります。
  3. 監視クラスターは、Kibana + Marvel UI プラグインを使用してデータを解釈し、グラフを表示します。

だから、あなたが必要とするもの:

  • 運用クラスターはmarvel-agent、各ノードにインストールする必要があります。
  • 各ノードは、エクスポーターを構成する必要があります。

これは以前と同じです:

marvel.agent.exporters:
  id1:
    type: http
    host: ["http://192.168.2.124:9200"]
  • Kibana は監視クラスター (192.168.2.124この例では) と通信する必要があり、Kibana には同じバージョンの Marvel UI プラグインが必要です。
于 2016-07-12T17:25:13.523 に答える