問題タブ [filebeat]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
logging - Logstash接続へのFilebeatログ
私が何をしても、filebeatがログをdebサービス(/etc/init.d/logstash start)としてlogstashに転送するようには見えません。構成ファイルを指す端末で実行可能ファイルの logstash を実行すると、この接続が機能しているように見えます。私の構成や、logstash を切り離されたサービスとして実行する方法の理解には、少しずれがあるはずです。
環境
2 つの AWS がホストする ubuntu サーバー、接続をブロックするセキュリティ グループや nacls はありません
アプリケーション サーバーにインストールされた Filebeats
- filebeat.yml は configtest に合格します
- filebeat はサービスとして実行され続けます
マスターサーバーに deb としてインストールされた Logstash
- logstash.conf は構成テストに合格し、/etc/logstash/conf.d に保存されます
- Elasticsearch は logstash.conf でコメントアウトされています
- logstash はサービスとして実行されています
- logstash.conf パーミッション -> -rw-rw-rw-logstash logstash logconsolidated.log
- 現在、証明書/ssl/tls キー/暗号化は使用されていません
ファイルビート構成
Logstash.conf
logstash - logstash で入力を取得する方法は?
filebeat 、 packetbeat 、または topbeat をいつ使用する必要がありますか?
私はエルクスタックが初めてです。私はばかげているように聞こえるかもしれませんが、私はこれらについて本当に混乱しています。あらゆる種類の助けをいただければ幸いです。
logstash - logstash でのログのローテーション
logstash のログの入力として file を使用しています。私のログ ファイルは毎日ローテーションされるので、logstash のファイル プラグインをどのように設定すれば、毎日ローテーションされるファイルを操作できるようになるのかを知りたいと思いました。これに加えて、ファイル ビートでもログ ローテーションを利用できます。
xml - Logstash を使用して Filebeat から XML データを解析する
Filebeat を使用して Windows で XML ファイルを解析し、それらを Logstash に送信してフィルタリングし、Elasticsearch に送信しています。
Filebeat ジョブは完全に機能し、XML ブロックを Logstash に取得していますが、Logstash フィルターを誤って構成して、XML ブロックを個別のフィールドに解析し、これらのフィールドを Elasticsearch タイプにカプセル化したようです。
これが私の XML サンプル データです。
そして、ここに私のlogstash構成ファイルがあります:
ファイルビート構成:
そして、標準出力とファイル出力の両方の一部を次に示します。
elasticsearch - ELK Kibana にフィールドを追加するにはどうすればよいですか
KibanaでELKを使用しています。
また、データを Logstash に送信するために filebeat を使用しています。
私が作成したものはこのように見えます
Beat と同じように、ホスト名と名前のような 2 つのフィールドがあることを知りたいです。environment: dev
それに基づいてメッセージをフィルタリングできるように、キバナで見ることができるようなフィールドをさらに追加することは可能です か
elasticsearch - 一元化された ELK と一元化された EK + 複数の Logstash
社内のすべての製品チームに共通のログ インターフェイスを設定したいと考えています。これにはELKを選択しました。セットアップに関するアドバイスが必要です。
1 つの方法は、集中型の ELK を設定することです。すべてのチームは、FileBeat などの何らかのログ フォワーダーを使用して、共通のログスタッシュにログを送信できます。これに関する問題は次のとおりです。チームがログメッセージを分析するためにログにフィルターを使用したい場合、Beats は Groking やその他のフィルタリングをサポートしていないため、共通の ELK マシンにアクセスしてフィルターを追加する必要があります。
2 番目の方法は、チームごとに異なる Logstash サーバーを用意し、それらすべてが共通の Elastic Search サーバーを指すようにすることです。このようにして、チームは grok フィルターを自由に変更/追加できます。
何か不足している場合や、理解が間違っている可能性がある場合は、教えてください。他のアイデアは大歓迎です。
logstash - filebeatはlogstashではなくエラスティックサーチにログを直接送信しています
すべての index を削除したため、この問題に直面しています。そのために、次のコマンドを実行しました
ファイルビート.yml
およびlogstash構成ファイル入力構成
および出力設定
問題は、ログが logstash を介して送信されないことです。kibana に追加された新しいフィールドが表示されず、apche-access ログの場合、タイプの値としてログのみが存在するため、これらは直接送信されます。