問題タブ [splunk]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
splunk - 別のSplunkクエリの結果を使用したSplunk結果のフィルタリング
splunkでクエリを使用し、フィールドのリストを抽出してから、これらの結果フィールドを使用して、後続のsplunkクエリをさらにフィルタリングしたいと思います。どうすればよいですか?
fifo - Syslog-ng、ログファイル、fifo ファイル
syslog fifo とログ ファイルについて質問があります。
たとえば、gc.logがあり、syslogにこの構成があります
splunk でこの gc.log のインデックスを作成します。しかし、この方法では CPU の消費が高くなり、このログ ファイルのインデックス作成方法を変更したいと考えています。
fifo ファイルによるインデックス作成を行いたいのですが、アプリケーションがこのログ ファイルを生成する方法を変更できません。
これどうやってするの ?
logging - ロギングサービスalasplunk、papertrailなど
Papertrailは、Webhookを介してログに記録されたイベントに反応できるクラスの唯一のサービスですか?
ホストされたロギングソリューションは、SplunkstormやPapertrailのように私が探しているものです。
regex - ホスト名によるフィルタリング用の Splunk Regex
私はsplunkにかなり慣れていません。3 つの hbase クラスターがあり、そのすべてに複数の ZooKeeper ノードとリージョン サーバーがリストされています。
クラスタ 1
クラスター2
Cluster3
特定のクラスターを中心としたログをフィルター処理しようとしています。そのため、ジェネレーターを使用して、host="test101.blah.com" or host=test102.blah.com"..or host="test199.blah.com"
このようなフィルター ステートメントを作成し、他のクラスターに対しても同じクエリを作成しました。
私はそれが非効率であることを知っています。正規表現または splunk によるパターン マッチングを介してこれを行う効率的な方法はありますか?
openshift - Splunk Universal Forwarder を OpenShift にインストールする
グーグルで検索してみましたが、運が悪く、公式のメーリングリストを検索してみましたが、情報もありませんでした。
Splunk Universal Forwarder を OpenShift プラットフォームにインストールすることはできますか?
python - 特定のテキストで終わるすべてのキャラクターとイベントを収集したいですか?
指定したテキストの前またはそれで終わるすべてのデータを収集したいので、次のことを試しました。
ただし、指定された終了テキストの前に収集する文字数を指定する必要があります。すべてを収集したいだけです (ここで Python/Perl 正規表現を扱っていることに注意してください)。
comparison - 2 つの異なる Splunk 検索の 2 つの列の値を比較する
私は splunk を初めて使用し、2 つの異なるクエリの 2 つの列の値を比較する際に問題に直面しています。
クエリ 1
クエリ 2
これらは私の2つの異なるクエリです。A_from
列の各値と列の各値を比較しB_from
、値が一致する場合は、それらの値を表示しますA_from
。
出来ますか?
2 つのクエリを個別に実行し、それぞれの結果を csv にエクスポートしてvlookup
関数を使用しました。しかし問題は、エクスポートできるデータの最大行数が 10000 に制限されているため、データ検索に 10000 を超えるレコードがあるため、多くのデータを見逃すことです。何か助けはありますか?
logging - splunk へのインポート時にフィールドを抽出するための Azure WAD ログ データのインデックス作成
Windows azure WADLogs からのデータがあります。これをカンマ区切りでエクスポートすると、次のようになります。
"0635010205200000000","d921c47290f944a69c3394373b5c5988___Pricing.Api___Pricing.Api_IN_0___0000000001652031516___WADLogsLocalQuery",2013-04-08T12:24:04.8000293Z,635010205409475113,"deploymentid","Role","Role_IN_0",5,2,608,3232,"TimeTaken::16043 ms to perform Action::'some action'; TraceSource 'PricingApiTrace' event"
値が 16043 の TimeTaken と値が 'some action' の Action というフィールドを抽出したいと考えています。
'"TimeTaken' で始まるビットのフォーマットを変更することで作業が簡単になる場合は変更できますが、それを読んだ後、:: 上記のフォーマットを使用してフィールドを自動的に作成するインデックス作成が自動的に作成されることを望んでいましたが、そうではないということです。
ポインタはありますか?
bigdata - splunk と Cordys オペレーション インテリジェンス
Cordys オペレーション インテリジェンス (COI) は Splunk の代わりになりますか?
私は COI を使用したことはありませんが、ビデオやドキュメントを見ると、リアルタイムのビッグデータからオペレーション インテリジェンスを提供するという点で Splunk ができることと非常によく似ているように思えます。