次のようなエラスティック クエリの出力を JSON ファイルで提供してくれた顧客がいます。
{
"took": 74,
"timed_out": false,
"_shards": {
"total": 1,
"successful": 1,
"skipped": 0,
"failed": 0
},
"hits": {
"total": 169905,
"max_score": 1,
"hits": [
{
"_index": "myindex",
"_type": "data",
"_id": "46c40732-71b6-4d30-96de-d38d6fc88b6786c7b6e758a4e927a8beb906a52cfc47d00f58bb472fc031fadac042591d7400",
"_score": 1,
"_source": {
"reqSize": 0,
...
"respCode": 0
}
},
{
"_index": "myindex",
"_type": "data",
"_id": "46c40732-71b6-4d30-96de-d38d6fc88b67f3edcdcee2f1710aac0325ecfc190addcfdb842f3efa3ce391306c9ca2eaf628",
"_score": 1,
"_source": {
"reqSize": 0,
...
"respCode": 0
}
}, ...
ご覧のとおり、ほぼ 170.000 のレコードがあります。このデータをテスト Elastic に取り込みたいと考えています。取り込む必要があるデータは、_source にあるものです。これをファイルから抽出するにはどうすればよいですか? 入力がJSONファイルにある場合、logstashはそれを行うための適切なツールですか?
ご提案いただきありがとうございます。ハ