35

私のシステムでは、データの挿入は常に、logstash を介して csv ファイルを介して行われます。マッピングを事前に定義することはありません。しかし、文字列を入力するたびに、常に と見なされanalyzed、その結果、次のようなエントリは, ,にhello I am Sinha分割されます。とにかく、elasticsearchのデフォルト/動的マッピングを変更して、インデックスに関係なく、タイプに関係なくすべての文字列が取得されるようにすることはできますか? または、ファイルに設定する方法はありますか?私のファイルが次のように見えるとしましょうhelloIamSinhanot analyzed.confconf

input {  
      file {
          path => "/home/sagnik/work/logstash-1.4.2/bin/promosms_dec15.csv"
          type => "promosms_dec15"
          start_position => "beginning"
          sincedb_path => "/dev/null"
      }
}
filter {

    csv {
        columns => ["Comm_Plan","Queue_Booking","Order_Reference","Multi_Ordertype"]
        separator => ","
    }  
    ruby {
          code => "event['Generation_Date'] = Date.parse(event['Generation_Date']);"
    }

}
output {  
    elasticsearch { 
        action => "index"
        host => "localhost"
        index => "promosms-%{+dd.MM.YYYY}"
        workers => 1
    }
}

すべての文字列が必要でnot analyzedあり、将来のすべてのデータがelasticsearchに挿入されるデフォルト設定であってもかまいません

4

4 に答える 4

28

テンプレートを作成するだけです。走る

curl -XPUT localhost:9200/_template/template_1 -d '{
    "template": "*",
    "settings": {
        "index.refresh_interval": "5s"
    },
    "mappings": {
        "_default_": {
            "_all": {
                "enabled": true
            },
            "dynamic_templates": [
                {
                    "string_fields": {
                        "match": "*",
                        "match_mapping_type": "string",
                        "mapping": {
                            "index": "not_analyzed",
                            "omit_norms": true,
                            "type": "string"
                        }
                    }
                }
            ],
            "properties": {
                "@version": {
                    "type": "string",
                    "index": "not_analyzed"
                },
                "geoip": {
                    "type": "object",
                    "dynamic": true,
                    "path": "full",
                    "properties": {
                        "location": {
                            "type": "geo_point"
                        }
                    }
                }
            }
        }
    }
}'
于 2014-12-16T10:06:14.107 に答える
13

Logstash ディストリビューション (/opt/logstash/lib/logstash/outputs/elasticsearch/elasticsearch-template.json としてインストールされている可能性があります) から lib/logstash/outputs/elasticsearch/elasticsearch-template.json のコピーを作成し、置き換えて変更します。

"dynamic_templates" : [ {
  "string_fields" : {
    "match" : "*",
    "match_mapping_type" : "string",
    "mapping" : {
      "type" : "string", "index" : "analyzed", "omit_norms" : true,
      "fields" : {
        "raw" : {"type": "string", "index" : "not_analyzed", "ignore_above" : 256}
      }
    }
  }
} ],

"dynamic_templates" : [ {
  "string_fields" : {
    "match" : "*",
    "match_mapping_type" : "string",
    "mapping" : {
      "type" : "string", "index" : "not_analyzed", "omit_norms" : true
    }
  }
} ],

template変更したファイルにプラグインを出力するためのポイント:

output {
  elasticsearch {
    ...
    template => "/path/to/my-elasticsearch-template.json"
  }
}

特定のフィールドについては、このデフォルトをオーバーライドできます。

于 2014-12-15T13:02:22.653 に答える
1

レポート目的でフィールドを処理するためだけに、マッピングを更新するのは間違ったアプローチだと思います。遅かれ早かれ、フィールドでトークンを検索できるようにしたいと思うかもしれません。フィールドを「not_analyzed」に更新していて、値「foo bar」から foo を検索したい場合、それはできません。

より適切な解決策は、用語の代わりに kibana 集約フィルターを使用することです。以下のように、用語 ivr04 および ivr02 を検索します。したがって、あなたの場合、「こんにちは、私はシンハです」というフィルターを使用できます。お役に立てれば。

ここに画像の説明を入力

于 2016-11-01T10:54:02.027 に答える