私のシステムでは、データの挿入は常に、logstash を介して csv ファイルを介して行われます。マッピングを事前に定義することはありません。しかし、文字列を入力するたびに、常に と見なされanalyzed
、その結果、次のようなエントリは, ,にhello I am Sinha
分割されます。とにかく、elasticsearchのデフォルト/動的マッピングを変更して、インデックスに関係なく、タイプに関係なくすべての文字列が取得されるようにすることはできますか? または、ファイルに設定する方法はありますか?私のファイルが次のように見えるとしましょうhello
I
am
Sinha
not analyzed
.conf
conf
input {
file {
path => "/home/sagnik/work/logstash-1.4.2/bin/promosms_dec15.csv"
type => "promosms_dec15"
start_position => "beginning"
sincedb_path => "/dev/null"
}
}
filter {
csv {
columns => ["Comm_Plan","Queue_Booking","Order_Reference","Multi_Ordertype"]
separator => ","
}
ruby {
code => "event['Generation_Date'] = Date.parse(event['Generation_Date']);"
}
}
output {
elasticsearch {
action => "index"
host => "localhost"
index => "promosms-%{+dd.MM.YYYY}"
workers => 1
}
}
すべての文字列が必要でnot analyzed
あり、将来のすべてのデータがelasticsearchに挿入されるデフォルト設定であってもかまいません