インデックスのすべてのデータとその設定およびマッピングを含むダンプ ファイルを作成する方法はありますか?
mongoDB がmongodump で行うのと同様の方法で、
または Solr の場合と同様に、そのデータ フォルダーがバックアップの場所にコピーされます。
乾杯!
インデックスのすべてのデータとその設定およびマッピングを含むダンプ ファイルを作成する方法はありますか?
mongoDB がmongodump で行うのと同様の方法で、
または Solr の場合と同様に、そのデータ フォルダーがバックアップの場所にコピーされます。
乾杯!
Elasticsearch はすぐに使用できるスナップショット機能をサポートしています。
https://www.elastic.co/guide/en/elasticsearch/reference/current/modules-snapshots.html
複数のシャードを持つことができるため、データ自体は 1 つ以上の lucene インデックスです。また、バックアップする必要があるのはクラスターの状態です。これには、クラスター、使用可能なインデックス、それらのマッピング、構成されているシャードなどに関するあらゆる種類の情報が含まれています。
それはすべてdata
ディレクトリ内にありますが、コピーするだけです。その構造は非常に直感的です。コピーする直前に、自動フラッシュを無効にし (インデックスの一貫したビューをバックアップし、ファイルのコピー中に書き込みを回避するため)、手動フラッシュを発行し、割り当ても無効にすることをお勧めします。すべてのノードからディレクトリをコピーすることを忘れないでください。
また、elasticsearch の次のメジャー バージョンでは、新しいスナップショット/復元 API が提供される予定です。これにより、増分スナップショットを実行し、API を介してそれらを復元することもできます。関連する github の問題は次のとおりです: https://github.com/elasticsearch/elasticsearch/issues/3826。
http リクエストによって JSON 形式で Elasticsearch データをダンプすることもできます:
https://www.elastic.co/guide/en/elasticsearch/reference/current/search-request-scroll.html
CURL -XPOST 'https://ES/INDEX/_search?scroll=10m'
CURL -XPOST 'https://ES/_search/scroll' -d '{"scroll": "10m", "scroll_id": "ID"}'
Elasticsearch から出る途中でデータを処理したい場合は、Logstash を使用することをお勧めします。便利なElasticsearch Input Pluginがあります。
そして、CSV ファイルから別の Elasticsearch クラスターでのデータの再インデックス作成まで、あらゆるものにエクスポートできます。後者の場合は、Elasticsearch 独自の Reindexもあります。