8

GCE (Google Compute Engine) に 2 つのノードを持つElasticsearch環境が構成されているため、2 つの VM があり、このためのバックアップ戦略を作成する必要があります。API はスナップショットを保存するいくつかの方法をサポートしているため、 elasticsearchスナップショット API を使用してすべてのデータを特定のストレージにバックアップできると最初に考えました。

  • NAS などの共有ファイルシステム
  • アマゾンS3
  • HDFS (Hadoop 分散ファイル システム)
  • アズール クラウド

共有ファイルシステム オプションを使用しようとしましたが、ノード間でストアの場所を共有する必要があります。GCEでこれを行う方法はありますか?

curl -XPUT http://x.x.x.x:9200/_snapshot/backup -d '{
    "type": "fs",
    "settings": {
        "compress" : true,
        "location": "/elasticsearch/backup"
    }

}'

nested: RepositoryVerificationException[[backup] store location [/elasticsearch/backup] is not shared between node

バックアップを保存するための Elasticsearch 用の AWS プラグインがあることは知っています。Google Cloud Storage 用のプラグインはありますか? それは可能ですか?

上記の代替手段のいずれかが不可能な場合、データをバックアップするための他の推奨戦略はありますか?

4

3 に答える 3

2

Elasticsearchには Google Cloud Storage 用のプラグインが含まれるようになったため、これはネイティブでサポートされています。

于 2016-10-05T17:23:23.867 に答える
0

Google Cloud の ES クラスタ (5 ノード) で同じ問題が発生しています。私の場合、すべてのノードにすべてのデータがあるわけではないため、Jon が上記で述べたように、実際のディスクでローカル バックアップを使用することはできません。

「共有ファイルシステム」オプションを使用できるように、大きなディスクを備えた小さなマシンを作成し、そのディスクを同じパスにある5つのESノードすべてに共有ドライブとしてマウントすることが唯一の方法のようです。

于 2015-06-17T10:33:44.737 に答える
0

相互運用性を確保するために、Google Cloud Storage で S3 プラグインを使用できる場合があります。詳しくはこちらのページをご覧ください。

または、ファイル システムに通常のバックアップを作成し、gsutil を使用してクラウド ストレージにアップロードすることもできます。

于 2015-02-04T19:01:29.737 に答える