0

ラックスペースにインストールされた ambari を使用して、5 ノード用のバージョン PHD3.0 Hadoop クラスターがあります。Google クラウド (GCP) に移行する必要があります。

しかし、手順が得られない

Q1 : 古いマシンから新しいマシンにデータ、メタデータ構成を移行するにはどうすればよいですか。(古いマシンのバージョンは cantos 6.5 で、ターゲット マシンのバージョンは centos 6.5 です)

Q2 : バックアップするコンポーネントとフォルダは? コマンドは何ですか?

Q3 : nameode と datanode のバックアップ方法を教えてください。

Q4 : ambari データベースもバックアップする必要がありますか?

それについて何か助けていただければ幸いです。

4

1 に答える 1

1

個人的には、GCP で Hadoop クラスタをプロビジョニングし、distcp を使用してデータを新しいクラスタに移動することを好みます。hawq 管理テーブルの場合、データを hdfs に移動してから distcp を実行します。AWS でデータを s3 に移動し、hadoop にインポートし直すことがありました。

于 2017-02-02T00:19:50.557 に答える