2
4

1 に答える 1

2

そこで、少なくともインストール後に Mesos DC/OS クラスターで HDFS が実行されていることを確認するための解決策を見つけました。

  1. dcosCLIを使用してマスターに SSH 接続します。dcos node ssh --master-proxy --leader
  2. Hadoop がインストールされた Docker コンテナーを作成して、HDFS にクエリを実行します。docker run -ti cloudera/quickstart hadoop fs -ls hdfs://namenode-0.hdfs.mesos:9001/

これが良い解決策ではない理由と注意すべき点:

  1. 以前のドキュメントはすべて のデフォルト URL を指していましたがhdfs://hdfs/、代わりにjava.net.UnknownHostException. namenode を直接指すのは好きではありません。
  2. 他のドキュメントhdfs fs ...では、クラスターに SSH 接続するときにコマンドを実行できることが示唆されていますが、これはドキュメントどおりには機能しません。
  3. HDFS にアクセスできることをテストするために使用したイメージは 4GB を超えています (より良いオプションはありますか?)
  4. これはどれも文書化されていません (または、少なくとも明確/完全ではないため、この投稿を更新し続ける理由です)。答えを見つけるために、DC/OS のスラック チャットを掘り下げる必要がありました。
  5. Mesosphere/HDFS リポジトリは、経由でインストールされる HDFS とはまったく異なるバージョンですdcos package install hdfs。そのレポはもはや維持されておらず、新しいバージョンはまだオープンソース化されていません (したがって、現在のドキュメントが不足していると思います)。

私がまだ欠けている HDFS とインターフェースする簡単な方法があることを願っています。より良い解決策はまだ非常に役に立ちます!

于 2016-08-10T19:53:27.400 に答える