1 に答える
2
そこで、少なくともインストール後に Mesos DC/OS クラスターで HDFS が実行されていることを確認するための解決策を見つけました。
dcos
CLIを使用してマスターに SSH 接続します。dcos node ssh --master-proxy --leader
- Hadoop がインストールされた Docker コンテナーを作成して、HDFS にクエリを実行します。
docker run -ti cloudera/quickstart hadoop fs -ls hdfs://namenode-0.hdfs.mesos:9001/
これが良い解決策ではない理由と注意すべき点:
- 以前のドキュメントはすべて のデフォルト URL を指していましたが
hdfs://hdfs/
、代わりにjava.net.UnknownHostException
. namenode を直接指すのは好きではありません。 - 他のドキュメント
hdfs fs ...
では、クラスターに SSH 接続するときにコマンドを実行できることが示唆されていますが、これはドキュメントどおりには機能しません。 - HDFS にアクセスできることをテストするために使用したイメージは 4GB を超えています (より良いオプションはありますか?)
- これはどれも文書化されていません (または、少なくとも明確/完全ではないため、この投稿を更新し続ける理由です)。答えを見つけるために、DC/OS のスラック チャットを掘り下げる必要がありました。
- Mesosphere/HDFS リポジトリは、経由でインストールされる HDFS とはまったく異なるバージョンです
dcos package install hdfs
。そのレポはもはや維持されておらず、新しいバージョンはまだオープンソース化されていません (したがって、現在のドキュメントが不足していると思います)。
私がまだ欠けている HDFS とインターフェースする簡単な方法があることを願っています。より良い解決策はまだ非常に役に立ちます!
于 2016-08-10T19:53:27.400 に答える