2

Pentaho のHDFS VFSを使い始めたばかりで、このプロジェクトについてあまり知りません。Hadoop 構成ファイルを外部の場所から読み取ろうとしています。これは、hdfs-site.xmlを除くすべてのファイルで正常に機能するようです。Pentaho HDFS VFS プロジェクトを介して HDFS と通信しようとすると、VFS レイヤーで障害が発生します。私の直感は、pentaho が何らかの環境変数または他の外部ポインターを介してこのファイルを読み取っていることを教えてくれますが、ソースでそれを見つけることができないようです。hdfs-site.xml ファイルをコンパイル済みのwarファイルに手動で配置すると、すべて正常に動作しますが、他のプロセスで変更できるように、このファイルを外部の場所に置く必要があるため、これでは十分ではありません。

以前にこの問題に対処した人はいますか? pentaho にこのファイルをどこから取得するかを伝える方法を教えてください。

ありがとう

4

2 に答える 2

0

そこで、pentaho hdfs を機能させる方法を見つけました。あとは、hdfs-site.xml をクラスパスに追加するだけです。jarファイルを開始するときにこれを行いました:

java -jar start.jar --lib=/etc/hadoop/conf.cloudera.yarn1

/etc/hadoop/conf.cloudera.yarn1 は hdfs-site.xml が存在するディレクトリです。

于 2015-05-27T01:47:53.770 に答える