0

HPCC/HDFSコネクタについて知っている人はいますか.HPCCとHADOOPの両方を使用しています.HPCCクラスタがHDFSデータにアクセスできるようにするHPCCによって開発されたユーティリティ(HPCC/HDFSコネクタ)が1つあります

コネクタをインストールしましたが、プログラムを実行して hdfs からデータにアクセスすると、libhdfs.so.0 が存在しないためエラーが発生します。

コマンドを使用してlibhdfs.soをビルドしようとしました

 ant compile-libhdfs -Dlibhdfs=1

それは私にエラーを与えます

ターゲット「compile-libhdfs」がプロジェクト「hadoop」に存在しません

もう1つのコマンドを使用しました

 ant compile-c++-libhdfs -Dlibhdfs=1

その与えるエラー

アイビー ダウンロード:

  [get] Getting: http://repo2.maven.org/maven2/org/apache/ivy/ivy/2.1.0/ivy-2.1.0.jar

  [get] To: /home/hadoop/hadoop-0.20.203.0/ivy/ivy-2.1.0.jar

  [get] Error getting http://repo2.maven.org/maven2/org/apache/ivy/ivy/2.1.0/ivy-2.1.0.jar

/home/hadoop/hadoop-0.20.203.0/ivy/ivy-2.1.0.jar へ

ビルドに失敗しました java.net.ConnectException: 接続がタイムアウトしました

どんな提案も大きな助けになります

4

1 に答える 1

0

Chhaya さん、hadoop のインストール方法によっては、libhdfs.so をビルドする必要がない場合もあります。

チェックインHADOOP_LOCATION/c++/Linux-<arch>/lib/libhdfs.soHADOOP_LOCATIONは Hadoop のインストール場所、archはマシンのアーキテクチャ (i386-32 または amd64-64) です。

lib を見つけたら、H2H コネクタが正しく構成されていることを確認します (こちらの 4 ページを参照)。

HADOOP_LOCATION構成ファイルの var を更新するだけです。/opt/HPCCSystems/hdfsconnector.conf

幸運を。

于 2012-06-19T20:50:53.053 に答える