0

Linux 環境で hdfs (apache hadoop) を構成して起動することができました。HADOOP ECLIPSE PLUGIN で Hadoop の Eclipse 環境をセットアップする方法をいくつか試しました。eclipse によって認識されるプラグイン jar のみが 1280 jira の問題にあり、hadoop src からの eclipse プラグインの構築など、他の方法では認識さえされません。1280 リンクからパッチを適用した jar には、「127.0.0.1:3515 EOFException に接続できません」と表示されます。また、多くのブログ/フォーラムでは、Hadoop にパッチを適用したり、さまざまなツールを使用してビルドしたりするさまざまな方法について述べています。開発者が環境をすばやく取得してさまざまな例に取り組むことができるように、Eclipse で構成する安定した Hadoop プロジェクトはありませんか? Cloudera VM を使用したくありません。なぜなら、hadoop を通常の方法で理解できなくなり、インストールは大きなファイルを扱うプロセスになるからです。

ありがとうチャクリ

4

3 に答える 3

0

@Claudiaは、新しいhadoopの場所を作成する際のこの設定以外に、高度なパラメータの変更に関連するものはありますか? 一般タブでは、ポートは正しいですが、それでも例外が発生します - エラー: localhost/127.0.0.1:9000 への呼び出しが接続例外で失敗しました: java.net.ConnectException: 接続が拒否されましたマスターノードは、Eclipse がインストールされている同じノードです.

于 2012-12-17T14:36:49.087 に答える
0

Hadoop を正常にインストールしましたか? 私の 0.20.2 Hadoop セットアップでは、次の手順で機能する Eclipse プラグインを取得できました (コマンド ライン経由で Hadoop 自体をインストールした後)。

  1. Eclipse をセットアップし、プラグインをコピーして再起動します。パッチを適用したプラグインを使用します ( hadoop -eclipse-plugin-0.20.3-SNAPSHOT.jar をローカルの Eclipse/plugins フォルダーに追加します)。
  2. Map/Reduce パースペクティブに切り替えます。Map/Reduce Locations タブが表示されない場合は、Window->Show View->Other に移動してアクティブにします。hdfs (Hadoop セットアップの core-site.xml にあります) と mapreduce ジョブ (mapred-site.xml にあります) の正しいポートが実行されていることを確認してください。
  3. Eclipse プラグインの「DfS Locations」は、追加されたばかりの新しいデータを表示するために手動で更新する必要があるため、ファイルを右クリックして HDFS にアップロードする場合は、必ず更新してください。
  4. Eclipse で新しい Hadoop プロジェクトを作成するには、[New Project] -> [Map/Reduce Project] に移動します。
于 2012-11-20T14:40:50.813 に答える