0

ここにある例を実行しようとしています: http://thysmichels.com/2012/01/31/java-based-hdfs-api-tutorial/

しかし、Java プログラムをコンパイルしようとすると、パッケージが存在しないというエラーが表示されます。

error: package org.apache.hadoop.conf does not exist
import org.apache.hadoop.conf.Configuration;

Hadoop 1.0.4 がインストールされ、正常に動作します。hdfsを扱うために私が見たすべてのチュートリアルは、以前に提供したリンクのようなプログラムから始まり、必要な特別な前提条件については触れていません。だから私はこれをコンパイルするために何をする必要があるのだろうか?適切なパッケージを指すようにクラスパスを編集する必要があると思いますが、それらがどこにあるのかわかりません。

また、次の手順に従って、単一ノードクラスターで Ubuntu 12.04、Hadoop 1.0.4 を実行しています: http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-集まる/

4

1 に答える 1

1

いくつかの基本的な Java コンパイルの基本をブラッシュアップすることをお勧めします。

javac HDFSExample.javaクラスパスにいくつかの依存関係 jar を含める必要があるという点で、単なる - 以上のことを行う必要があります。もっと似たものjavac -cp hadoop-core-1.0.4.jar HDFSExample.java

個人的には、ビルド ツール (Maven、Ant など) または IDE の使用を検討することをお勧めします。これにより、コードをパッケージに整理し始め、複数の外部ライブラリに依存する場合の負担が大幅に軽減されます。

EDIT : たとえば、maven の構成は次のように単純です (わかりました、他のボイラープレートの pom 宣言の一部は含まれていません..):

<dependencies>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-core</artifactId>
        <version>1.0.4</version>
        <scope>provided</scope>
    </dependency>
<dependency>

次に、jar にコンパイルします。

#> mvn jar
于 2012-12-04T00:21:28.543 に答える