1

ハイブで単純な選択クエリを実行しているときに、この奇妙なエラーが発生します

java.lang.IllegalArgumentException: Wrong FS: file://usr/lib/hive/lib/CustomUDFint.jar, expected: file:///
    at org.apache.hadoop.fs.FileSystem.checkPath(FileSystem.java:410)
    at org.apache.hadoop.fs.RawLocalFileSystem.pathToFile(RawLocalFileSystem.java:56)
    at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:379)
    at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:251)
    at org.apache.hadoop.fs.FileUtil.copy(FileUtil.java:207)

グーグルで、テーブルの場所のハイブメタデータが間違った場所を指していることに言及しているすべてのリンクを見つけました。

これがそうである理由は何ですか?どうすれば修正できますか?

ありがとう、

4

2 に答える 2

2

HADOOP_HOME が適切な値に設定されていることを確認してください。どの Hadoop リリースを使用していますか?Hive シェルを介して NN の場所を設定してみて、役立つかどうかを確認してください。

hive -hiveconf fs.default.name=localhost

構成に従ってlocalhostを変更します。

于 2013-07-10T04:04:24.140 に答える
1

同じ問題にぶつかっただけです。pom.xmlで依存関係を追加する必要がありました

<dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-hdfs</artifactId>
</dependency>
于 2015-06-30T17:57:28.133 に答える