0

Hadoop で最初のプログラムを実行しようとすると、この例外に直面します。(バージョン 0.20.2 で Hadoop の新しい API を使用しています)。Web で検索したところ、構成ロジックで MapperClass と ReducerClass を設定しなかったときに、ほとんどの人がこの問題に直面したようです。しかし、チェックしたところ、コードは問題ないようです。誰かが私を助けてくれれば本当に感謝しています。

java.io.IOException: マップからのキーの型の不一致: 予想される org.apache.hadoop.io.Text、org.apache.hadoop.mapred.MapTask$MapOutputBuffer.collect(MapTask で org.apache.hadoop.io.LongWritable を受け取りました.java:871)

package com.test.wc;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class WordCountMapper extends Mapper<LongWritable,Text,Text,IntWritable> {

public void Map(LongWritable key,Text value,Context ctx) throws IOException , InterruptedException {
    String line = value.toString();
    for(String word:line.split("\\W+")) {
        if(word.length()> 0){
            ctx.write(new Text(word), new IntWritable(1));
        }
    }
}
}


package com.test.wc;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
public class WordCountReducer extends Reducer<Text,IntWritable,Text,IntWritable> {

public void reduce(Text key, Iterable<IntWritable> values, Context ctx) throws IOException,InterruptedException {
 int wordCount = 0;
    for(IntWritable value:values)
    {
        wordCount+=value.get();
    }
    ctx.write(key,new IntWritable(wordCount));
}

}


package com.test.wc;
import java.io.IOException;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
public class WordCountJob {
public static void main(String args[]) throws IOException, InterruptedException, ClassNotFoundException{
    if(args.length!=2){
        System.out.println("invalid usage");
        System.exit(-1);
    }

    Job job = new Job();
    job.setJarByClass(WordCountJob.class);
    job.setJobName("WordCountJob");



    FileInputFormat.addInputPath(job, new Path(args[0]));
    FileOutputFormat.setOutputPath(job, new Path(args[1]));

    job.setMapperClass(WordCountMapper.class);
    job.setReducerClass(WordCountReducer.class);

    //job.setCombinerClass(WordCountReducer.class);

    job.setMapOutputKeyClass(Text.class);
    job.setMapOutputValueClass(IntWritable.class);

    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(IntWritable.class);


    System.exit(job.waitForCompletion(true) ? 0:1);

}
}
4

2 に答える 2

0

小文字の m の代わりに大文字の M を使用しているため、あなたのメソッドはのメソッドMap()をオーバーライドできません。Mappermap()

そのため、デフォルトの ID マップ方式が使用され、入力として使用されるのと同じキーと値のペアが出力としても使用されます。マッパーが を指定しているため、代わりに をextends Mapper<LongWritable,Text,Text,IntWritable>出力しようとすると例外が発生します。LongWritable, TextText, IntWritable

Map()メソッドを変更して注釈map()を追加すると@Overrideうまくいくはずです.IDEを使用している場合は、組み込みのメソッドオーバーライド機能を使用して、このようなエラーを回避することを強くお勧めします.

于 2013-04-14T19:52:53.350 に答える
0

からマッパー関数を編集するだけです

public voidマップ(LongWritable キー、テキスト値、コンテキスト ctx)

public voidマップ(LongWritable キー、テキスト値、Context ctx)

それは私のために働いています。

Hadoop バージョン:- Hadoop 1.0.3

于 2013-04-15T09:18:01.377 に答える