私はJavaでmapreduceプログラムを作成しました。これは、分散モードで実行されているリモートクラスターに送信できます。現在、次の手順でジョブを送信しています。
- mapreuceジョブをjarとしてエクスポートします(例
myMRjob.jar
) - 次のシェルコマンドを使用して、リモートクラスターにジョブを送信します。
hadoop jar myMRjob.jar
プログラムを実行しようとしたときに、Eclipseから直接ジョブを送信したいと思います。これどうやってするの?
私は現在CDH3を使用していますが、私のconfの要約版は次のとおりです。
conf.set("hbase.zookeeper.quorum", getZookeeperServers());
conf.set("fs.default.name","hdfs://namenode/");
conf.set("mapred.job.tracker", "jobtracker:jtPort");
Job job = new Job(conf, "COUNT ROWS");
job.setJarByClass(CountRows.class);
// Set up Mapper
TableMapReduceUtil.initTableMapperJob(inputTable, scan,
CountRows.MyMapper.class, ImmutableBytesWritable.class,
ImmutableBytesWritable.class, job);
// Set up Reducer
job.setReducerClass(CountRows.MyReducer.class);
job.setNumReduceTasks(16);
// Setup Overall Output
job.setOutputFormatClass(MultiTableOutputFormat.class);
job.submit();
これをEclipseから直接実行すると、ジョブは起動されますが、Hadoopはマッパー/リデューサーを見つけることができません。次のエラーが発生します。
12/06/27 23:23:29 INFO mapred.JobClient: map 0% reduce 0%
12/06/27 23:23:37 INFO mapred.JobClient: Task Id : attempt_201206152147_0645_m_000000_0, Status : FAILED
java.lang.RuntimeException: java.lang.ClassNotFoundException: com.mypkg.mapreduce.CountRows$MyMapper
at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:996)
at org.apache.hadoop.mapreduce.JobContext.getMapperClass(JobContext.java:212)
at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:602)
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:323)
at org.apache.hadoop.mapred.Child$4.run(Child.java:270)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:396)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1127)
at org.apache.hadoop.mapred.Child.main(Child.java:264)
...
誰かがこれらのエラーを乗り越える方法を知っていますか?これを修正できれば、より多くのMRジョブをスクリプトに統合できます。