1

単一ノードのセットアップでワードカウントチュートリアルを実行しようとしています http://hadoop.apache.org/docs/stable/mapred_tutorial.html

これが私の端末出力です:

> hadoop jar wordcount.jar org.myorg.WordCount input output
13/08/13 16:26:59 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
13/08/13 16:26:59 WARN mapred.JobClient: Use GenericOptionsParser for parsing the arguments. Applications should implement Tool for the same.
13/08/13 16:26:59 WARN snappy.LoadSnappy: Snappy native library not loaded
13/08/13 16:26:59 INFO mapred.FileInputFormat: Total input paths to process : 2
13/08/13 16:26:59 INFO mapred.JobClient: Running job: job_local955318185_0001
13/08/13 16:26:59 INFO mapred.LocalJobRunner: Waiting for map tasks
13/08/13 16:26:59 INFO mapred.LocalJobRunner: Starting task: attempt_local955318185_0001_m_000000_0
13/08/13 16:26:59 INFO mapred.Task:  Using ResourceCalculatorPlugin : null
13/08/13 16:26:59 INFO mapred.MapTask: Processing split: file:/Users/jfk/work/hadoop/2_word/input/file02:0+24
13/08/13 16:26:59 INFO mapred.MapTask: numReduceTasks: 1
13/08/13 16:26:59 INFO mapred.MapTask: io.sort.mb = 100
13/08/13 16:27:00 INFO mapred.MapTask: data buffer = 79691776/99614720
13/08/13 16:27:00 INFO mapred.MapTask: record buffer = 262144/327680
13/08/13 16:27:00 INFO mapred.MapTask: Starting flush of map output
13/08/13 16:27:00 INFO mapred.JobClient:  map 0% reduce 0%
13/08/13 16:27:05 INFO mapred.LocalJobRunner: file:/Users/jfk/work/hadoop/2_word/input/file02:0+24
13/08/13 16:27:06 INFO mapred.JobClient:  map 50% reduce 0%

そして、それはただそこに立ち往生しています。私ができることはCtrl-Cだけです。どうすればこれをデバッグできますか?

内容はこちらlogs/userlogs

-> ls -l
total 0
drwx--x---  16 jfk  admin  544 Aug  7 21:51 job_201308072147_0001
drwx--x---  16 jfk  admin  544 Aug  9 10:18 job_201308091015_0001
drwx--x---   9 jfk  admin  306 Aug 13 14:59 job_201308131457_0001
drwx--x---   7 jfk  admin  238 Aug 13 14:59 job_201308131457_0002
drwx--x---   9 jfk  admin  306 Aug 13 15:02 job_201308131457_0003
drwx--x---   9 jfk  admin  306 Aug 13 15:04 job_201308131457_0005
drwx--x---   9 jfk  admin  306 Aug 13 15:13 job_201308131457_0007
drwx--x---   9 jfk  admin  306 Aug 13 15:14 job_201308131457_0009
drwx--x---   9 jfk  admin  306 Aug 13 15:15 job_201308131457_0011
drwx--x---   7 jfk  admin  238 Aug 13 15:16 job_201308131457_0012
drwx--x---  15 jfk  admin  510 Aug 13 15:28 job_201308131457_0014
drwx--x---   7 jfk  admin  238 Aug 13 15:28 job_201308131457_0015
drwx--x---  15 jfk  admin  510 Aug 13 16:20 job_201308131549_0001
drwx--x---  11 jfk  admin  374 Aug 13 16:20 job_201308131549_0002
drwx--x---   4 jfk  admin  136 Aug 13 16:13 job_201308131549_0004

の内容job_201308131549_0004/attempt_201308131549_0004_r_000002_0/stderr:

2013-08-13 16:13:10.401 java[7378:1203] Unable to load realm info from SCDynamicStore

==更新==

エラーメッセージをグーグルで検索するUnable to load realm info from SCDynamicStoreと、OSX で Hadoop を使用している複数の人が同じ問題を抱えているようです。次の解決策は一部の人にとってはうまくいくようですが、残念ながら私にはうまくいきません。 OSX 上の Hadoop 「SCDynamicStore からレルム情報を読み込めません」

4

1 に答える 1

0

実行中のスタックジョブに移動しhttp://localhost:50030/jobtracker.jsp て選択し、スタックしているマップを見つけます。スタックしているマップ ジョブに移動し、右側のすべてのリンクをクリックすると、正確なエラーが表示されます。これが役立つかどうかわからない

于 2013-08-16T07:18:56.950 に答える