単一ノードのセットアップでワードカウントチュートリアルを実行しようとしています http://hadoop.apache.org/docs/stable/mapred_tutorial.html
これが私の端末出力です:
> hadoop jar wordcount.jar org.myorg.WordCount input output
13/08/13 16:26:59 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
13/08/13 16:26:59 WARN mapred.JobClient: Use GenericOptionsParser for parsing the arguments. Applications should implement Tool for the same.
13/08/13 16:26:59 WARN snappy.LoadSnappy: Snappy native library not loaded
13/08/13 16:26:59 INFO mapred.FileInputFormat: Total input paths to process : 2
13/08/13 16:26:59 INFO mapred.JobClient: Running job: job_local955318185_0001
13/08/13 16:26:59 INFO mapred.LocalJobRunner: Waiting for map tasks
13/08/13 16:26:59 INFO mapred.LocalJobRunner: Starting task: attempt_local955318185_0001_m_000000_0
13/08/13 16:26:59 INFO mapred.Task: Using ResourceCalculatorPlugin : null
13/08/13 16:26:59 INFO mapred.MapTask: Processing split: file:/Users/jfk/work/hadoop/2_word/input/file02:0+24
13/08/13 16:26:59 INFO mapred.MapTask: numReduceTasks: 1
13/08/13 16:26:59 INFO mapred.MapTask: io.sort.mb = 100
13/08/13 16:27:00 INFO mapred.MapTask: data buffer = 79691776/99614720
13/08/13 16:27:00 INFO mapred.MapTask: record buffer = 262144/327680
13/08/13 16:27:00 INFO mapred.MapTask: Starting flush of map output
13/08/13 16:27:00 INFO mapred.JobClient: map 0% reduce 0%
13/08/13 16:27:05 INFO mapred.LocalJobRunner: file:/Users/jfk/work/hadoop/2_word/input/file02:0+24
13/08/13 16:27:06 INFO mapred.JobClient: map 50% reduce 0%
そして、それはただそこに立ち往生しています。私ができることはCtrl-Cだけです。どうすればこれをデバッグできますか?
内容はこちらlogs/userlogs
-> ls -l
total 0
drwx--x--- 16 jfk admin 544 Aug 7 21:51 job_201308072147_0001
drwx--x--- 16 jfk admin 544 Aug 9 10:18 job_201308091015_0001
drwx--x--- 9 jfk admin 306 Aug 13 14:59 job_201308131457_0001
drwx--x--- 7 jfk admin 238 Aug 13 14:59 job_201308131457_0002
drwx--x--- 9 jfk admin 306 Aug 13 15:02 job_201308131457_0003
drwx--x--- 9 jfk admin 306 Aug 13 15:04 job_201308131457_0005
drwx--x--- 9 jfk admin 306 Aug 13 15:13 job_201308131457_0007
drwx--x--- 9 jfk admin 306 Aug 13 15:14 job_201308131457_0009
drwx--x--- 9 jfk admin 306 Aug 13 15:15 job_201308131457_0011
drwx--x--- 7 jfk admin 238 Aug 13 15:16 job_201308131457_0012
drwx--x--- 15 jfk admin 510 Aug 13 15:28 job_201308131457_0014
drwx--x--- 7 jfk admin 238 Aug 13 15:28 job_201308131457_0015
drwx--x--- 15 jfk admin 510 Aug 13 16:20 job_201308131549_0001
drwx--x--- 11 jfk admin 374 Aug 13 16:20 job_201308131549_0002
drwx--x--- 4 jfk admin 136 Aug 13 16:13 job_201308131549_0004
の内容job_201308131549_0004/attempt_201308131549_0004_r_000002_0/stderr
:
2013-08-13 16:13:10.401 java[7378:1203] Unable to load realm info from SCDynamicStore
==更新==
エラーメッセージをグーグルで検索するUnable to load realm info from SCDynamicStore
と、OSX で Hadoop を使用している複数の人が同じ問題を抱えているようです。次の解決策は一部の人にとってはうまくいくようですが、残念ながら私にはうまくいきません。
OSX 上の Hadoop 「SCDynamicStore からレルム情報を読み込めません」