0

現在、Mountain Lion を実行している Mac で Hadoop を疑似分散モードでセットアップしようとしています。私は Hadoop 1.0.4 をダウンロードし、Chuck Lam による「Hadoop in Action」で詳しく説明されているように、次の手順を実行しました。

1) SSH キー ペアの生成: 実行ssh-keygen -t rsaしてペアを生成しましたが、パスワードを設定しませんでした。/Users/me/.ssh/id_rsa.pub にキーを置きます。次に、このファイルを ~/.ssh/authorized_keys にコピーしました。これにより、パスワードを入力せずに、自分のマシンから自分のマシンに SSH で接続できます。

2) JAVA_HOME をセットアップします。conf/hadoop-env.sh を変更してexport JAVA_HOME=/Library/Java/Home、Java インストール ディレクトリと思われる を含めました。(参考までに、このディレクトリには、bin、bundle、lib、および man が含まれています。)

3) サイトの conf ファイルをセットアップします。本で提案された構成をコピーして貼り付けました。それらは次のとおりです。core-site.xml

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>
 <name>fs.default.name</name>
 <value>hdfs://localhost:9000</value>
 <description>The name of the default file system. A URI whose
 scheme and authority determine the FileSystem implementation. 
</description>
</property>

</configuration>

mapred-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>
 <name>mapred.job.tracker</name>
 <value>localhost:9001</value>
 <description>The host and port that the MapReduce job tracker runs
 at.</description>
</property>

</configuration>

hdfs-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

 <!-- Put site-specific property overrides in this file. -->

<configuration>

<property>
 <name>dfs.replication</name>
 <value>1</value>
 <description>The actual number of replications can be specified when the
 file is created.</description>
</property>

</configuration>

4) マスターとスレーブをセットアップします。私の conf/masters および conf/slaves ファイルには、単に localhost が含まれています。

5) HDFS のフォーマット:bin/hadoop namenode -format次の出力が得られます。

12/11/16 13:20:12 INFO namenode.NameNode: STARTUP_MSG: 
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = dhcp-18-111-53-8.dyn.mit.edu/18.111.53.8
STARTUP_MSG:   args = [-format]
STARTUP_MSG:   version = 1.0.4
STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.0 -r 1393290; compiled by 'hortonfo' on Wed Oct  3 05:13:58 UTC 2012
************************************************************/
Re-format filesystem in /tmp/hadoop-me/dfs/name ? (Y or N) Y
12/11/16 13:20:17 INFO util.GSet: VM type       = 64-bit
12/11/16 13:20:17 INFO util.GSet: 2% max memory = 39.83375 MB
12/11/16 13:20:17 INFO util.GSet: capacity      = 2^22 = 4194304 entries
12/11/16 13:20:17 INFO util.GSet: recommended=4194304, actual=4194304
12/11/16 13:20:17 INFO namenode.FSNamesystem: fsOwner=me
12/11/16 13:20:18 INFO namenode.FSNamesystem: supergroup=supergroup
12/11/16 13:20:18 INFO namenode.FSNamesystem: isPermissionEnabled=true
12/11/16 13:20:18 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100
12/11/16 13:20:18 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)
12/11/16 13:20:18 INFO namenode.NameNode: Caching file names occuring more than 10 times 
12/11/16 13:20:18 INFO common.Storage: Image file of size 119 saved in 0 seconds.
12/11/16 13:20:18 INFO common.Storage: Storage directory /tmp/hadoop-me/dfs/name has been successfully formatted.
12/11/16 13:20:18 INFO namenode.NameNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at dhcp-18-111-53-8.dyn.mit.edu/18.111.53.8
************************************************************/

6) 起動:bin/start-all.sh次の出力が得られます。

starting namenode, logging to /Users/me/hadoop-1.0.4/libexec/../logs/hadoop-me-namenode-dhcp-18-111-53-8.dyn.mit.edu.out
localhost: starting datanode, logging to /Users/me/hadoop-1.0.4/libexec/../logs/hadoop-me-datanode-dhcp-18-111-53-8.dyn.mit.edu.out
localhost: starting secondarynamenode, logging to /Users/me/hadoop-1.0.4/libexec/../logs/hadoop-me-secondarynamenode-dhcp-18-111-53-8.dyn.mit.edu.out
starting jobtracker, logging to /Users/me/hadoop-1.0.4/libexec/../logs/hadoop-me-jobtracker-dhcp-18-111-53-8.dyn.mit.edu.out
localhost: starting tasktracker, logging to /Users/me/hadoop-1.0.4/libexec/../logs/hadoop-me-tasktracker-dhcp-18-111-53-8.dyn.mit.edu.out

このテキストでは、jps を実行して次のような出力を取得できるはずであると主張しています。

26893 Jps
26832 TaskTracker
26620 SecondaryNameNode
26333 NameNode
26484 DataNode
26703 JobTracker

ただし、次のものしか得られません。

71311 Jps

だから私は何かが間違っていると思いますが、どこが間違っていたのか分かりません。助言がありますか?ありがとう。

4

1 に答える 1

0

Hadoop ログで理由がわかります。

以下のログを確認してください/Users/me/hadoop-1.0.4/libexec/../logs/

.sshディレクトリのパーミッションが正しくない可能性があると思います。

試すchmod 700 ~/.ssh; chmod 600 ~/.ssh/id_rsa

于 2012-11-17T05:40:42.157 に答える