Hadoop クラスターで権限管理を有効にしましたが、pig でジョブを送信する際に問題が発生しました。これはシナリオです:
1 - Hadoop/hadoop ユーザーがいます
2 - PIG スクリプトを実行する myuserapp/myuserapp ユーザーがいます。
3 - myuserapp が所有するパス /myapp をセットアップします
4 - pig.temp.dir を /myapp/pig/tmp に設定します
しかし、ジョブを実行しようとすると、次のエラーが発生しました。
job_201303221059_0009 all_actions,filtered,raw_data DISTINCT Message: Job failed! Error - Job initialization failed: org.apache.hadoop.security.AccessControlException: org.apache.hadoop.security.AccessControlException: Permission denied: user=realtime, access=EXECUTE, inode="system":hadoop:supergroup:rwx------
Hadoop ジョブトラッカーは、サーバーを起動するためにこの許可を必要とします。
私の Hadoop ポリシーは次のようになります。
<property>
<name>security.client.datanode.protocol.acl</name>
<value>hadoop,myuserapp supergroup,myuserapp</value>
</property>
<property>
<name>security.inter.tracker.protocol.acl</name>
<value>hadoop,myuserapp supergroup,myuserapp</value>
</property>
<property>
<name>security.job.submission.protocol.acl</name>
<value>hadoop,myuserapp supergroup,myuserapp</value>
<property>
私の hdfs-site.xml:
<property>
<name>dfs.permissions</name>
<value>true</value>
</property>
<property>
<name>dfs.datanode.data.dir.perm</name>
<value>755</value>
</property>
<property>
<name>dfs.web.ugi</name>
<value>hadoop,supergroup</value>
</property>
私のコアサイト:
...
<property>
<name>hadoop.security.authorization</name>
<value>true</value>
</property>
...
そして最後に私のmapred-site.xml
...
<property>
<name>mapred.local.dir</name>
<value>/tmp/mapred</value>
</property>
<property>
<name>mapreduce.jobtracker.jobhistory.location</name>
<value>/opt/logs/hadoop/history</value>
</property>
不足している構成はありますか? 制限された HDFS クラスターで複数のユーザーがジョブを実行している場合、どのように対処すればよいですか?