0

miltonwebdavをhadoophdfsと統合し、hdfsクラスターへのファイルの読み取り/書き込みが可能になりました。

また、Linuxファイルのアクセス許可を使用して承認部分を追加したため、承認されたユーザーのみがhdfsサーバーにアクセスできますが、認証部分で立ち往生しています。

hadoopは組み込みの認証を提供しておらず、ユーザーはunix'whoami'でのみ識別されるようです。つまり、特定のユーザーのパスワードを有効にできません。ref: http: //hadoop.apache.org/common/docs/r1.0.3/hdfs_permissions_guide.html したがって、新しいユーザーを作成してアクセス許可を設定しても、ユーザーが認証されているかどうかを識別する方法はありません。 。同じユーザー名と異なるパスワードを持つ2人のユーザーは、そのユーザー名を対象としたすべてのリソースにアクセスできます。

hdfsでユーザー認証を有効にする方法があるかどうか疑問に思っています(新しいhadoopリリースに固有であるか、kerboresなどのサードパーティツールを使用しています)

編集:

確認しましたが、Kerberosはオプションのようですが、認証に使用できる他の方法があるかどうかを知りたいだけです。

ありがとう、-chhavi

4

1 に答える 1

0

現在、サポートされている「実際の」認証プロトコルは kerberos のみです。「単純な」プロトコルは、クライアントの whois 情報を完全に信頼しています。

Kerberos 認証をセットアップするには、次のガイドをお勧めします: https://ccp.cloudera.com/display/CDH4DOC/Configuring+Hadoop+Security+in+CDH4

msktutilは、Linux で kerberos キータブを作成するための便利なツールです: https://fuhm.net/software/msktutil/

サービス プリンシパルを作成するときは、DNS 設定が正しいことを確認してください。たとえば、「host1.yourdomain.com」という名前のサーバーがあり、IP 1.2.3.4 に解決される場合、その IP は host1.yourdomain に解決されます。コム。

また、kerberos Negotiate Authentication ヘッダーは、Jetty の組み込みヘッダー サイズ制限よりも大きい可能性があることに注意してください。その場合は、変更org.apache.hadoop.http.HttpServerして追加ret.setHeaderBufferSize(16*1024);する必要がありますcreateDefaultChannelConnector()。そうしなければならなかった。

于 2012-09-24T21:38:16.583 に答える