私は Hadoop クラスターをセットアップしており、共通のデフォルトのユーザー名「user1」で作業しています。Hadoop クラスターの一部ではないリモート マシンから Hadoop にファイルを配置したいと考えています。リモート マシンで Hadoop ファイルを次のように構成しました。
hadoop dfs -put file1 ...
がリモート マシンから呼び出されると、file1 が Hadoop クラスタに配置されます。
唯一の問題は、リモート マシンで「user2」としてログインしていて、期待した結果が得られないことです。実際、上記のコードは次のようにリモート マシンでのみ実行できます。
hadoop dfs -put file1 /user/user2/testFolder
ただし、私が本当に欲しいのは、ファイルを次のように保存できることです。
hadoop dfs -put file1 /user/user1/testFolder
最後のコードを実行しようとすると、アクセス権限が原因で hadoop がエラーをスローします。hadoop dfs コマンド内でユーザー名を指定できる方法はありますか?
私は次のようなものを探しています:
hadoop dfs -username user1 file1 /user/user1/testFolder