おそらく初心者の質問ですが、ローカルにコピーしてUNIXを介して読み取る以外に、hdfsでファイルの内容を読み取る方法はありますか?
だから今私がやっていることは次のとおりです。
bin/hadoop dfs -copyToLocal hdfs/path local/path
nano local/path
ファイルをローカルにコピーしてから開くのではなく、hdfs に直接ファイルを開くことができるかどうか疑問に思っています。
おそらく初心者の質問ですが、ローカルにコピーしてUNIXを介して読み取る以外に、hdfsでファイルの内容を読み取る方法はありますか?
だから今私がやっていることは次のとおりです。
bin/hadoop dfs -copyToLocal hdfs/path local/path
nano local/path
ファイルをローカルにコピーしてから開くのではなく、hdfs に直接ファイルを開くことができるかどうか疑問に思っています。
ファイルサイズが巨大な場合 (ほとんどの場合そうです)、'cat' を実行することで、ファイルの内容全体をスローして端末を爆破したくありません。代わりに、パイピングを使用して、ファイルの数行のみを取得します。
ファイルの最初の 10 行を取得するには、hadoop fs -cat 'file path' | 頭 -10
ファイルの最後の 5 行を取得するには、hadoop fs -cat 'file path' | 尻尾-5
hadoop dfs -cat <filename> or hadoop dfs -cat <outputDirectory>/*