Hadoop Distributed File System がどのようにセットアップされているか、また私の特定のセットアップがどのように影響するかについて、少し混乱しています。このガイドを使用してhttp://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster/をセットアップし、Virtual Box で 2 つの仮想マシンを使用してサンプルを実行しました。 (txtファイル入力による単純な単語数カウント)。これまでのところ、datanode がノード上のファイルを管理および取得し、tasktracker がデータを分析することがわかっています。
1) コマンド -copyFromLocal を使用する場合、ファイル/入力を HDFS にコピーしていますか? Hadoop は、スレーブ/マスター間で情報を分割する方法を知っていますか? また、どのようにそれを行うのでしょうか?
2) 上記のリンクのガイドで説明されている構成では、技術的に 2 つのスレーブがあります (マスターはマスターとスレーブの両方として機能します)。これはよくあることですか、それともマスター マシンには通常 jobtracker/namenode タスクのみが与えられますか?