Hadoop クラスターのデータノードのフェイルオーバーについていくつか質問があります。
1: What happen the link is down between the namenode and a datanode
(or between 2 datanodes) when the hadoop cluster is processing some data?
Does Hadoop cluster have any OOTB to recover this problem?
2: What happen one datanode is down when the hadoop cluster is processing
some data?
また、別の質問は、hadoop クラスターのハードウェア構成に関するものです。Hadoop クラスターを使用して毎日 100 GB のログ ファイルを処理するとします。セットアップする必要があるデータノードの数は? また、各データノードのハードウェア構成 (CPU、RAM、ハーディスクなど) については?