AWSMapReduceから独自のラック上のHadoopクラスターに移行します。最初は、Hadoop/HDFS専用の7台のサーバーがあります。
HDFSに保存するデータはミッションクリティカルであり、バックアップオプションがあるとは思わないので(少なくとも使用の1日目は)、継続性を保証するためにできることを実行したいと思います。
また、私たちが持っている仕事はそのハードウェアの2倍を簡単に使用できるので、計算能力を最大限に活用したいと思います。
- この7サーバークラスターで各ボックスに何を指定する必要がありますか?特に、どのプロセスをオーバーラップさせる必要がありますか(たとえば、バックアップの名前ノードがタスクノードなどとしてボックスを共有する必要がありますか?)