0

10 台のサーバー (16G メモリ、8 コア) があり、Hadoop と Spark をデプロイしたいのですが、リソースを最大限に活用できるプランを教えてください。

  1. 即時展開;

  2. Openstack をインストールし、環境を仮想マシンにデプロイします。

  3. Docker on Docker などの Docker を使用する。

使用シナリオに関連するリソースの使用率はわかっていますが、実際には上記の 3 つのプランの長所と短所を知りたいです。

ありがとうございました。

4

1 に答える 1

0

リソースの使用率を最大にするには、Spark と Hadoop の両方に単一のリソース マネージャーをデプロイするのが最善の方法です。そのための 2 つのオプションがあります。

Spark クラスターと Hadoop クラスターを分離しても、これ以上の利点はなく、オーバーヘッドが高くなり、リソース使用率が低下します。

于 2014-10-07T14:56:45.273 に答える