遅くなりましたが、一応お答えします。
コンピューティング スロット。メモリ/CPU/ディスク サイズなどのリソースを必要とする Hadoop のさまざまな計算について考えてみてください。
リソース = 必要なメモリまたは CPU コアまたはディスク サイズ
コンテナを開始するためのリソースの割り当て、マップまたはリデュース タスクを実行するためのリソースの割り当てなど。
手元にあるリソースをどのように管理するかがすべてです。さて、それは何でしょう?RAM、コア、ディスク サイズ。
目標は、これらのクラスター リソースのいずれによっても処理が制約されないようにすることです。処理をできるだけ動的にしたい。
例として、Hadoop YARN では、YARN コンテナーを開始するために必要な最小 RAM、MAP/REDUCE タスクを開始するために必要な最小 RAM、JVM ヒープ サイズ (Map および Reduce タスク用)、および各タスクが取得する仮想メモリの量を構成できます。 .
Hadoop MR1 とは異なり、Map-Reduce タスクの実行を開始する前に (RAM サイズの例として) 事前構成する必要はありません。ある意味では、リソースの割り当てを可能な限り柔軟にする必要があります。つまり、MAP または REDUCE タスクの RAM/CPU コアを動的に増やします。