次の仕様の 1 台のマシンに Apache Spark 1.6.1 スタンドアロン クラスターを設定しています。
- CPU: Core i7-4790 (コア数: 4、スレッド数: 8)
- メモリ: 16GB
何も設定しないので、Spark はデフォルト値を使用できます。これは、コアの場合は「使用可能なすべてのコア」であり、それに基づいて、問題は次のとおりです。
コアが 4 つしかないのに、Spark が 8 つのコアを検出するのはなぜですか?
次の仕様の 1 台のマシンに Apache Spark 1.6.1 スタンドアロン クラスターを設定しています。
何も設定しないので、Spark はデフォルト値を使用できます。これは、コアの場合は「使用可能なすべてのコア」であり、それに基づいて、問題は次のとおりです。
コアが 4 つしかないのに、Spark が 8 つのコアを検出するのはなぜですか?