0

Hadoop で jcuda コードを実装しようとしていますが、ローカル モードで動作しましたが、hadoop クラスターでジョブを実行すると、エラーが表示されます: コンテナーが強制終了されました。具体的なエラー レポートは次のとおりです。

16/04/29 10:18:07 INFO mapreduce.Job: Task Id: attempts_1461835313661_0014_r_000009_2, Status: FAILED Container [pid=19894,containerID=container_1461835313661_0014_01_000021] が仮想メモリの制限を超えて実行されています。現在の使用量: 1 GB の物理メモリのうち 197.5 MB が使用されています。2.1 GB の仮想メモリのうち 20.9 GB を使用。殺人コンテナ。

入力データはわずか 200MB ですが、ジョブは 20.9GB の仮想メモリを要求します。理由はわかりません。仮想メモリを増やそうとしましたが、構成は yarn-site.xml にあります。

<property>
   <name>yarn.nodemanager.vmem-pmem-ration</name>
   <value>12</value>
</property>

 <property>
    <name>yarn.nodemanager.pmem-check-enabled</name>
    <value>false</value>
 </property>

 <property>
    <name>yarn.nodemanager.vmem-check-enabled</name>
    <value>false</value>
 </property>

それは機能していません、私はそれを愛することを知りません、そして私は私の貧弱な英語で申し訳ありません.

4

1 に答える 1

0
    Please check the following parameters and set it if not set to the values below:

    In mapred-site.xml:

    mapreduce.map.memory.mb: 4096

    mapreduce.reduce.memory.mb: 8192

    mapreduce.map.java.opts: -Xmx3072m

    mapreduce.reduce.java.opts: -Xmx6144m

Hope this solves your issue
于 2016-04-29T06:46:34.257 に答える