0

過去に、クラウド インフラストラクチャでワーカーをホストするときに問題が発生しました。これは、処理能力の高いマシンでローカルにコードをテストしたときに忠実に再現されなかったメモリの制約が原因でした。

IronWorker は、マルチテナント インフラストラクチャのワーカーを 380 MB に制限しているクラウド プロバイダーの 1 つです。幸いなことに、彼らが docker に切り替えたことで、テスト時にローカルの docker コンテナーに人為的なメモリ制限を使用するように依頼することで、問題を早期に発見できることを期待できます。

しかし、次のどのパラメーターが適切かはわかりません: https://docs.docker.com/engine/reference/run/は、380MB の制限を設定するときに使用するのに適したものです ...何かアドバイスはありますか?

https://goldmann.pl/blog/2014/09/11/resource-management-in-docker/#_example_managing_the_memory_shares_of_a_containerのロジックは引き続き適用されますか?

4

1 に答える 1

1

たとえば、ノード README--memoryに基づいてを使用する必要があります。

docker run --memory 380M --rm -e "PAYLOAD_FILE=hello.payload.json" -v "$PWD":/worker -w /worker iron/node node hello.js
于 2016-05-04T04:32:08.733 に答える