java.lang.OutOfMemoryError
まれな入力ドキュメントに対してエラーをスローする NLP ライブラリ (Stanford NER) を使用しています。
最終的にこれらのドキュメントを分離し、エラーの原因を突き止める予定ですが、これを行うのは困難です (私は Hadoop で実行しているので、スプリット 379/500 などでエラーが 17% 発生することはわかっています)。 . 暫定的な解決策として、この特定の呼び出しに CPU とメモリの制限を適用できるようにしたいと考えています。これを行う最善の方法が何であるかはわかりません。私が最初に考えたのは、1 つのスレッドの固定スレッド プールを作成し、Future で時限 get() を使用することです。これにより、少なくともウォールクロックの制限が得られ、多少役立つ可能性があります.
私の質問は、合理的な量の努力でこれよりもうまくやる方法があるかどうかです.