0

Python スクリプトを呼び出す spark-submit コマンドがあります。コードは 36 時間以上実行されますが、QDS のタイムアウト制限が 36 時間であるため、コマンドは 36 時間後に強制終了されます。

このパラメータ値を 50 時間に変更する方法を教えてください。これは、QDS でスクリプトを呼び出す方法です

/usr/lib/spark/bin/spark-submit s3:///abc.py

4

1 に答える 1

0

時間制限を 36 時間以上に設定することはできません。しかし、spark コマンドのこの制限を取り除くことができます。Analyze/Notebooks から Spark アプリケーションを実行するには、クラスターを開始する前に次のことを行う必要があります。

クラスター構成を編集し、Hadoop 構成オーバーライドで次の構成を更新します。

yarn.resourcemanager.app.timeout.minutes=-1

クラスター構成を編集し、Spark 構成オーバーライドで次の構成を更新します

spark.qubole.idle.timeout=-1 

これが役立つかどうか教えてください。また、ストリーミング アプリケーションを実行しておらず、spark アプリによって処理/アクセスされるデータがそれほど大きくない場合は、パフォーマンス チューニングによってアプリの実行時間を短縮することもできます (それにより、実行時間を短縮できる可能性があります)。その場合、この 36 時間の制限を削除する必要はありません。

于 2020-06-17T21:57:26.450 に答える