S3 からローカル ドライブの一時的な場所にファイルをダウンロードして処理する Python 関数があります。ダウンロード部分は次のようになります。
def processNewDataFile(key):
## templocation below is just some temp local path
key.get_contents_to_filename(templocation)
## further processing
key
ダウンロードするファイルの AWS キーは次のとおりです。私が気づいたのは、時々get_contents_to_filename
フリーズするように見えることです。私のコードの他の部分では、これらのブロックが指定された時間内に完了しない場合、コードのブロックを中断する (そして例外を発生させる) いくつかのソリューションがあります。ダウンロードする必要があるファイルのサイズはさまざまであり、S3 の応答が他の時間よりも遅い場合があるため、このソリューションをここで使用するのは困難です。
get_contents_to_filename
それで、事前に決められた厳しい時間制限を伴わない、中断/タイムアウトの信頼できる方法はありますか?
ありがとう