GAE で最大 2GB の大きなファイルを処理する必要があります (私は Python を使用しています)。もちろん、バックエンドでコードを実行しますが、ローカル ストレージが利用できないため、データはメモリ内にある必要があります。
boto またはその他のクラウド ストレージがサポートするプロトコルのラッパーのようなファイル記述子はありますか? または他の推奨されるテクニックは?
ありがとう、シェイ
GAE で最大 2GB の大きなファイルを処理する必要があります (私は Python を使用しています)。もちろん、バックエンドでコードを実行しますが、ローカル ストレージが利用できないため、データはメモリ内にある必要があります。
boto またはその他のクラウド ストレージがサポートするプロトコルのラッパーのようなファイル記述子はありますか? または他の推奨されるテクニックは?
ありがとう、シェイ
「Google Cloud Storage Python API の概要」に興味があるかもしれません。これは、通常のローカル ファイルのように機能します。私は自分のプロジェクトでそれを使用しましたが、問題は発生しませんでした。
データファイルは「メモリ内にある必要はありません」。そうしようとすると、oom が実行されます。順次処理できる場合は、ファイルストリームとして開きます。私はブロブストアでそれをやった、似ているはずです