今のところあまり大きくないいくつかの DynamoDB テーブルを S3 にバックアップする必要があります。ただし、これらは別のチームが使用/作業しているテーブルですが、私ではありません。これらのバックアップは 1 週間に 1 回行う必要があり、悲惨な状況で DynamoDB テーブルを復元するためにのみ使用されます (そうでないことを願っています)。データ パイプラインをセットアップすることでこれを行う方法があることを知りました。データ パイプラインは、週に 1 回ジョブを実行するようにスケジュールできると思います。ただし、これによりパイプラインが開いたままになり、料金が発生し始めるようです。したがって、パイプラインを介してテーブルをバックアップすることと、テーブルを開いたままにしておくこと、または既に存在する EC2 インスタンスで実行するようにスケジュールされ、手動で作成する powershellscript のようなものを作成することとの間に大きなコストの違いがあるかどうか疑問に思っていましたJSON マッピング ファイルを作成し、それを S3 に更新します。
また、別の質問は、より実用的な質問だと思います。dynamoDB テーブルを Json 形式にバックアップすることの難しさ。それほど難しくないようですが、確信が持てませんでした。これらの質問が一般的すぎる場合は申し訳ありません。
質問する
633 次