問題タブ [cost-management]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - あなたが開発者である場合、Android アプリの維持に関連するコストはどれくらいですか?
Google は別の開発者やサード パーティのソフトウェア開発会社に支払うコストを含む検索結果だけに悩まされていますが、自分のソーシャル メディア アプリをすべて自分で作成、維持、拡張した場合のコストを知りたいです。既存のアプリの資金調達ラウンドが行われているという話をよく耳にしますが、その資金は何に使われているのでしょうか? 主に広告だと思いますが、その他の費用は?
自分でアプリを作った開発者で、おおよそのコストを知っている開発者はいますか?
amazon-web-services - アマゾン ウェブ サービス (AWS) でコストを削減する最善の方法は何ですか?
AWS でコストを削減する最良の方法は何ですか? AWS、EC2、および RDS
json - データ パイプラインを介した DynamoDB テーブルのバックアップと dynamoDB の json の手動作成
今のところあまり大きくないいくつかの DynamoDB テーブルを S3 にバックアップする必要があります。ただし、これらは別のチームが使用/作業しているテーブルですが、私ではありません。これらのバックアップは 1 週間に 1 回行う必要があり、悲惨な状況で DynamoDB テーブルを復元するためにのみ使用されます (そうでないことを願っています)。データ パイプラインをセットアップすることでこれを行う方法があることを知りました。データ パイプラインは、週に 1 回ジョブを実行するようにスケジュールできると思います。ただし、これによりパイプラインが開いたままになり、料金が発生し始めるようです。したがって、パイプラインを介してテーブルをバックアップすることと、テーブルを開いたままにしておくこと、または既に存在する EC2 インスタンスで実行するようにスケジュールされ、手動で作成する powershellscript のようなものを作成することとの間に大きなコストの違いがあるかどうか疑問に思っていましたJSON マッピング ファイルを作成し、それを S3 に更新します。
また、別の質問は、より実用的な質問だと思います。dynamoDB テーブルを Json 形式にバックアップすることの難しさ。それほど難しくないようですが、確信が持てませんでした。これらの質問が一般的すぎる場合は申し訳ありません。
google-app-engine - App エンジンの automatic_scaling 構成
パラメータを設定して、Google App Engine の請求額を削減しようとしていautomatic_scaling
ます。平均して、私のアプリでは 7 ~ 10 個のインスタンスが実行されており、そのうち 2 ~ 3 個はアイドル状態です。しかし、添付のグラフの午前 3 時から午前 6 時の間のように、アクティブなインスタンスとアイドル状態のインスタンスの差がとてつもなく大きい場合があります。また、アクティブなインスタンスの数を減らして、最終ユーザーの応答時間を増やしたいと考えています (設定min_pending_latency
とmax_pending_latency
)。しかし、これまでのところ、これらの設定はどれも効果を発揮していません。
これは私の app.yaml 構成です:
dictionary - dynamodbで辞書を更新するコストは?
DynamoDB にサイズ 1 KB のディクショナリを持つフィールドがあり、ディクショナリ内のキーと値のペアの 1 つを「1」だけ前方に反復することで更新するかどうか疑問に思っています。Amazon は 8 バイトに対して料金を請求しますか?整数を書き込む必要がありますか、それとも辞書の小さなサブセットを変更するために 1 KB の書き込み操作を Amazon から請求されますか?
json - gzip された json と効率的なバイナリ シリアル化のパフォーマンス
JSON と Gzip は、データをシリアル化する簡単な方法です。これらは、プログラミング言語全体で広く実装されています。また、この表現はシステム間で移植可能です (そうですか?)。
私の質問は、非常に効率的なバイナリシリアル化方法と比較して、json + gzip が十分に優れているかどうか (2 倍未満のコスト) ですか? さまざまな種類のデータをシリアライズしながら、スペースと時間のコストを探しています。