バックグラウンド:
少し前に、社内プログラムの 1 つについて、アプリケーションのクラッシュを記録して分類するためのシステムを構築しました。当時、クラッシュの種類に優先順位を付けるために、頻度と失われた時間の合計 (プログラムの起動からクラッシュまでの時間) を組み合わせて使用していました。それはかなりうまくいった。
現在、The Powers That Be は、取り組んでいる各タイプのクラッシュのコストについて確実な数値を求めています。または、少なくとも、堅実に見える数字。総損失時間にもっともらしい数字を掛けたものを使用できると思いますが、それは危険に思えます。
質問:
アプリケーション クラッシュの実際のコストを計算する確立された方法はありますか? それとも、そのようなコストを推測する研究を発表しましたか?
コンセンサス
正確さは不可能ですが、稼働時間に基づく見積もりは、それが一貫して適用され、その制限が明確に文書化されていれば十分です。これに答えるために時間を割いてくれてありがとう、マット、オリオン。