知りたいのですが、最悪の場合の時間の複雑さを見積もっている場合、自分のマシン (たとえば 2.5 Ghz マシン) で プログラムを実行するのにかかる時間をどのように見積もることができますか? 例: - 最悪の場合、O(n^2) で n<100000 のプログラムがある場合、実際のプログラム/手順を作成する前に /estimate をどのように知ることができますか?秒?
プログラムが実際にどのように実行されるかを知ることは良いことではないでしょうか。また、最終的に非効率であることが判明するコードを書く手間も省けます! 大変助かります。