私は現在、Big-O と実行時間を扱う課題に取り組んでいます。非常に簡単に思える質問が 1 つありますが、正しく行っているかどうかはわかりません。残りの問題はかなり難しく、ここで何かを見落としているような気がします。
まず、次のようなものがあります。 アルゴリズム A の実行時間は 50n^3 です。コンピューター A。1 操作あたりの速度は 1 ミリ秒です。1 回の操作で 2 ミリ秒の速度を持つコンピューター B。サイズ 300 のインスタンス。
アルゴリズム A がコンピューター A でこのインスタンスを解決するのにかかる時間と、コンピューター B でかかる時間を調べたいと考えています。
私がやりたいのは、n に対してサブ 300 であるため、50*(300^2) = 4500000 になります。
次に、最初のコンピューターの場合は 1 を掛け、2 番目のコンピューターの場合は 2 を掛けます。
これは私には奇妙に感じますが、「実行時間」が 50n^3 であり、「演算回数が 50n^3」ではないため、時間を掛けているような気がします。ミリ秒の二乗の単位になってしまいますが、これはまったく正しくないようです。
私が正しいかどうか、そうでない場合は、質問が実際に何を意味するかを知りたいです。