これは、天才的な発想、あるいは単にコンピュータ言語の必要性と呼ぶことができます。
私の考えでは、デバイスとしてのコンピューターは、数値を除算したり乗算したりすることはなく、ビットを加算または単純にシフトするロジックのみを備えています。コンピューターに乗算、減算するように命令することでアルゴリズムを機能させることができますが、ロジックが実際の処理に到達すると、結果はビットのシフトまたはビットの追加の結果になります。
数値を 4 で割った結果を得るために、コンピューターは実際にはビットを 2 つの場所に右シフトし、結果を与えると簡単に考えることができます。
7 in 8-bit binary = 00000111
Shift Right 2 places = 00000001 // (Which is for sure equal to Decimal 1)
Further examples:
//-- We can divide 9 by four by Right Shifting 2 places
9 in 8-bit binary = 00001001
Shift right 2 places: 00000010 // (Which is equal to 9/4 or Decimal 2)
アセンブリ言語プログラミングの深い知識がある人は、より多くの例で説明できます。これらすべての背後にある実際の意味を知りたい場合は、コンピューターのビット レベルの演算とアセンブリ言語を学習する必要があると思います。