いくつかの質問を聞きたいんです:
コンピュータは 1 と 0 のみを使用して数値を表します。では、5.512 のような小数点をどのように表すのでしょうか。
コンピュータは、処理するために ASCII 値を入力しているのか、ランダムなバイナリを入力しているのかを知りません。以前は、16 進数と 2 進数を使用してプログラミングしていました。画面上に文字を出力する際に、彼らはどのように達成するでしょうか。それとは別に、コンピュータは 65(10 進数) が数字ではなく大文字の A であることをどのように理解するのでしょうか?