1

プログラミング 8085、8086、およびマイクロプロセッサー全般を研究する場合、常に 16 進数表現を使用します。2 進数がコンピューターで重要であることは問題ありません。しかし、これらの 16 進数はどのように重要なのでしょうか? 歴史的な重要性はありますか?

誰かがいくつかの歴史的な論文も指摘してくれるとうれしいです.

編集:

コンピュータは 16 進数をどのように処理しますか? たとえば、入力として 16 進数が与えられた場合、8085 で何が起こるでしょうか?

4

4 に答える 4

6

16 進数は 2 進数に簡単に変換できその逆も同様です。

基本的に、2 進数を扱う必要がある人は全員、モニターに次のようなチート シートを持っています。

0000 = 0
0001 = 1

...

1111 = F

16 進数の 1 桁を 2 進数の 4 桁に変換します。例:

0x1A5F = 0001 1010 0101 1111

16 進数は、2 進数をコンパクトな形式で書き留める最も簡単な方法です。

于 2013-05-13T21:02:53.297 に答える
0

重要な理由の 1 つは、人間にとって 16 進数は 2 進数よりもはるかに短く、読みやすいためです。

于 2013-05-13T01:44:50.290 に答える