プログラミング 8085、8086、およびマイクロプロセッサー全般を研究する場合、常に 16 進数表現を使用します。2 進数がコンピューターで重要であることは問題ありません。しかし、これらの 16 進数はどのように重要なのでしょうか? 歴史的な重要性はありますか?
誰かがいくつかの歴史的な論文も指摘してくれるとうれしいです.
編集:
コンピュータは 16 進数をどのように処理しますか? たとえば、入力として 16 進数が与えられた場合、8085 で何が起こるでしょうか?
16 進数は 2 進数に簡単に変換でき、その逆も同様です。
基本的に、2 進数を扱う必要がある人は全員、モニターに次のようなチート シートを持っています。
0000 = 0
0001 = 1
...
1111 = F
16 進数の 1 桁を 2 進数の 4 桁に変換します。例:
0x1A5F = 0001 1010 0101 1111
16 進数は、2 進数をコンパクトな形式で書き留める最も簡単な方法です。
重要な理由の 1 つは、人間にとって 16 進数は 2 進数よりもはるかに短く、読みやすいためです。