私は現在、次のエミュレーションプロジェクトであるサイクル精度の68000コアでCを学習しています(私の最後のプロジェクトは、Javaで記述された非サイクル精度のSega Master Systemエミュレーターで、現在3番目のリリースです)。私の質問では、サイクルレベルの精度は、物事をこのレベルにすることは私にとって新しいことであると見なしています。
1 CPUサイクルの粒度に分解するには、おそらくメモリアクセスにかかる時間などを知る必要がありますが、私の質問は、メモリのフェッチ/書き込み段階で複数のサイクルを要する命令の場合、CPUは何をしているのかということです。各サイクル-たとえば、サイクルごとにコピーされるビットのx量です。
私のSMSエミュレーターでは、各命令のサイクルカウントを使用するだけなので、M1ステージなどについてあまり心配する必要はありませんでした。つまり、サイクルレベルではなく、命令レベルに対してのみ正確です。私はアーキテクチャ固有の詳細を探しているのではなく、このレベルの粒度に移行するときにどのようなことに注意する必要があるかを考えているだけです。
ただし、68kの詳細は大歓迎です。基本的に、CPUが命令のそのフェーズの途中でまだデータを書き込んでいる間に、ビデオチップがメモリの領域から読み取る場合、および他の同様の状況で何が起こるのか疑問に思っています。十分に明確にしたと思います、ありがとうございます。