ゲームのオーディオ エンジンと、呼び出される Microsoft Core Audio API との間の相互作用を研究しています。ゲームがデフォルトのエンドポイントから「WAVEFORMATEX」情報を取得した方法を理解しようとしています。ゲーム開始時のある時点で、 IsFormatSupported() [ https://msdn.microsoft.com/en-us/library/windows/desktop/dd370876(v=vs.85).aspx]が * で呼び出されることがわかりますpFormat (IsFormatSupported の 2 番目のパラメーター) には、既定のエンドポイントの形式情報 (つまり、チャネル、ビット/サンプル、サンプリング レートなど) が入力されます。これより前に、ゲームが GetMixFormat() [ https://msdn.microsoft.com/en-us/library/windows/desktop/dd370872(v=vs.85).aspx]を呼び出していないこともわかります。
ただし、IMMDeviceEnumerator (EnumAudioEndpoints、QuryInterface、AddRef など)、IMMDeviceCollection (GetCount、Item)、および IMMDevice (QueryInterface、AddRef など) に関連する一連の呼び出しがあります。これらのドキュメントを見ると、「フォーマット」(WAVEFORMATEX) 情報を直接取得する方法はないようです。MMDevice::OpenPropertyStore() が呼び出され、続いて 'GetId()' が呼び出されますが、'PKEY_AudioEngine_DeviceFormat' パラメーターを使用した 'GetValue()' の呼び出しが見られません。これにより、'format' 情報が提供される可能性があります。したがって、ゲームが「フォーマット」情報をどのように取得したかについては、少し困惑しています。前述の呼び出しのいずれかで、間接的に「フォーマット」情報を取得できますか?
「オーディオとビデオ」フィルターを有効にして分析するために、API モニター アプリケーション [ http://www.rohitab.com/downloads]を使用しています。