glTexSubImage2D を GL_LUMINANCE および GL_UNSIGNED_BYTE と共に使用して、カメラからの生のグレースケール データを直接表示しています。手動で RGB ビットマップに再パックする必要はありません。
カメラを 12 ビットまたは 14 ビット/ピクセルの高解像度モードで実行したいと考えています。
設定するだけでこれを行うことができますGL_SHORT
が、カメラはビッグエンディアンでデータを返し、私のopenGL実装はそれを間違った方法で描画しているようです(x86上)。
テクスチャが「間違った」方法であることをopenGLに伝える簡単な方法はありますか? 他のすべての関数はビッグエンディアンデータを想定しているため、表示のためだけにデータを手動でバイトスワッピングすることは避けたいと思います。