問題タブ [index-buffer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c++ - DirectX ラージ モデル > 64k C++
私の DirectX11 C++ エンジンは、頂点インデックス バッファに uint16_t (short) を使用し、すべて正常に機能していました。
私が使用するモデルを進化させたところ、現在では 64,000 を超えるインデックスで成長しています。
インデックス バッファへのすべての参照を short から uint32_t に変更したところ、レンダリングが壊れました。
私の変数の定義は次のとおりです。
やっと回線変えた
に
これは、32 ビットのインデックスを許可するために行われました。ただし、レンダリングに失敗します。も更新しました
によると。
どんなアドバイスでも大歓迎です。
opengl - OpenGL インデックス バッファ オブジェクト要素の順序が正しく描画されない
私のプログラムが 1 つの三角形を描画する方法に注目してください。ただし、代わりに、コードで表現しようとしているのは正方形を描画することです。私のtri_indicies
インデックス バッファ オブジェクトは、正方形が描画されるようにこれらの要素を正しく順序付けていると思いますが、プログラムを実行すると、定義した描画順序がtri_indicies
ウィンドウに反映されません。tri_indicies
要素の順序を変更してもレンダリングされた出力に影響しないにもかかわらず、エラーの原因が.
私のプログラムでは、特に VertexBuffer、VertexArray、および IndexBuffer に対して抽象化を使用しています。詳細は以下で説明します。
メインの後半で、正方形を画面に描画し、 と の間で青色の値をフェードさせるループが1.0f
あり0.0f
ます。