1

ポイントクラウドデータを表示するグラフィックエンジンを作成しようとしています(今のところ一人称で)。私の考えは、私たちが見ている空間のさまざまなポイントから個々のビューを事前に計算し、それらを球にマッピングすることです。そのデータを補間して、空間上の任意のポイントからのビューを決定することは可能ですか?

私の英語と下手な説明で申し訳ありませんが、別の説明方法がわかりません。私の質問が理解できない場合は、必要に応じて喜んで再構成します。

編集:

例を挙げて説明しようと思います

画像 1: 最初の視点

画像 2:第二の視点

これらの画像では、カボチャの 2 つの異なるビューを見ることができます (両方のケースで 360 ビューの球体マップがあると想像してください)。最初のケースでは、カボチャの遠景があり、その周囲を見ることができ、キャラクターのすぐ後ろに胸があると想像できます (後ろを見ると、胸の詳細が表示されます)。

したがって、最初のビュー: カボチャの周囲と詳細度の低い画像、および胸部の詳細な画像ですが、周囲はありません。

2 番目のビューでは、正反対のビューが表示されます。カボチャの詳細ビューと胸部の非詳細な全体ビュー (まだ背後にあります)。

アイデアは、両方のビューからのデータを組み合わせて、それらの間のすべてのビューを計算することです。したがって、パンプキンに向かうということは、最初の画像のポイントを伸ばして、2 番目の画像でギャップを埋めることを意味します (他のすべての要素は忘れて、カボチャだけを忘れてください)。同時に、胸部の画像を合成し、2 番目の画像の一般的なビューからのデータで周囲を埋めます。

私が望むのは、ピクセルのストレッチ、コンプリミング、およびコミネーションを指示するアルゴリズムを持つことです(前方と後方だけでなく、2つ以上の球マップを使用して斜めにも)。恐ろしく複雑なことは承知していますが、今回は自分自身を十分に表現できたことを願っています。

編集:

(私はビューという言葉をよく使っていますが、それが問題の一部だと思います。「ビュー」の意味の定義は次のとおりです。「各点が画面上のピクセルに対応する、色付きの点のマトリックス。画面には、毎回マトリックスの一部のみが表示されます (マトリックスは 360 球体であり、その球体の一部が表示されます) ビューは、カメラの位置を動かさずにカメラを回転させることで見ることができるすべての可能な点のマトリックスです。 " )

さて、あなた方はまだその周りの概念を理解していないようです. アイデアは、リアルタイムで表示する前に最大量のデータを「プレクック」することにより、可能な限り詳細な環境を表示できるようにすることです。今のところ、データの前処理と圧縮について説明しますが、それについては質問していません。最も「事前準備された」モデルは、表示されたスペースの各ポイントで 360 ビューを保存することです (たとえば、キャラクターが 1 フレームあたり 50 ポイントで移動している場合、50 ポイントごとにビューを保存する場合、ライティングとシェーディング、および表示されないポイントをフィルタリングして、それらが無駄に処理されないようにします)。基本的に、可能なすべてのスクリーンショットを計算します (完全に静的な環境で)。もちろん、それはばかげているだけですが、

別の方法は、頻度を減らして、一部の戦略的ビューのみを保存することです。可能なすべてのポイントを保存すると、ほとんどのポイントが各フレームで繰り返されます。画面上の点の位置の変化も数学的に規則的です。私が求めているのは、いくつかの戦略的視点に基づいてビュー上の各ポイントの位置を決定するアルゴリズムです。さまざまなポジションの戦略的ビューからのデータを使用および組み合わせて、任意の場所でのビューを計算する方法。

4

0 に答える 0