1

少し前に、スタックオーバーフローでここにリンクされている「ライブエフェクトカム」のコードを見ました。そのアプリは、OpenGL を使用して通常のカメラ フィードを変換し、さまざまな方法で画像がゆがんだように見せることができます。Oculus rift で表示するのに適したいくつかの画像を作成するために、iOS で OpenGL を使用して、通常のフラットなカメラ フィードまたは画像を変換できるかどうか興味がありますか?

つまり、上記のようなコードを使用して平面画像を適切に変換し、Oculus Rift で見たときに 3D であると思わせることができるでしょうか?

以下は、私が達成しようとしているものの例です。この場合、レンダリング エンジンは 2 つのビューポートを作成し、わずかに異なる角度で 2 つの画像をレンダリングできると想定しています。しかし、画像またはカメラ フィードは 1 つしかありません。 ここに画像の説明を入力

ここに画像の説明を入力

4

1 に答える 1

1

シンプルな 2D 画像を作成して Rift に表示できますが、画像に奥行きはありません。さらに、かなり大きな視野でレンダリングまたはキャプチャした画像でない限り、それらは画面のごく一部しか占有しません。

これを行う最も簡単な方法は、画像を OpenGL テクスチャに変換し、それをオフスクリーン バッファー内の単純な長方形のジオメトリにレンダリングし、オフスクリーン レンダリングを Oculus SDK に渡して歪みを加え、リフト。または、画像の正確な視野がわかっている場合は、特に画像に合わせて Oculus 歪みマトリックスを作成し、画像テクスチャを SDK に直接渡すことができます。

このリンクは、OpenCV を使用してウェブカメラから画像をキャプチャし、それらを OpenGL にコピーしてから、Oculus Rift で表示するために 3D シーン内でレンダリングする C++ の例へのリンクです。

于 2014-09-09T04:38:51.423 に答える