少し前に、スタックオーバーフローでここにリンクされている「ライブエフェクトカム」のコードを見ました。そのアプリは、OpenGL を使用して通常のカメラ フィードを変換し、さまざまな方法で画像がゆがんだように見せることができます。Oculus rift で表示するのに適したいくつかの画像を作成するために、iOS で OpenGL を使用して、通常のフラットなカメラ フィードまたは画像を変換できるかどうか興味がありますか?
つまり、上記のようなコードを使用して平面画像を適切に変換し、Oculus Rift で見たときに 3D であると思わせることができるでしょうか?
以下は、私が達成しようとしているものの例です。この場合、レンダリング エンジンは 2 つのビューポートを作成し、わずかに異なる角度で 2 つの画像をレンダリングできると想定しています。しかし、画像またはカメラ フィードは 1 つしかありません。