0

最近、You Tube でバーチャル ミラーの概念を目にしたので、実際に試して調べてみました。作成者は拡張現実を使用して、人々が画面で出力を見ることができるように思われます. 調べてみると、3D画像が重ねられたパターンを識別していることがわかりました。

質問 1:どのようにして宝石を重ね合わせ、パターンを識別せずに人物の顔を追跡することができますか?

また、表示されているものと同様のプログラムを作成するために使用できるさまざまなライブラリをチェックしようとしました。多くの人が Android フォンや iPhone を使用して、拡張現実を使用するアプリを作成しているように思えます。

質問 2:C++ を使用して、拡張現実を使用するプログラムを作成する方法はありますか?

ああ、そして最も重要なことは、アプリケーションへのリンクが以下に提供されていることです。

http://www.boutiqueaccessories.com.au/virtual-mirror/w1/i1001664/

試してみてください。良い経験です。:D

4

1 に答える 1

0

実際にライブデモを試すことはできませんが、リンクされたビデオは、単純なパターン認識を使用するか (人物の輪郭を取得する)、または最初の画像に基づいて単純に追跡する (位置/テクスチャが決定される) ことを示唆しています。アウトラインが示されています。

ビデオを見ると、この背後に実際の高度な AR がないことが簡単にわかります。画像は単にオーバーレイまたは非表示になり (たとえば、横を向いているために片方の耳のトラックが失われている場合)、変換されません (遠近法やサイズ変更は行われません)。彼らは間違いなく頭(または耳、首などの特徴)を追跡しているようです。あなたの背景や環境にもよりますが、これは実際にはかなり些細な作業です。

質問 2: わかりました!既製のツールセットはたくさんありますが、OpenCVなどの一般的な画像処理ライブラリを使用して計算することもできます。拡張現実は通常、ある種のパターン (既知のパターンを持つカードやページなど) を使用して、画像に追加するコンテンツの正しい位置と変換を決定します。デバイスの向きとカメラ画像の視点の変化を使用して深度/位置を決定するアプローチもあります (私はこのデモがとても気に入っています)。

于 2012-07-10T08:42:04.787 に答える