問題タブ [augmented-reality]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c++ - C++ によるアニメーション
C++ でリッチなアニメーションを作成する方法はありますか? オブジェクト検出に OpenCV を使用しており、検出されたオブジェクトをリッチなアニメーションで表示したいのですが、これを実現する簡単な方法はありますか? フラッシュを使用してリッチなアニメーションを簡単に作成できることは知っています。しかし、フラッシュは C++ と確実に統合できますか?またその方法は?
また、OpenGL でこれを解決できますか? 私の知る限り、OpenGL は 3D レンダリングに適しています。しかし、画像に 2D アニメーションを表示することにもっと興味があります。したがって、これが正しい方法であるかどうかはわかりません。
別の質問ですが、拡張現実のアニメーションはどのように実現されていますか? 彼らはどのようなライブラリを使用していますか?
前もって感謝します。
image-processing - 写真の中のパターン/マーカーの位置を見つける
拡張現実で使用されているようなマーカーを見つける必要があります。このように: 私は代数と微積分の確かな背景を持っていますが、画像処理の経験はまったくありません。私のものはPhp、sqlなどです。
私はこれを機能させたいだけです。この背後にある理論を読みましたが、コードで確認するのは非常に困難です。
主なアイデアは、これをバッチプロセスとして実行することであるため、対話性は必要ありません。何を指示してるんですか?入力:サンプル画像。
出力:マーカーの3Dでの座標と法線ベクトル。
これを使用するのは、同じマーカーを持つ画像をリンクして空間化することです。これは、フォトシンクの原始的なバージョンと言えます。ピン留めされた画像のカルーセルであり、マーカーはピンのように機能します。
与えられた担当者は私が画像を投稿することを許可しました、ありがとう。
android - 携帯電話の拡張現実
Adobe Flash Platform を使用して携帯電話用の拡張現実アプリケーションを実装することに興味があります。開始方法を知るために利用できる情報源があれば教えてください。
AR を実装するためにどのソフトウェアを使用する必要があるのか わかりませんが、理解できるように、次のものが必要です。
ARToolKit Marker Generatorで 3D 画像に一致するマーカーを作成し、次にFLARToolKitでマーカーから画像を分析し、Papervision3Dでマーカーと同じ空間を共有するオブジェクトを作成します。
私が書いたことが正しいかどうか教えてください。また、Adobe Flash プラットフォームで実装を開始する方法を教えてください。
ありがとうございました
iphone - 向きを扱うための iPhone 三角法
拡張現実アプリケーションを作成しようとしています。コンパス、ジャイロスコープ、GPS 座標を使用してオーバーレイを作成しています。ユーザーがポートレート モードを終了する場合を除いて、すべてがうまく機能しています。私が理解できない単純な三角問題でなければなりません。
座標が視野内にあるかどうかを判断するには、プログラムの開始時に計算された iPhone の中心点の方位角と傾斜角の値を使用します。方位角は、電話が上を向いているときの左右の動きとして定義され、傾斜は、電話が上を向いているときの上下の動きとして定義されます。次に、更新時にジャイロスコープとコンパスのデータでこの値を更新します。したがって、中心点の傾きと方位角を正しく更新すれば、すべてが機能するはずです。
問題は、iPhone を回転させたときに、その方位角と傾斜角の定義が電話に対して同じままであることです。そのため、電話が横向きであっても、傾斜は電話の上部までとして定義されます。
私が試したのは、次のようなことでした:
ここで、degToRad(x) は度からラジアンに変換されます。cosZ と sinZ はそれぞれジャイロスコープからの z 角度の cos と sin であり、angleX と angleY はジャイロスコープからの x と y の角度です。ジャイロスコープの X 角度は上下角度を測定し、Y 角度は左右を測定し、Z 角度は縦から横への電話の回転を測定します。
機能していないようです。電話を横に回転させると、傾斜が劇的に跳ね上がります。助けてくれる人はいますか?
通常、縦向きのみを考慮する場合は、次のように追加する必要があります。これは、縦向きで機能します。異なる角度を考慮して、これに何らかの係数を掛ける必要があります。
iphone - カメラの動きを検出するための高速で非常に軽量なアルゴリズム?
私はiPhone用の拡張現実アプリに取り組んでいます。これには非常にプロセッサを集中的に使用するオブジェクト認識アルゴリズム(CPUを100%でプッシュすると、1秒あたり5フレームを通過できる可能性があります)が含まれ、バッテリーの電力を節約し、全体が「ぎこちない」ものではない私は、ユーザーが実際にカメラを動かしているときにのみ、そのオブジェクト認識機能を実行する方法を考え出そうとしています。
私が最初に考えたのは、iPhoneの加速度計/ジャイロスコープを使用することでしたが、テストの結果、iPhoneがまだ動いていることを知る方法がないほど、十分な姿勢と速度でiPhoneを動かすことが非常に多いことがわかりました。
そのため、実際のビデオフィードを分析し、その中の動きを検出するオプションが残りました。OpenCVを動作させて、ピラミッド型のLucas-Kanadeオプティカルフローアルゴリズムを実行してみました。これはうまく機能しますが、オブジェクト認識機能とほぼ同じくらいプロセッサを集中的に使用するようです。深度レベルを下げる/ダウンサンプリングすると、許容可能なフレームレートに到達できます。画像/追跡するポイントは少なくなりますが、精度が低下し、大きな動きを見逃し始め、小さな手で揺れるような動きでトリガーされます。
だから私の質問は、カメラの動きの全体的な大きさを検出したいだけの場合、Lucas-Kanadeよりも高速な別のオプティカルフローアルゴリズムはありますか?個々のオブジェクトを追跡する必要はありません。カメラがどちらの方向に動いているかを知る必要もありません。本当に必要なのは、2フレームのビデオをフィードして、それらがどれだけ離れているかを教えてもらう方法だけです。
iphone - 拡張現実フィードバック
ショッピングモールで使用するアプリケーションを開発しています。拡張現実の概念を使用したい - 誰かがモールに近い場合、現在の場所を取得してモールまでの距離を計算します。次に、カメラ ビューの画像にモール名とモールまでの距離を表示します。
誰かが間違った方向に進んでいる場合、どうすれば画像を回転できますか? 加速度計を使用する必要がありますか? 方法がわかりません。加速度計によって得られたデータをモールの座標に関連付ける必要がありますか? 他に考えられる解決策がある場合は、お知らせください。前もって感謝します。
.net - ユースケースにはXNAが必要ですか、それともSilverlight(Windows Phone 7)を使用できますか?
私は一般的に.netプログラミング、特にWindows Phone 7を初めて使用します(私はJavaの人です)。
大学で、半拡張現実モードを備えたWindowsPhone7ワークショップのアプリケーションを作成しています。(win-pho7ではカメラフィードが許可されていないため、半ば)。
主に、ピッチ、ヨー、GPSの変更(サブスクライブ)の結果として、背景(カメラフィードである必要があります)全体にさまざまな画像のオーバーレイをレンダリングする必要があります。
XNAを使用する必要があるかどうかを理解しようとしています。これは、グラフィックスを要求するタスクのように思われ、XNAの目的であると説明されたためです。または、XNAを使用して開発するのが少し簡単なSilverlightを使用できます。 draggabaleコントロールとすべて。
それ以来、私の質問がうまくいくことを願っています。そうでない場合は、質問してください。さらに詳しい説明を提供します。
おかげで、
Ittai
Update:
上記のイベントに基づいて再レンダリングされる約20の2D画像をレンダリングすることが、Silverlightで処理できるものであるか、xnaが必要かどうかを主に理解しようとしています(グラフィックスの面で要求が厳しすぎるため) ?
誰かがこれらの問題の経験を持っているなら、私は聞きたいです。
最終更新(願わくば):
私が懸念している主なことは、画面の更新を処理するSilverlightの機能です。
これは拡張現実アプリケーションであり、ユーザーが電話を動かすたびに、オーバーレイされた画像を調整する必要があるため、複雑なことは何もありません。数ピクセルオフセットを上下/左/右に動かすだけですが、まだやるべきことがあります。
これらの小さいながらも頻繁な変更を画像に適用しようとすると、問題が発生するのではないかと心配しています。そして、これらは2つの異なる実装パスであるため、これが時期尚早の最適化とは見なされないと思います。
簡単に理解できると思いますが、私はむしろSilverlightを使用したいのですが、それを処理できるかどうかはわかりません。
すべてのアップデートを読んでくれてありがとう、
Ittai
iphone - Core Motion を使用して加速度計データから変位を取得する
私は、(現時点では)単純な立方体を表面の上に表示し、空間内を移動して(回転と変位の両方で)立方体をさまざまな角度で見ることができるようにする拡張現実アプリケーションを開発しています。カメラのキャリブレーションの問題はここでは当てはまりません。キューブを配置したい面に iPhone を置き、ボタンを押して姿勢をリセットするようにユーザーに依頼するからです。ジャイロスコープと Core Motion を使用すると、カメラの回転を簡単に確認できます。私はこのようにします:
これは本当にうまくいきます。とにかく、加速中の空間の変位を見つけようとすると、さらに多くの問題が発生します。Core Motion を使用した Apple Teapot の例では、加速度ベクトルの x、y、および z 値を位置ベクトルに追加するだけです。これは(あまり意味がありませんが)、加速後にオブジェクトを元の位置に戻す結果をもたらします。(加速度は正から負、またはその逆になるため)。彼らは次のようにしました:
ある瞬間の加速度から変位を求めるにはどうすればよいですか?(既知の時差あり)。他のいくつかの答えを見ると、加速度から速度を取得し、速度から位置を取得するには、2回積分する必要があるようです。しかし、コードにはまったく例がなく、本当に必要だとは思いません。また、iPhoneがまだ飛行機に乗っているとき、加速度計の値がnullにならないという問題があります(ノイズがあると思います)。これらの値をどの程度フィルタリングする必要がありますか? それらをまったくフィルタリングする必要がありますか?
iphone - iPhone:拡張現実を操作する方法
拡張現実アプリでは、カメラビューで別の透明なビューが表示されます。この透明なビューでは、カメラビューで描画して保存するために使用しました。このアプリケーションの操作方法を提案(開始および終了)してください。ありがとうございます。素晴らしい日
c++ - 正方形の向きを計算し、同じ向きでオブジェクトを表示する
画像内の正方形を検出するアプリケーションを作成しました。このような正方形 (この場合はマーカー) を含む画像がどのように見えるかをよく理解するために、次のようにします。
検出後に得られるのは、マーカーの四隅の座標です。マーカーにオブジェクトを表示する方法がわかりません。オブジェクトは、マーカーと同じ回転/角度/方向を持つ必要があります。
それを達成する方法についての論文はありますか、それを使用できるアルゴリズムはかなり堅実/機能することが証明されていますか?
それは実用的な解決策である必要はありません。それを達成する方法についての簡単な説明や、それに類似したものである可能性があります。ライブラリなどを教えていただければ、Linux で動作するはずです。Windows は必要ありませんが、ある時点でアプリケーションを移植する必要がある場合に備えて最適です。ARToolkit は既に見ましたが、カメラ パラメーター ファイルとより複雑なマトリックスがありましたが、ビデオ/カメラ ストリーム全体ではなく、4 つのコーナー ポイントと 1 つの画像しか取得できませんでした。