問題タブ [augmented-reality]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
6 に答える
11655 参照

java - 拡張現実に SIFT を使用する

私は多くの AR ライブラリ/SDK/API に出くわしました。それらはすべてマーカーベースです。説明とコメントから、このビデオを見つけるまで、彼は SIFT を使用してオブジェクトを検出し、それを追跡しているようです。

Android でこれを行う必要があるため、純粋な Java で SIFT を完全に実装する必要があります。

喜んでそれを行いますが、最初に SIFT が拡張現実にどのように使用されるかを知る必要があります。

私はあなたが与える情報を利用することができます。

0 投票する
1 に答える
2095 参照

wpf - WPF で中心から外れた PerspectiveCamera を作成するにはどうすればよいですか?

Johnny Lee の Wii ヘッド トラッキング アプリを多かれ少なかれ再作成しようとしていますが、トラッキングには拡張現実ツールキットを使用し、グラフィックには WPF を使用します。これを行うには、視野と縦横比の代わりに、上、下、右、左のパラメーターを使用して視錐台を作成する遠近カメラを作成する必要があります (OpenGL に精通している方には、WPF の同等のものを使用したいと思います)。 gluPerspective の代わりに glFrustum を使用)

問題は、これらのオプションが WPF の PerspectiveCamera クラスで使用できないように見えることです。MatrixCamera を使用する必要がある場合は、おそらく射影行列を手動で作成できますが、それは避けたいと思います。これを行うためのより良い方法を知っている人はいますか?

0 投票する
7 に答える
21612 参照

algorithm - 拡張現実のためのSURFおよびSIFT代替オブジェクト追跡アルゴリズム

ここで質問し、SURFとSIFTの両方を試した後、どちらも、カメラからのストリームを追跡するのに十分な速さでインタレストポイントを生成するのに十分な効率であるとは言えません。

たとえば、SURFは画像のインタレストポイントを生成するのに約3秒かかります。これは、Webカメラからのビデオを追跡するには遅すぎます。携帯電話で使用すると、さらに悪化します。

特定の領域、そのスケール、傾斜などを追跡するアルゴリズムが必要なだけで、その上に構築できます。

ありがとう

0 投票する
1 に答える
3516 参照

ubuntu - 拡張現実を取得する方法: 実用的なガイドの例を機能させるには?

私は最近、「拡張現実: 実践ガイド」という本を購入しました。Windows、MacOS、および Linux で動作するサンプル コードがあります。

しかし、バイナリを実行できません。この本とUbuntuで実行するバイナリを持っている人はいますか?

また、Ubuntu でサンプルをコンパイルする方法もわかりません。どうすればいいですか?

これが何をするかです:

Linux 用のコンパイル

さわやかに、この章のプログラムを Linux 用にコンパイルするために必要な変更はありませんが、Windows の場合と同様に、最初に GL および GLUT ファイルを見つける必要があります。これは、マシンに適したバージョンの GLUT をダウンロードする必要があることを意味する場合があります。

GL、GLU、および GLUT ライブラリにリンクし、GLUT ヘッダー ファイルとそれに含まれるファイルへのパスを指定する必要があります。/usr/include/GLディレクトリに glut.h ファイルがあるかどうかを確認します。コマンドを使用しfind / -name "glut.h"てマシン全体を検索するか、locate コマンド ( locate glut.h) を使用できます。

パスをカスタマイズする必要があるかもしれませんが、コンパイル コマンドの例を次に示します。

$ gcc -o opengl_template opengl_template.cpp -I /usr/include/GL -I \ /usr/include -lGL -lGLU -lglut

gcc は、Linux または Unix マシンに存在する必要がある C/C++ コンパイラです。コマンドライン引数は、インクルード ファイル-I /usr/include/GLを探すように gcc に指示します。/usr/include/GLこの場合、glut.h とそれに含まれるものが見つかります。gcc でライブラリをリンクするときは、スイッチを使用します。ここで、X はライブラリの名前で、パスのどこかに-lX対応するファイルがあります。この例では、ライブラリ ファイル、、およびlibX.aをリンクしたいので、gcc 引数を使用します。これら 3 つのファイルはデフォルト ディレクトリにあるため、glut.h の場合のように場所を指定する必要はありません。ライブラリ パスを指定する必要がある場合は、パスに -L を追加します。libGL.alibGLU.alibglut.a-lGL -lGLU -lglut/usr/lib/

コンパイルしたプログラムを実行するには、./opengl_templateor と入力します。現在のディレクトリがシェルのパスにある場合は、opengl_template.

Linux で作業する場合、テクスチャ ファイルを最大 256 x 256 ピクセルに維持するか、システムの設定を見つけてこの制限を引き上げる必要がある場合があることを知っておくことが重要です。多くの場合、OpenGL プログラムは Windows では動作しますが、Linux ではテクスチャ サイズが縮小されるまで空白の白いテクスチャが生成されます。

上記の指示は私には意味がありません。コンパイルには gcc を使用する必要がありますか? それとも Eclipse を使用できますか?

Eclipse または gcc を使用している場合、プログラムをコンパイルして実行するにはどうすればよいですか?

0 投票する
1 に答える
820 参照

iphone - AR アプリでのコンパスと GPS の機能に関する私の理解は正しいですか?

カメラ ビューでオブジェクトや建物に注釈を付ける AR アプリでは、電話 (iPhone/Android) のさまざまなハードウェア ビットが AR 効果を実現するために果たす役割を理解したいと思います。以下について詳しく教えてください。

  • カメラ: 現実の 2D ビューを提供します。
  • GPS: デバイスの経度、緯度を提供します。
  • コンパス: 磁北に対する方角。
  • 加速度計: (役割はありますか?)
  • 高度計:(役割はありますか?)

例: カメラ ビューにニューヨークのスカイラインが表示されている場合、上記のハードウェアからの情報はビューに注釈を付けるのにどのように役立ちますか? クライスラービルの経度と緯度があり、それがカメラビューに表示されていると仮定すると、2D 画像の名前に注釈を付ける場所を正確に計算するにはどうすればよいですか? (経度、緯度)の2つのペアがあれば、ポイント間の距離を計算できることを知っています。

0 投票する
1 に答える
3470 参照

iphone - iPhone 3GS と UIView による拡張現実

私は iPhone 3GS とその磁気センサーを少し試しています。デバイスの上部から見た北極の方位と角度を取得するのは非常に簡単です。また、加速度計を介してデバイス自体の位置を取得するのは非常に簡単です。しかし、すべてをまとめるには、ベクトル計算に関する数学の知識が必要だと思います。

私が興味を持っているのは、これらの計算を実行して、カメラ オーバーレイに配置した UIView に適用する非常に簡単な方法です。たとえば、地平線の北極に UIView を固定したいと思います。これは、デバイスを傾けたり回転させたりしても機能するはずです。「変換」を UIView に適用して、常に表示されるように回転させることもできます。

もう 1 つ必要になるのは、カメラ ビュー フィールドとオブジェクト座標の間の正しい関係を取得することです。これらが理論的に正確に一致する場合、人が動かなければ、オブジェクトは実際には常に同じオブジェクトにくっついてオーバーレイするはずです。

サンプルはありますか?何か案は?OpenGL を使用していないコード ;) ありがとうございます。

0 投票する
2 に答える
1298 参照

model - 拡張現実向けゲームエンジン

拡張現実プロジェクトでは、高解像度のライブ カメラ フィードを表示したいと考えています。次に、この前に、リアルタイムで操作 (変換、ストレッチなど) できるモデルを表示したいと考えています。

私はOpenSceneGraphを使用するつもりでしたが、操作を機能させるには多くの作業が必要になることに気付きました。したがって、より高レベルのソリューションを好むでしょう。

上記の機能をサポートするゲームエンジンを経験から推奨できる人はいますか? または、これを実現するために CAD アプリと連携する方法はありますか?

0 投票する
2 に答える
1246 参照

windows-mobile - Windows Mobile でカメラの露出をプログラムで変更する方法は?

プログラム内からカメラの露出を変更 (下げる) する必要があります。

私が見つけた文書化された API (DirectShow) は機能していないようです。

どんな助けでも大歓迎です。

0 投票する
2 に答える
174 参照

opengl - ビデオ フィードにビットマップ ファイルを読み込むにはどうすればよいですか?

私は、artoolkit を使用して拡張現実ベースのプロジェクトを作成しています。openvrml を使用して、ビデオ フィードに vrml 3d オブジェクトをロードできます。ここで、ビデオ フィードのマーカーにビットマップまたは jpg、png などのファイルをロードしたいと考えました。これを達成するにはどうすればよいですか?