キーポイントの検出、記述、およびマッチングのプロセスを研究し、実験を行うために数か月を費やしました。前回は、拡張現実の背後にある概念、正確には「マーカーレス」認識と姿勢推定にも興味を持っていました。
幸いなことに、この設定では以前の概念がまだ広く使用されていることがわかりました。基本的な拡張現実を作成するための一般的なパイプラインは次のとおりです。必要な各アルゴリズムの詳細は省略します。
ビデオをキャプチャしている間、すべてのフレームで...
- いくつかのキーポイントを取得し、それらの記述子を作成します
- これらのポイントと、以前に保存した「マーカー」(写真など) 内のポイントとの一致を見つけます。
- 一致が十分であれば、可視オブジェクトのポーズを推定し、それで遊ぶ
つまり、たとえば、この学生 (?) プロジェクトで使用される非常に単純化された手順です。
ここで質問です。個人的な調査中に、「オプティカル フロー」と呼ばれる別の方法も発見しました。まだ研究の初期段階ですが、まずは以前の方法とどのくらい違うのか知りたいです。具体的には:
- その背後にある主なコンセプトは何ですか? 前に大まかに説明したアルゴリズムの「サブセット」を使用しますか?
- 計算コスト、パフォーマンス、安定性、精度の面での主な違いは何ですか? (これはあまりにも一般化された質問になる可能性があることを私は知っています)
- 商用ARツールでより多く使用されているのはどれですか? (ジュナイオ、レイヤー、...)
ご協力いただきありがとうございます。