合理的に単純な AR 機能を備えた小さな Android アプリを作成しようとしています。いくつかの既知のマーカーを読み込み、それらが検出されたときにビデオ ストリームの上に既知の 2D/3D オブジェクトをレンダリングします。これを行うためのライブラリへのポインタ、または少なくともそれを正しく行うための適切な例をいただければ幸いです。
ここに私が調べたいくつかのリードがあります:
AndAR - https://code.google.com/p/andar/ - これは最初はうまく機能し、AndAR アプリはリアルタイム ビデオ ストリームの 1 つのパターンで 1 つの立方体をレンダリングするのに十分に機能しますが、プロジェクトは事実上放棄されており、それを拡張するには、OpenGL の世界に深く踏み込む必要があります - 不可能ではありませんが、非常に望ましくありません。カスタム .obj ファイルをロードできると思われるフォローアップの AndAR Model Viewer プロジェクトは、マーカーをまったく認識していないようです。繰り返しになりますが、これは放棄されたソフトウェアのように見えます。
処理 - 前述の NyARToolkitは、PC からの処理に最適です -使用例。これは、「ここにパターンがあり、ここにオブジェクトがあり、そこにレンダリングするだけ」機能に対して完全に機能しますが、Android ではすべてが機能しません - Android 用の GStreamer は非常に初期のハッキング段階であり、一般的にビデオ機能は Android Processing プロジェクトの優先度がかなり低いようです - 今import processing.video.*;
のところ失敗しています。
layar、wikitude など、それらはすべて対話性、場所などに重点を置いているように見えますが、これは絶対に必要ではなく、この基本的な使用法がどういうわけか欠けています。
どこが間違っていますか?ビデオのキャプチャ/検出/レンダリングの一部をコード化できれば幸いです。ドラッグ アンド ドロップ ライブラリは必要ありませんが、AndAR のサンプル コードは、私を恐怖で満たしてくれます。