Project tango はフレームごとに視覚的特徴 (ORB や SIFT/SURF など) を抽出しますか? またはポイント クラウド全体が深度カメラから抽出された 3D ポイントです。もしそうなら、彼らが使用しているアルゴリズムを知ることは可能ですか? 角だけですか?
対応する機能とともに 3D 点群をダンプしたいと思いますが、それがすべてリアルタイムで可能かどうか疑問に思っています。
Project tango はフレームごとに視覚的特徴 (ORB や SIFT/SURF など) を抽出しますか? またはポイント クラウド全体が深度カメラから抽出された 3D ポイントです。もしそうなら、彼らが使用しているアルゴリズムを知ることは可能ですか? 角だけですか?
対応する機能とともに 3D 点群をダンプしたいと思いますが、それがすべてリアルタイムで可能かどうか疑問に思っています。
残念ながら、どの機能を使用しているかは公開されていません。あなたが得るのは、XYZ + Confidence だけです。C API からのリアルタイム ポイント クラウド コールバックを次に示します。
TangoErrorType TangoService_connectOnPointCloudAvailable(
void(*)(void *context, const TangoPointCloud *cloud) TangoService_onPointCloudAvailable,
...
);
見る:
TangoPointCloud
ここで定義されています:
余談ですが、Tango の目的がさまざまなセンサーやハードウェア プラットフォーム上にある移植可能な API であると考える場合、基になる深度推定方法の詳細を公開しないのは理にかなっています。あるデバイスから次のデバイスへと変化する可能性があります。
ところで、彼らは ADF (Area Description File) 形式の内部も秘密にしています。