問題タブ [slam]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
r - 効率的な jaccard 類似性 DocumentTermMatrix
のドキュメント間の Jaccard 類似度を効率的に計算する方法が必要ですtm::DocumentTermMatrix
。この回答に示されているように、 slamパッケージを介してコサイン類似度に対して同様のことを行うことができます。CrossValidated に関する別の質問と回答に出くわしました。これは R 固有のものでしたが、行列代数については必ずしも最も効率的なルートではありませんでした。より効率的なslam関数を使用してそのソリューションを実装しようとしましたが、DTM をマトリックスに強制し、 を使用するという非効率的なアプローチを使用した場合と同じソリューションは得られません。proxy::dist
Rの大規模なDocumentTermMatrixのドキュメント間のJaccard類似度を効率的に計算するにはどうすればよいですか?
#データとパッケージ
#非効率な計算 (期待される出力)
#私の試み
出力が一致しません。
参考までに、元のテキストは次のとおりです。
ソリューションに見られるように、要素 1 と 2 は距離が 0 であり、要素 3 は要素 1 と 4 よりも要素 1 に近いと予想されます (単語が共有されていないため、最も遠い距離であると予想されます) proxy::dist
。
編集
中規模の DTM でも行列が巨大になることに注意してください。ビーガンパッケージの例を次に示します。コサイン類似度が約 5 秒であるため、解決に 4 分かかることに注意してください。
mapping - リアルタイム カメラ/画像ベースの大規模 Slam アルゴリズム
大学のキャンパスをマッピングするために、既に実装されているSLAM アルゴリズムを使用したいと考えています。
OpenSLAM.orgでいくつかのアルゴリズムと、 LSD-SLAMやHector SLAMなどの他の独立したアルゴリズムを見つけました。これらはいくつかの約束を示していますが、LIDAR を使用したり、大規模なデータセットに拡張しないなどの制限があります。
SLAM は長年にわたって活発なトピックであり、一部のグループは町全体の地図も作成しています。誰かがそのような効率的なアルゴリズムを教えてくれますか?
私の要件は次のとおりです。
- RGB カメラ/カメラを使用する必要があります。
- できれば、(ある程度)密集した地域の地図を作成します。
- 広い領域をマッピングできるはずです (机のテーブルや部屋にしかマッピングできないアルゴリズムを見たことがありますが、カメラの動きにジャークがある場合 (LSD SLAM で観察)、ランドマークがほとんどない場合は通常、追跡を失います)。学習目的にのみ役立ちます)。
- できればROSの実装。
point-clouds - 3D 点群を閉じるループ
単純なループ クロージング アルゴリズムを実装する方法を理解しようとしています。
ここに私の状況があります: x 個のポイント クラウドがあり、これらすべてのポイント クラウドのポーズを与える 3D のレジストレーション アルゴリズムを使用しました。
最終的に、私は多かれ少なかれマップの同じポイントにたどり着きますが、ドリフトがあります. 登録アルゴリズムを使用して、最初の点群に対して実際の最終的な点群がどこにあるかを確認できます。
それを知って、計算した「ドリフト」に基づいて、残りの点群を最初の点群までグローバルに最適化したいと思います。
私は翻訳に関して何かをすばやくコーディングすることができました。これは正しいようですが、フィーチャ (壁など) の精度/重ね合わせが低下するため、回転に問題があります。
私が見ているもの:g2o、GTSAM、ISAMライブラリ、すべて最適化しようとしていますが、それらを実装するには大きなオーバーヘッドがあるように感じます。それらはすべて複数の制約を必要とし、膨大な数のパラメータを設定するなど.
ループを自動的に検出するつもりはありません (後で行います)。これらの 2 つの点群はループを表し、それらの間の平行移動と回転 (私が計算する) のドリフトを (正しく) 伝播します。 2 つの間のすべての点群に。
前もって感謝します、
ios - Kudan - オブジェクトのオクルージョンに仮想ポイントを使用
Kudanでワールド系のゲームを開発したいです。だから私は2つのことをする必要があります:
- SLAM フレームワークから仮想ポイント マーカーを取得します。
- 仮想ポイントに基づいて、オブジェクト オクルージョン用のポリゴンを構築します。
2 の方法は知っていますが、フレームワークから仮想ポイントを取得する方法がわかりません。
フレームワークから仮想ポイントを取得する方法はありますか? または、これに対処する別の方法はありますか?
python - どの SLAM 実装が pcap 入力をサポートしていますか?
.pcap
Velodyne VLP16 LIDAR ユニットを使用して収集したファイルがあります。私は SLAM のさまざまな実装を調べてきましたが、ほとんどがカメラまたはステレオ カメラ入力を使用しています。pcap LIDAR データをサポートする実装があるかどうか疑問に思っていました。
opencv - Ubuntu Xenial 16.04 への ORB_SLAM のインストール
黒魔術なしで、Ubuntu の最新バージョン (Xenial 16.04) に ORB_SLAM/ORB_SLAM2 をインストールすることは可能ですか? https://github.com/raulmur/ORB_SLAM2によると、Ubuntu 14.04 を使用することが推奨されていることはわかっていますが、現在最新バージョンを使用しており、変更したり、16 と一緒に 14 をインストールしたりしたくありません。OpenCV を使用しています。 2.4.8 および ROS/catkin ビルド システムを実行すると、次のエラーが発生します。
どうしたの?ありがとう。
unity3d - Unity の Kudan: マーカーレス トラッキングを停止またはリセットする方法は?
写真 (2D スプライト) がマーカーレス トラッキングで表示されるアプリケーションを Kudan で作成しています。サンプル プロジェクトに基づいて、2D 平面が常にカメラに対して垂直になり、画面上の希望の位置に配置されるように調整することに成功しました。本当に素晴らしい!
しかし、スクリプトを使用して追跡を再開/リセットする方法がわかりません。カメラをブロックしたり、電話を振ったりすることでいつでも追跡を強制的に再開できますが、ボタンを使用してやりたいのですが、これは、Android および iOS の「ArbiTrack Basics」ガイドで説明されている動作とまったく同じです。 、しかし、Unityで再現できません。追跡インスタンスを再起動するには、どのスクリプトに追跡停止コマンドを送信すればよいですか (マーカーレス モードでサンプル Unity プロジェクトの 1 つを実行しているときにカメラをブロックするのとまったく同じ効果です)。
Android コーディングの状況は、https ://wiki.kudan.eu/ArbiTrack_Basics#Stopping_ArbiTrack で説明されています。
これらの 3 つのことを次のように呼びます。
// ArbiTrack を停止します arbiTrack.stop();
// ターゲットノードを表示 arbiTrack.getTargetNode().setVisible(true);
// ArbiTrack の状態を反映するように列挙型とラベルを変更します。 arbitrack_state = ARBITRACK_STATE.ARBI_PLACEMENT;