問題タブ [sensor-fusion]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - 一定のサンプリングレートのためにアンドロイドでセンサーレポートモードを連続として設定する
複数の Android センサー (TYPE_ROTATION_VECTOR および TYPE_LINEAR_ACCELERATION) からのデータが 20 ミリ秒の一定のサンプリング周期で必要です。また、両方のセンサー値が時間軸の値で正確に対応するようにします。
このドキュメントでは、 を使用して一定のサンプリング レートを設定し、関数int REPORTING_MODE_CONTINUOUS
内でサンプリング レートを渡すことができることを示していregisterListener()
ます。
しかし、報告モードを継続的に設定する方法がわかりません。
int REPORTING_MODE_CONTINUOUS
を使用してセンサーのレポート モードを連続モードに設定し、複数のセンサー読み取り値に対して一定のサンプリング レートを取得するにはどうすればよいですか?
android - Unity 3D での Epson Moverio BT-200 からの正確なデバイスの向き
Unity で Epson Moverio BT-200 の継続的かつ正確な方向を取得しようとするとき、私は現在、非常に困難な問題に直面しています。ユーザーが上/下を見ているとき(すでに加速度計のみを使用している場合)、ユーザーにとって非常に良い結果を得ることができますが、左/右の動きについては得られません。次のコード部分を使用してデバイスのジャイロスコープのみに依存している場合、左右の動きは何とか正常に機能しますが、しばらくするとドリフトが発生するため、削除する必要があります。
私はすでに Android 内部getOrientation
メソッドと他のさまざまなセンサー フュージョンのチュートリアルと実装を使用してみました (例: http://www.codeproject.com/Articles/729759/Android-Sensor-Fusion-Tutorial )。どんな小さなヒントでも大歓迎です。:) 前もって感謝します!!
gps - IMU センサー データを GPS-RTK と融合する必要があるのはいつですか?
高精度の GPS RTK セットアップを使用して、フィールド内のモバイル ロボット プラットフォームの位置を正確に特定しています (精度は 10 cm まで)。また、プラットフォームに 9DOF IMU をマウントしました (9DOF sparkfun IMU Razor)。
問題は、ロボットの姿勢を推定するために、この ROS ノード ( http://wiki.ros.org/robot_localization )のように、IMU と GPS の間でセンサー フュージョンを実行する必要があるかどうかです。それとも、IMU から Pitch、Yaw、Rotation データを読み取るだけで、GPS Long、Lat、Alt とともに方位を知ることができますか?
このタイプの融合を実行することが不可欠になるのはどのような場合ですか? 前もって感謝します
matrix - 3D 回転を計算するために生の Gryoscope データ °/s をどのように使用しますか?
私の質問は些細なことのように思えるかもしれませんが、読めば読むほど混乱します... 回転する物体の動きを大まかに追跡したい小さなプロジェクトを開始しました。(正確にはバスケットボール) 私は 3 軸の加速度計 (ローパス フィルター処理済み) と °/s を測定する 3 軸のジャイロスコープを持っています。ジャイロの問題については知っていますが、測定は数秒にすぎず、角度が大きくなる傾向があるため、ドリフトとジンバルは今のところ気にしません。
私のジャイロは、3軸すべての回転速度を教えてくれます。加速度を 2 回積分して各タイムステップの位置を取得したいので、センサーの座標系を地球境界系に変換したいと考えました。最初の試行では、物事をシンプルに保ちたいので、大きな標準回転行列を使用することにしました。しかし、私の結果はひどいので、これが正しい方法なのだろうかと思います. 私が正しく理解していれば、マトリックスは単に3つのマトリックスを特定の順序で掛け合わせたものです。バスケットボールのローテーションには「自然な」順序がないため、これは良い考えではないかもしれません。私のセンサーは一度に 3 つの角速度を測定します。それらを「段階的に」システムに投入すると、2番目の行列が「新しいy軸」を中心とした回転を計算するため、正しくありません。しかし、私のセンサーは実際には「古いy軸」の周りの角速度を測定しました。それは今のところ正しいですか?
では、3D 回転を正しく計算するにはどうすればよいでしょうか。クォータノインに行く必要がありますか? しかし、3 つの異なるローテーションから 1 つを取得するにはどうすればよいですか? ここでも同じ問題が発生しませんか?
ユニティ マトリックス ((1, 0, 0)(0, 1, 0)(0, 0, 1)) に加速度ベクトルを乗算して、最初の動きを取得します。次に、Rotation マトリックスを使用して、次の加速度が実際にどこに向かっているのかを調べたいので、単純に加速度を足し合わせることができます。
しかし、今は混乱しすぎて適切な方法を見つけることができません。
助言がありますか?ところで。下手な英語で申し訳ありません。私は疲れていて、(明らかに) ネイティブ スピーカーではありません ;)
ありがとう、アレックス
ios - 3D 空間での iOS デバイスの初期位置の検出 - Core Motion
Coremotion を使用すると、次のことができget the change in position of device using attitude, rotation using gyro
ます。しかし、3D 空間でのデバイスの実際の位置を知るには、デバイスの初期位置が必要です。したがって、userAcceleration、ジャイロ データは、変更後の新しい実際の位置を取得するために適用できます。デバイスの実際の初期位置を取得する方法。「顔を上にして左に45度傾いた」、「y軸で30度回転して右に45度傾いた」といった位置を検出したい。
arduino - 傾斜角を検出するための madgewick フィルタを備えた LSM6DS3、加速度計出力の問題
Madgwick フィルター アルゴリズムを使用して、arduino メガ ボードの LSM6DS3 を使用してオブジェクトの傾斜角を見つけようとしています。しかし、加速度計の値が突然ゼロの読み取り値に低下するため、フィルターはエラー出力を出します。この投稿にコードを添付します。