問題タブ [asus-xtion]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
0 に答える
326 参照

c# - asus xtion proを使用して体の動きでキャラクターをアニメートする方法

私の最終年度のプロジェクトは 、下のビデオのように、Asus Xtion Pro Live.fbxで (スケルトン)をアニメートすることです: https://www.youtube.com/watch?v=NxbH-QDHAVg

miku miku danceファイルをダウンロードして使っていました。.fbxしかし、ファイルをロードできません。

私の質問は、 Asus Xtion Pro Liveでc#使用してビデオのように
キャラクター (ファイル) をアニメートする方法ですか?.fbx

0 投票する
2 に答える
1009 参照

raspberry-pi - Raspberry PI での「XnDeviceSensorV2' failed」

Raspberry Pi (OS: raspbian wheezy) を介して Xtion Pro Live カメラを接続して使用するのは初めてです。カメラはラズベリーパイに正しく接続されています。

Xtion (openni とセンサー) を操作するために、http://mewgen.com/Ge107_files/20120921%20Setting%20up%20Rasberry%20pi%20for%20the%20Xtion%20and%20kinect.html手順に従いました 。

(ルートとして) コマンド「cd /unstable/SensorKinect/Platform/Linux/CreateRedist/ ./RedistMaker Arm」を実行しようとすると、次のエラーが発生します。

../Common/CommonCppMakefile:118: ターゲット 'Arm-Release/XnSensorDepthGenerator.o' のレシピは make に失敗しました: [Arm-Release/XnSensorDepthGenerator.o] エラー make: ディレクトリ '/home/pi/unstable/SensorKinect/Platform/ を離れていますLinux/Build/XnDeviceSensorV2' Makefile:48: ターゲット 'XnDeviceSensorV2' のレシピが作成に失敗しました: [XnDeviceSensorV2] エラー 2 make: ディレクトリ '/home/pi/unstable/SensorKinect/Platform/Linux/Build' を離れています

上記のサイトの作成者が提案するすべての変更を行いましたが、問題は残ります。

誰かアドバイスをくれませんか?

0 投票する
1 に答える
206 参照

projection - rgbカメラとIRセンサーの間の回転と並進マトリックスasus xtion PRO live

RGBカメラとIRセンサー間の変換(回転と移動)に関する情報があるかどうかは誰でも知っていますか? キャリブレーションが唯一の方法ですか?RGB 画像に 3D ポイントを投影する必要があります。

0 投票する
1 に答える
1161 参照

python - Asus Xtion Pro Live と PyOpenni RGB

Python で PyOpenni を使用して、Asus Xtion Live Pro からデータ センサーを読み取ります。深度データを読み取ろうとすると、すべてが魅力的に機能します。

これは毎秒 20 ~ 30 フレームでも問題なく動作しますが、同じ方法で RGBImage を取得しようとすると問題が発生します。

プログラムは命令で停止して多くの待機をします

したがって、多かれ少なかれ、毎秒2〜3フレームしか取得できません。

誰かが理由を知っていますか?

0 投票する
0 に答える
1135 参照

c++ - OpenCV+ROS で Asus XTion Pro Live IR 画像を使用して熱画像 (Flir A325sc) をマッピングする方法

Flir の赤外線画像を XTion の深度画像にマッピングしたいと考えています。深度画像は Xtions IR カメラから計算されるため、Flir を Xtions IR 画像にマッピングしたいと考えています。

そのため、両方のカメラを互いに近い 1 つの平面 (x で約 7 cm、y で 1 cm、z で 3 cm) に配置しました。

次に、ROS Indigo と openCV 2.4.9 を使用して次のことを行いました。

  • Flir Focus を固定に設定します (オートフォーカスなし)。
  • 両方の画像を同期させます。
  • Flir 画像として、Xtion IR 画像のサイズを 640x480 から 320x240 ピクセルに変更します。
  • 両方のカメラの固有のカメラ パラメーターを計算します。(Flir + Xtion IR)
  • 外部パラメータを計算する
  • 両方の画像を再マッピングして、修正された画像を取得します

これで 2 つの画像が修正されましたが、まだ X (水平方向) のオフセットがあります。

私がそれを正しく理解していれば、焦点距離と視野が異なるためにオフセットがあり (対物レンズ付きの Flir: 45° H x 33.8° V および 9.66mm 焦点距離、XTion: 58° H x 45° V)、透視変換で問題を解決しますが、両方の焦点距離が mm ではありません。

データシート:

  1. http://support.flir.com/DsDownload/Assets/48001-0101_en_40.pdf
  2. https://www.imc-store.com.au/v/vspfiles/assets/images/1196960_en_51.pdf
  3. http://www.asus.com/us/Multimedia/Xtion_PRO_LIVE/specifications/

焦点距離を取得するというアイデアがありましたcv::calibrationMatrixValuesが、apertureWith と Heigth がわかりません。

クロスポスト

どうすればこの問題を解決できますか?

0 投票する
0 に答える
29 参照

linux - system() はカメラのフィードバックを遅くします

私は、モーション検出プロジェクト(os:ubuntu 12.04)でopencvとXtion Pro Liveステレオスコピックカメラを使用しています。なんとか動体検知はできたのですが、動体検知時に音を出したいです。

で試してみました

指図。コードは私が望むことを適切に行いますが、フィードバックは遅くなります。これにより、サウンドが複数回聞こえます。

使用する必要がある別のコマンドはありますか? このコマンドがカメラのフィードバックに影響する理由を教えてください。

0 投票する
2 に答える
848 参照

c++ - .oni ファイルから読み取ると、フレームの順序が正しくありません

私の問題はこれと重複しています。そこに解決策はありませんでした。解決策を見つけて、私の特定の設定を詳しく説明するために、.oni ファイルからフレームを読み取るために使用される関数を以下に示します。この関数が Type == 2 で実行される場合 (つまり、基準が # である RGBD イメージの # に対して実行される)、この関数を for ループで実行すると、ユーザーは各イメージにアクセスできるようになります。ただし、カラー イメージと深度イメージのインデックスは一致せず、順不同です。これは、次の IMG_pipeline::listen(...) へのすべての呼び出しで、waitForAnyStream がタイムアウトするまで続きます。

コンソール出力の例を次に示します。

IMG_pipeline::listen(...) の呼び出しは次のとおりです。

カラー画像も、R、G、B の色合いが交互になっています。ただし、データが cv::Mat にある順序に問題があると確信しています。

さらに興味深いことに、多くのフレームを通過する IMG_pipeline::listen(...) の呼び出しでは、IMG_pipeline::listen(...) を複数回実行して .oni ファイルをインクリメントすると、異なるインデックス結果が得られます。