問題タブ [asus-xtion]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c# - asus xtion proを使用して体の動きでキャラクターをアニメートする方法
私の最終年度のプロジェクトは
、下のビデオのように、Asus Xtion Pro Live.fbx
で (スケルトン)をアニメートすることです: https://www.youtube.com/watch?v=NxbH-QDHAVg
miku miku danceファイルをダウンロードして使っていました。.fbx
しかし、ファイルをロードできません。
私の質問は、 Asus Xtion Pro Liveでc#を使用してビデオのように
キャラクター (ファイル) をアニメートする方法ですか?.fbx
raspberry-pi - Raspberry PI での「XnDeviceSensorV2' failed」
Raspberry Pi (OS: raspbian wheezy) を介して Xtion Pro Live カメラを接続して使用するのは初めてです。カメラはラズベリーパイに正しく接続されています。
Xtion (openni とセンサー) を操作するために、http://mewgen.com/Ge107_files/20120921%20Setting%20up%20Rasberry%20pi%20for%20the%20Xtion%20and%20kinect.htmlの手順に従いました 。
(ルートとして) コマンド「cd /unstable/SensorKinect/Platform/Linux/CreateRedist/ ./RedistMaker Arm」を実行しようとすると、次のエラーが発生します。
../Common/CommonCppMakefile:118: ターゲット 'Arm-Release/XnSensorDepthGenerator.o' のレシピは make に失敗しました: [Arm-Release/XnSensorDepthGenerator.o] エラー make: ディレクトリ '/home/pi/unstable/SensorKinect/Platform/ を離れていますLinux/Build/XnDeviceSensorV2' Makefile:48: ターゲット 'XnDeviceSensorV2' のレシピが作成に失敗しました: [XnDeviceSensorV2] エラー 2 make: ディレクトリ '/home/pi/unstable/SensorKinect/Platform/Linux/Build' を離れています
上記のサイトの作成者が提案するすべての変更を行いましたが、問題は残ります。
誰かアドバイスをくれませんか?
projection - rgbカメラとIRセンサーの間の回転と並進マトリックスasus xtion PRO live
RGBカメラとIRセンサー間の変換(回転と移動)に関する情報があるかどうかは誰でも知っていますか? キャリブレーションが唯一の方法ですか?RGB 画像に 3D ポイントを投影する必要があります。
python - Asus Xtion Pro Live と PyOpenni RGB
Python で PyOpenni を使用して、Asus Xtion Live Pro からデータ センサーを読み取ります。深度データを読み取ろうとすると、すべてが魅力的に機能します。
これは毎秒 20 ~ 30 フレームでも問題なく動作しますが、同じ方法で RGBImage を取得しようとすると問題が発生します。
プログラムは命令で停止して多くの待機をします
したがって、多かれ少なかれ、毎秒2〜3フレームしか取得できません。
誰かが理由を知っていますか?
c++ - OpenCV+ROS で Asus XTion Pro Live IR 画像を使用して熱画像 (Flir A325sc) をマッピングする方法
Flir の赤外線画像を XTion の深度画像にマッピングしたいと考えています。深度画像は Xtions IR カメラから計算されるため、Flir を Xtions IR 画像にマッピングしたいと考えています。
そのため、両方のカメラを互いに近い 1 つの平面 (x で約 7 cm、y で 1 cm、z で 3 cm) に配置しました。
次に、ROS Indigo と openCV 2.4.9 を使用して次のことを行いました。
- Flir Focus を固定に設定します (オートフォーカスなし)。
- 両方の画像を同期させます。
- Flir 画像として、Xtion IR 画像のサイズを 640x480 から 320x240 ピクセルに変更します。
- 両方のカメラの固有のカメラ パラメーターを計算します。(Flir + Xtion IR)
- 外部パラメータを計算する
- 両方の画像を再マッピングして、修正された画像を取得します
これで 2 つの画像が修正されましたが、まだ X (水平方向) のオフセットがあります。
私がそれを正しく理解していれば、焦点距離と視野が異なるためにオフセットがあり (対物レンズ付きの Flir: 45° H x 33.8° V および 9.66mm 焦点距離、XTion: 58° H x 45° V)、透視変換で問題を解決しますが、両方の焦点距離が mm ではありません。
データシート:
- http://support.flir.com/DsDownload/Assets/48001-0101_en_40.pdf
- https://www.imc-store.com.au/v/vspfiles/assets/images/1196960_en_51.pdf
- http://www.asus.com/us/Multimedia/Xtion_PRO_LIVE/specifications/
焦点距離を取得するというアイデアがありましたcv::calibrationMatrixValues
が、apertureWith と Heigth がわかりません。
どうすればこの問題を解決できますか?
linux - system() はカメラのフィードバックを遅くします
私は、モーション検出プロジェクト(os:ubuntu 12.04)でopencvとXtion Pro Liveステレオスコピックカメラを使用しています。なんとか動体検知はできたのですが、動体検知時に音を出したいです。
で試してみました
指図。コードは私が望むことを適切に行いますが、フィードバックは遅くなります。これにより、サウンドが複数回聞こえます。
使用する必要がある別のコマンドはありますか? このコマンドがカメラのフィードバックに影響する理由を教えてください。
c++ - .oni ファイルから読み取ると、フレームの順序が正しくありません
私の問題はこれと重複しています。そこに解決策はありませんでした。解決策を見つけて、私の特定の設定を詳しく説明するために、.oni ファイルからフレームを読み取るために使用される関数を以下に示します。この関数が Type == 2 で実行される場合 (つまり、基準が # である RGBD イメージの # に対して実行される)、この関数を for ループで実行すると、ユーザーは各イメージにアクセスできるようになります。ただし、カラー イメージと深度イメージのインデックスは一致せず、順不同です。これは、次の IMG_pipeline::listen(...) へのすべての呼び出しで、waitForAnyStream がタイムアウトするまで続きます。
コンソール出力の例を次に示します。
IMG_pipeline::listen(...) の呼び出しは次のとおりです。
カラー画像も、R、G、B の色合いが交互になっています。ただし、データが cv::Mat にある順序に問題があると確信しています。
さらに興味深いことに、多くのフレームを通過する IMG_pipeline::listen(...) の呼び出しでは、IMG_pipeline::listen(...) を複数回実行して .oni ファイルをインクリメントすると、異なるインデックス結果が得られます。