問題タブ [openni]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
unity3d - OpenNI で Kinect を使用して Unity でハンド スワイプ ジェスチャを検出する
Unity プロジェクトに 3D モデルがあり、キーボードの矢印キー (左/右) に基づいてカメラを回転させる JavaScript があります。
ここで、水平方向のスワイプ ハンド ジェスチャを検出し、カメラの回転に使用するベクトルを返すスクリプトが必要です。
PrimeSense OpenNI/NITE で ZigFu SDK を使用しています。ZigFu SDK にはサンプル スクリプトが付属しており、その 1 つに SwipeDetector があります。どのように機能するのでしょうか?
私のセットアップ:GameObjects
3D モデル、MainCamera、指向性ライトの
3 つがあります。
SwipeDetector
では、プロジェクトでスクリプトを使用するにはどうすればよいでしょうか? 私が今それを行う方法は、1)空のゲームオブジェクト「SwipeDetection」を作成し、2) SwipeDetector
ZigFuからスクリプトを「ドラッグアンドドロップ」します。スクリプトにログを入力しましたが、ログがSwipeDetector
表示されません。
opencv - Kinect を使用して床の物体を検出する
床を指しているキネクトがあるとしましょう。
床に 3 つまたは 4 つのオブジェクトを配置した場合、それらのオブジェクトが置かれている平面をどのように判断できますか?
その床にある明るい色の物体をどのように検出できますか?
tracking - Kinect + OpenNI: ユーザーを削除する方法
私はユーザー追跡に取り組んでいます: コールバック (User_NewUser、User_LostUser、Pose_Detected、Calibration_Start、Calibration_End) を登録しました。センサー領域に入ると、正しい方法で検出され、調整されます。しかし、私がセンサーエリアを離れるとき (そして誰もそこにいないとき)、プログラムがコールバック "User_LostUser" を呼び出すことを期待していますが、それを実行していないようです。(実際、再び入ると、センサーはまだ私を追跡します!) ユーザーがシーンを離れるときに、プログラムを登録解除/削除し、再起動して新しいユーザーを確認することを期待しています: 誰か助けてくれませんか?
c++ - c++ランダムな原因不明のエラー
OpenNi、NITE、OpenGLを使用してVisualStudio2008でkinectプロジェクトを作成しています。
開発中のランダムな時間に、次のエラーが発生します。
「C:\ ProgramFiles \ Microsoft SDKs \ Windows \ v6.0A \ bin\rc.exe」からエラー結果1が返されました。
運が悪かったのでインターネットを検索しました。
新しいプロジェクトを作成してすべてのコードをコピーすることができ、正常に機能しますが、これは毎日複数回実行したいことではありません。
さらに情報が必要な場合は、喜んでお知らせします。
全出力ウィンドウの読み取りを編集
kinect - OpenNI 1.5 変更リスト?
私は OpenNI v1.5.2.23 を使用していますが、見つけたほとんどのサンプルは 1.0.0.23 用であるため、廃止された機能ではなく、新しい機能を使用するために毎回コードを変更する必要があります。
例:
古いものを見てから、新しいサンプルまたはドキュメントに移動して、適切な新しいメソッド/クラス/プロパティを見つけますが、これには非常に時間がかかります。
問題は、誰かが変更点のリストを作成したかどうかです。(OpenNI に付属する変更ログはあまり役に立ちませんでした)
c# - コンピューターで kinect プレゼンテーションが遅いのはなぜですか?
SimpleOpenNI と処理を使用すると、約 30fps のスムーズなスケルトン ビューが得られました。VC# と骨格追跡の例を使用すると、約 10fps のように見えます。まるで何かがそれを妨げているかのように。
なぜそんなに遅いのですか?また、処理中と同じくらい速くするにはどうすればよいですか?
pastebin.com/1La80sRU は C# コードベースです - オリジナルです。
java - OpenNni: 色座標から深度座標へ
フル解像度のカラー画像から取得した座標を深度ストリームの座標に変換する方法を知りたいと思っていました。
たとえば、フル解像度の色から (763,234) を取得し、深度画像から (x、y、z) を知りたいですか? (ところで私はJavaでこれをやっていますが、C ++での答えはおそらく簡単に翻訳できます)
事前にThx
visual-studio-2010 - CV_CAP_OPENNIは私と一緒に動作しません
私はOpenCVでkinectを使用しています。Cmakeなしで設定しました。私はすべてを含めましたが、次のコードを書くとき:
画面に「間違った」という言葉が表示されます。Xncore.dllに問題があると思います。どうすれば追加できますか、またはコードの問題は何ですか?
c++ - Cppリターン好奇心
OpenNI の多くの関数は次のように戻ります。
XN_C_API と XN_C_DECL とは何かを知りたいです。ただ好奇心!
c++ - 再生からAlternateViewPointCapまたはMirrorCapを変更できます
他の人がOpenNIレコーダーモジュールを使用して記録したデータを使用しています。残念ながら、レコーディング中に誤ってミラーリング機能をオンに設定してしまったため、1。MirrorCapを使用して深度をミラーリングし、2。AlternateViewPointCapを使用して深度をrgbに合わせるという問題がいくつかあります。次のように、深度ノードからこれらの機能にアクセスしてみました。
ただし、これは機能しませんでした。ミラーをfalseに設定した後でも、g_depthのIsMirrored()コマンドはtrueとして返され、alternateviewpointcapはジェネレーターから受け取る深度マップを変更しません。
また、モックノードを介してそれを実行してみました。
これは、m_depthから取得した深度マップにも影響しません。色と深さの情報を揃える方法について、あらゆる提案をいただければ幸いです。このデータは記録が難しく、何らかの形で使用する必要があります。
私の現在の解決策は、SetMetaData関数で設定する前に、モック深度ノードを作成し、独自のルーチンを使用してすべてのピクセルを反転することです。次に、OpenCVを使用して、ユーザーに4ポイントをクリックさせることにより、RGB画像から深度画像への遠近法変換を作成します。次に、この変換をrgbフレームに適用して、値を揃えます。完璧ではありませんが、機能します。ただし、データを使用する必要がある可能性のある他の人のために、より適切な修正を行いたいと思います。