問題タブ [kinect]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
matlab - kinectをシミュレートするためのMatlabzバッファー
単純なkinect出力をシミュレートしようとしています。
Matlabで三角形メッシュをレンダリングしましたが、シェイプがレンダリングされた図形/軸の深度バッファーを取得したいと思います。matlabでそれを行うにはどうすればよいですか?つまり、フィギュアのデプスバッファにアクセスするにはどうすればよいですか?
kinect - kinect 深度ビデオからカメラの回転を回復する方法は?
Kinect と openNI を使用して、固定角度でシーケンス深度ビデオを記録します。
私がやりたいことは、ビデオから仮想カメラの回転を回復して、ビデオが上から撮影されていることをシミュレートできるようにすることです。
私は物理的にそれができることを知っています。それでも、キャリブレーションを行い、カメラの回転を少し回復する必要があります。
どこから始めればよいですか?
kinect - Kinectを使用してオブジェクトを識別することはできますか?
パイロンがパスを決定します。Kinectでパイロンを検出して、ロボットをパス内にとどまらせることができます。Kinectはオブジェクト検出が可能ですか?これに関するチュートリアルはありますか?
kinect - OpenNI と OpenKinect の違いは何ですか?
プロジェクトの 1 つで Kinect を使用することを検討していますが、すべてのライブラリの間で完全に迷っています。正確に何が何なのかわからない。最も重要なのは、OpenNI と OpenKinect に関するものを読んでいることです。しかし、それらの関係/違いはわかりません。PS。Ubuntu または Mac を使用しています。
c# - 他のプログラムで重要なイベントを人為的に生成する
フォーカスのあるC#プログラムは、開いている別のアプリケーションによって処理されるキーイベントを人為的に生成できますか?
好奇心旺盛な人のために、これが私が尋ねている理由です:
私は現在、Kinectを主要な入力デバイスとして使用して、ジェスチャーベースのメディアプレーヤーのデザインアイデアのデモ/モックアップに取り組んでいます。これは私が好意としてやろうと決心したことであり、プログラミングに関しては、私の時間のトンを必要とせず、それに値するものでもありません。
そのため、処理を高速化するために、キーイベントを特定のジェスチャに簡単にバインドするために使用できるFAASTツールを使用しています。したがって、このプログラムをオンにして、どのキーがどのジェスチャにマップされるかを指定し、ジェスチャを行うと、キーが現在のアプリケーションによって押されたものとして登録されます。
私が作成したいのは、聴衆に表示する簡単なGUIを表示する仲介です。ある時点で、ユーザーは「選択」ジェスチャを行い、オープンメディアプレーヤーで音楽の再生を開始したいと思います。そこで、メニュー階層での位置を確認し、任意に選択することを意味するキーに基づいて「音楽」を選択していることを確認してから、MediaPlayPauseキーを使用してキーイベントを生成します。
opencv - Mac 64ビットでopenNI NITE Kinectを使用してopencvコードをコンパイルする
コードを opencv と openNI NITE でコンパイルしようとしています。最後にすべてのエラーを取り除き、エラーなしで実行され、main.o を取得しましたが、実行可能ファイルを取得していません。以下は私のメイクファイルの内容です
OSTYPE := $(シェル uname -s)
SRC_FILES = \ ../RGB_display/main.cpp
INC_DIRS += ../RBG_display -I/opt/local/include/opencv
EXE_NAME = RGB_ディスプレイ
定義 = USE_GLUT
DEBUG_LEVEL = -m64 -g3 -O0 CC = g++ CFLAGS = -O3 -I/opt/local/include/opencv -L/opt/local/lib/ LIBS = -lhighgui -lcvaux -lcv -lml -lcxcore -lopencv_imgproc
LDFLAGS =pkg-config --libs opencv
ifeq ("$(OSTYPE)","Darwin") LDFLAGS += -framework OpenGL -framework GLUT else USED_LIBS += glut endif
$(EXE_NAME): main.o $(CC) $(CFLAGS) -o $(EXE_NAME) $(LDFLAGS)
main.o: main.cpp $(CC) $(CFLAGS) -c main.cpp $(LDFLAGS)
include ../NiteSampleMakefile
これの何が問題なのか誰か知っていますか?ありがとう!私はmacportsでopencvを使用しています。
qt - QtCreator で OpenNI + Kinect をセットアップする
Qt と一緒に Kinect プログラミングを始めようとしています。Visual Studio 2008 のサンプル コードは私のシステムで動作し、コンパイルされます。インクルード パスとライブラリを pro ファイルに追加しようとしました。
しかし、これにより、次のような約40のエラーが発生します。
OpenNIとQtを組み合わせるために何を含めるか、何をすべきか知っている人はいますか?
3d - How to get 3D point cloud from a streaming 3D data?
I am using Kinect to capture 3D data, it contains 2 seperate streams RGB and depth stream.
By using some else' (Oliver Kreylos, http://idav.ucdavis.edu/~okreylos/ResDev/Kinect/index.html) program I managed to get a reconstructed 3D view. I now want to capture 3D point cloud for a still frame from this.
Any idea on how can I get 3D point cloud?
matlab - Kinectから受け取った深度画像は何ですか
このMatlabコードを実行して深度画像を取得すると、得られた結果は480x640の行列になります。最小要素値は0、最大要素値は2711です。2711とはどういう意味ですか?それは、カメラから画像の最も遠い部分までの距離です。しかし、2711の単位は何ですか。そのメートルはフィートですか??