問題タブ [webcam-capture]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - パッケージが Netbeans に存在しません。cmd でのコンパイルが成功しました。なぜですか?
システム Web カメラを使用して写真をキャプチャする必要があります。このために、私は を使用してwebcam capture library
います。3 つの jar ファイルが含まれていました。jar
依存関係の jar を含むすべてのものを単一のアプリケーションにパッケージ化したかったのです。
そこで、依存するjarファイルを解凍して、src
netbeansプロジェクトのフォルダーに配置するように並べ替えました。だから、私はそれらを抽出しました。そのうちの 2 つが同じパッケージ名で始まるorg
ので、それらを抽出してマージしました。重要な 3 番目のパッケージは package で始まりcom
ます。これら 3 つのディレクトリをプロジェクトsrc
のフォルダーに配置しました。netbeans
問題はnetbeans
、 がパッケージが存在しないと言うことです。ただし、Windowsからコンパイルした場合は同じプロジェクトです。command line
コンパイルして正常に実行され、すべてが正常に機能していました。
しかし、問題のあるライブラリを jar としてプロジェクトに追加すると、正常に機能し、それを抽出してsrc
フォルダーに配置するだけで問題が発生しました。
このエラーが発生する理由と、netbeans
この問題を解決する方法だけを教えてください。
私のコード:
java - Javaでopencvを使用して複数のカメラを同時に開くことはできますか?
Bluetooth 経由で無線信号を読み取る Java コードがあります。さまざまな信号を読み取りたいのですが、各信号はウェブカメラを開きます。コードが信号1を検出する場合、コードが信号2カメラ2を検出する必要がある場合、カメラ1を開く必要がある場合、4台のUSBカメラがあります。Eclipse で opencv を使用して次のコードを追加します。
コードは正常に動作していますが、同時に複数のカメラを開くことはできません。アイデアはありますか?
javascript - html5 ウェブカメラ: 背景を削除して画像に置き換えます
これはスタック オーバーフローに関する私の最初の質問です。私が欲しいのは、html5 Webcam と JavaScript を使用してバックグラウンドからスナップショットを撮ることです。ポートレート/人物と同じ背景で2番目の写真を撮るより. 背景を切り取り、保存された画像 (海など) に置き換え、その画像をハードドライブに保存します。どんなヒントでも大歓迎です。
編集: ここでは、これは処理で作成されています。これを html5 JavaScript と追加の js ライブラリで作成したい: http://www.learningprocessing.com/examples/chapter-16/example-16-12/
delphi - Delphi での画像パラメータの調整 (Mitov VideoLab)
Delphi XE3
を使用して、 で小さなアプリケーションを作成しましたMitov VideoLab
。VLDSCapture
ウェブカメラからビデオをキャプチャするコンポーネントがあります。またVLDSImageDisplay
、キャプチャしたプレビューを表示するコンポーネントもあります。私がやりたいことは、つまり明るさを調整することです。つまり、ボタンをクリックするたびに明るさを 10 ずつ増やしVLDSCapture1.Adjustment.Brightness.Value
ます。
キャプチャされたプレビューでは何も起こりません。
これら2つのコンポーネントのいずれかに、明るさの値が変化したことを何らかの方法で通知する必要がありますか?
これがサードパーティのライブラリであることは承知しており、作成者に連絡しましたが、何の返答もありません。
c# - 1分ごとにウェブカメラから写真を撮る方法は?
ウェブカメラでスナップショットを撮ろうとしています。これは私のコードです:
それはうまく機能しますが、今は自分のコードを使用して 1 分ごとにスナップショットを撮りたいと思っています。
このため、次のコード行を追加しました。Thread.Sleep(1000 * 60); // 1000 Milliseconds (1 Second) * 60 == One minute.
残念ながら、この行では期待どおりの結果が得られません。以前と同様にスナップショットを取得しますが、毎分ファイルに写真を保存するだけです。私が実際にやりたいことは、私のコードが「Device_NewFrame」イベントを 1 分ごとにトリガーすることです。
どうすればいいですか?喜んでお手伝いさせていただきます..ありがとうございます!
編集: Armen Aghajanyan が提供したように、コードにタイマーを追加しました。このタイマーは、1 分ごとにデバイス オブジェクトを初期化し、新しい Device オブジェクトを Device_NewFrame イベントに登録して、デバイスのアクティビティを開始します。その後、イベントの本文にある次のコードのコメントを外します。
現在、コードは 1 分ごとにスナップショットを取得しています。
java - 処理による Web カメラのピクセル操作/並べ替え
各行の中心ピクセルの色を取り、その色を行全体に適用する処理スケッチを作成しようとしています。ただし、ピクセルを変更することさえできません。end draw
の最後にある以外のステートメントを出力しないため、ピクセルを変更しようとしている for ループをスケッチが通過していないようですdraw()
。操作されていないフィードになってしまいます。これが機能しない理由を誰かが知っていますか?
また、現在 Capture で Processing の標準ビデオ ライブラリを使用していますが、より良いライブラリがあれば教えてください。ありがとう!
更新:数値の配列を使用してアルゴリズムをテストすると、内側の for ループを使用すると、思ったように機能しないようです。外側のi
ループの は、内側の for ループが最初に完了した後に 1 回だけインクリメントされ、内側のループを再度開始する代わりに、外側のループを終了します。何が起きてる?
html - ウェブカメラをサーバーにストリーミングしてストリームを操作する方法
ユーザーの Web カメラを (ブラウザーから) サーバーにストリーミングしたいのですが、サーバーがストリームを操作し (そのビデオ ストリームでいくつかの C アルゴリズムを実行)、ユーザーに情報を送り返す必要があります。
私は WebRTC と MediaCapture をよく見て、https ://bitbucket.org/webrtc/codelab/overview の例を読んでいます。
ただし、これはピアツーピアのビデオ チャット用に作成されています。私が理解したことから、 getUserMedia からの MediaStream は RTCPeerConnection 経由で ( addStream を使用して) 送信されます。私が知りたいのは、これを使用できますが、サーバーでビデオ ストリームを処理できますか?
よろしくお願いいたします。