問題タブ [isight]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
macos - iSight (OSX) ではなく USB からの OpenCV キャプチャ
Mac OSX の MacBook Pro で OpenCV を使用しているときに、内蔵 iSight ではなく外部 USB カメラにアクセスできません。
cvCaptureFromCAM(index)
関数に 0 または -1 以外の引数を渡すと、常に
Warning: Max Camera Num is 0; Using camera 0
カメラは Sony PS3 EYE で、macam ドライバーと quicktime コンポーネントで完全に動作します。
それでも、デフォルトで常に組み込みの iSight になる OpenCV を使用してアクセスすることはできません (別のプログラムで iSight を「占有」しようとしても)。
何か案は?
どうぞよろしくお願いいたします。
java - (objective-c)JNIからJavaにjbyteArrayを渡す最良の方法は何ですか?
現在、iSightカメラから画像データを取得しています。Javaに渡して処理したいと思います。私はもともとデータをjbyteArrayに入れて、jbyteArrayを返そうとしました。これは、プロセスごとに1回機能します。ネイティブ関数を2回呼び出すと、無効なメモリアクセスが発生します。
私はobjective-cとCocoaを使用しているので、JNF_COCOA_ENTER(...)関数とJNF_COCOA_EXIT(...)関数を使用する必要があります。残念ながら、jbyteArrayを返すことができない場合、そうするとJNF_COCOA_EXIT(...)が呼び出されなくなります。JNIランドからjavaランドにデータを渡すために直接ByteBufferを使用することが提案されました。残念ながら、私が使用しているすべてのリソースとリファレンスは、私の脳が理解できるほど簡単にこれを概説していません。これが「当たり前の」瞬間なのか、すでに質問されているのか(運が悪かったので検索しました)、深くお詫び申し上げますが...
1)この画像データをJavaに取り込む最も効率的な方法は何ですか?
2)これを実現するには、ByteBufferクラスをどのように使用する必要がありますか?(該当する場合)
ありがとう!
ffmpeg - Macbook iSight ウェブカメラから 1 フレームをキャプチャする際の ffmpeg -ss フラグの問題
約 5 年間、シェル スクリプトで ffmpeg を使用して、Linux でアップした Macbook の iSight から 1 つのフレームを取得してきました。
Ubuntu ディストリビューションを Lucid から Natty (ffmpeg ver. 0.6.2-4:0.6.2-1ubuntu1) にアップグレードしました。この構文は iSight をオンにしますが、無期限にハングアップします。
「-ss」フラグがないと、最初のフレームを正常に取得してすぐに終了するように見えます。出力の唯一の違いは次のとおりです。
ただし、「-ss 1.5」は、カメラが露出を調整するのに十分な時間を確保するために、フレーム キャプチャを 1.5 秒遅らせるために必要でした。
-itsoffset フラグは有望に見えましたが、ffmpeg の動作を変更していないようです (つまり、ハングしませんが、遅延はありません)。
何か案は?
windows - Isight カメラ + OpenCV + VMWARE
OS X で VMWARE を実行して、Windows 7 と Visual Studio 2010 を実行しています。OpenCV を使用して、画像およびビデオ処理ソフトウェアを実行しています。リアルタイムビデオへの処理を試してみたいと思います。
私はからコードを実行しています: Real Time Canny
私が持っているカメラは Isight (ドライバーがインストールされている) だけなので、cvCaptureFromCAM の入力パラメーターを -1 に変更します。アプリケーションを実行すると、灰色の画面しか表示されません。この状況で Isight カメラを機能させる方法を知っている人はいますか?
セットアップ: VMWARE Fusion: 4.0.2 OS: Windows 7 OpenCV: 2.3
macos - CVImageBufferRef タイプからすべてのピクセルから情報を取得するにはどうすればよいですか?(OSX)
QT ムービーの個々のフレームからピクセル データを抽出しようとしています。
QTKit と NSImage は遅すぎるため、CV を使用する必要があると思います...
ウェブカメラ (iSight) の現在のフレームを含むバッファー (CVImageBufferRef) 内の画像の各ピクセルを比較する必要があります。だからスピードが必要。
私の悪い英語でごめんなさい、私はイタリア人です。
macos - OSX Lion - iSight カメラ端末の使用がディスプレイ スリープからの復帰をトリガーしますか?
MacBook Pro 15 インチ、MacBook Pro 13 インチ、MacBook Air 11 インチの 3 台の Mac があります。
15インチはずっと家にいて、残りの2台は携帯用なので、15インチは外出先での動画撮影やスナップ撮影に使いたいです。私は「imagesnap」と呼ばれるコマンドライン ツールを使用してきました。これは、ターミナルから (および SSH 経由で) うまく機能し、バックグラウンドで実行されるバッチ ファイルをセットアップできるようにします。
ただし、このツールを使用すると 15 インチがディスプレイ スリープから復帰するという奇妙な問題がありますが、他の 2 台の Mac ではこの動作が表示されません。必要以上の電力を使用したくないので、これはかなり面倒です。
imagesnap ツール自体のデバッグには興味がありません。それが問題だとは思いません。しかし、私が理解したいのは、1 台の Mac がある方法で動作し、他の 2 台が別の方法で動作している理由を判断する最善の方法は何ですか? 電源設定を調べたところ、画像をスナップした直後に 15 インチ ディスプレイがオンになる理由がわかりませんが、他の 2 つはオンになりません。設定はほとんど同じです。また、実行しようとしました。実行中のアプリケーションの同様の構成。
ログファイルに調べられるものはありますか? 実行中のプロセス?比較する構成の違いは? または、それが解決しない場合、ウェブカメラから画像をスナップした直後にシステムがディスプレイを起動しないようにする方法はありますか?
java - OSX で Java 経由で iSight にアクセスする
したがって、ここや他の場所で多くの掘り下げを行った後、Java で iSight から画像を取得するための適切で単純な現在の方法はありません。まず第一に、誰かがこれを行うための良い方法を教えてくれれば幸いです.OpenCVはJavaでは機能しません.
信じられないほど欠陥がありますが、使用を考えている種類の回避策を次に示します。
- フォトブースを開く
- Java の Robot クラスを使用して、iSight からのフィードを保持する画面部分の画像を取得します。
objective-c - iSightアンビエントセンサー
isight光センサーの使用に関する公開ドキュメントはないことを認識していますが、ShadowBook (ここに表示)などのプログラムは明るさデータにアクセスでき、誰かが同様の結果を達成できたかどうかを単に疑問に思っていました。このセンサーにアクセスする方法を知っていますか?ありがとう!
macos - プログラムでiSightカメラをオンにすることは可能ですか?
Macで自動カメラキャプチャを設定したいのですが、isightcapture
プログラムを使用しています。
しかし、私はカメラをオンにする必要があります、あなたは私がこれを行うべき方法を知っていますか?私のスキルは非常に限られてObjective-C
おりRubyCocoa
、自分の環境では機能していません(ruby 1.9がインストールされています)。
macos - カメラを使用するプロセス (Macbook)
MacOS でカムを使用しているプロセスを検出するには? 写真を撮りたいときにエラーが発生します。