問題タブ [isight]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
objective-c - プログラムで iSight にアクセスしますか?
プログラムで Macbook の iSight カメラにアクセスすることは可能ですか? つまり、コマンドで iSight カメラから静止フレームを取得し、それらを使って何かを実行できるようにしたいと考えています。もしそうなら、目的の c を使用してのみアクセスできますか、それとも他の言語も使用できますか?
cocoa - iSight の露出ロック
Macでオブジェクト検出プログラムを作成しています。iSight を手動露出モードで使用して、検出品質を向上させたいと考えています。
iGlasses と QTKit Capture を試してみましたが、うまくいきましたが、プログラムの実行は非常に遅く不安定です。だから私は他の解決策を試してみたい。
PhotoBooth.app では、iSight が固定露出モードで実行されているように見えたので、それを行う方法があるかもしれません。QTKit Capture ドキュメントと OpenCV ドキュメントを読みましたが、答えが見つかりませんでした。
何かアイデアがあれば教えてください。ありがとうございました。
python - Snow Leopard で Python を使用して iSight フレームをキャプチャするにはどうすればよいですか?
次の PyObjC スクリプトがあります。
プログラムはエラーを報告しませんが、iSight の緑色のライトがアクティブになることはなく、デリゲートのフレーム キャプチャ コールバックが呼び出されることもありません。これが私が得る出力です:
PS: 答えないでください。PySight を試す必要がありますが、Xcode は 64 ビットで CocoaSequenceGrabber をコンパイルできないため、動作しません。
cocoa - QCView と iSight を使用して画像をキャプチャする
iSights フィードバックを提供する Quartz ファイルをロードする QCView があります (基本的には QTCaptureView のようなものです)。
すべて正常に表示されます
ボタンは、次の単純なコード行を使用してスナップショットを作成するだけです
ただし、エクスポートされた画像には、次のような非常に不安定な色の問題があります: http://kttns.org/gjhnj
いかなる種類のフィルタも適用されていません。誰がこれを引き起こしているのか知っていますか?
iphone - iSightカメラを介してHTTPライブストリーミングをテストする方法はありますか?
HTTPライブストリーミングを使用するiPhoneアプリに取り組んでいます。Appleが提供するツール(特にmediafilesegmenter)を使用して、アーカイブされたビデオを正常にセグメント化して提供することができます。今、私はライブストリーミングのものをテストしたいと思います。私はビデオカメラを持っていません。MacにiSightが組み込まれているだけです。このカメラを活用してライブストリーミングをテストする方法はありますか?コマンドラインからiSightを実行しますか?その場合、mediastreamsegmenterのポート番号が必要です。
cocoa - dataWithPDFInsideRectでデータを保存する:黒のPDFを作成するだけ
QTCaptureViewがあり、ビューを画像として保存しようとしています。これまでのところ私はこれを持っています:
しかし、何らかの理由で、自分のvie(iSight Camera)の写真を見る代わりに保存すると、黒いpdfファイルが表示されます。
助けてくれてありがとう
java - Java の Mac Os X でウェブカメラ ストリームを取得する
Macbook の Web カメラ ストリーム (統合された iSight Web カメラ) を取得したいと考えています。
私は Java を使用していますが、Objective-C については何も知らないので、「完全な Java」ソリューションを探しています。クラスの例をいくつか見つけましたが、それらは 2005 年に作成されたもので、私のシステムでは動作しません。
c++ - C++ で MacBook Pro iSight ビデオをキャプチャする
C++ で MacBook Pro iSight からフレームを取得し、その上でいくつかの作業を行いたいと考えています。QTKit を使用して ObjC でそれを行う方法は既に知っていますが、C++ で同じことを行う方法はありますか?
注: macports で OpenCV をインストールしようとしましたが、フレームワークは iSight カメラをサポートしていないようです。
macos - MacBook Pro (統合された iSight カメラ) の OSX Snow Leopard の /dev/video0 に相当するものは何ですか?
ffserver と ffmpeg を使用して、ウェブカメラのライブ ビデオ ストリームを実行しようとしています。ネット上でいくつかのリソース (#1 と #2) を見つけましたが、どちらも多かれ少なかれ同じことをしています。
OS X 10.6.5 を実行している MacBook Pro を使用しています。Web カメラは iSight 内蔵カメラです。/dev/ を調べても、/dev/video* に似たものが見つからないため、iSight カメラがマウントされている場所と、それを ffmpeg コマンドでどのように参照すればよいでしょうか。
ffmpeg -r 15 -s 320x240 -f video4linux -i /dev/video0 http://localhost:8090/webcam.ffm
何か案は?
- dmnet.bitacoras.com/archivos/software/streaming-de-una-webcam-con-ffmpeg.php
- ubuntuforums.org/showthread.php?t=665607
python - Python と PyObjC を使用して Apple iSight からフレームをキャプチャする方法は?
Python (バージョン 2.7 または 2.6) と PyObjC (バージョン 2.2) を使用して、Macbook Pro に組み込まれた Apple iSight カメラから単一のフレームをキャプチャしようとしています。
出発点として、この古い StackOverflow の質問を使用しました。それが理にかなっていることを確認するために、基になっていると思われるApple の MyRecorder の例と相互参照しました。残念ながら、私のスクリプトは機能しません。
私の大きな質問は次のとおりです。
- カメラを正しく初期化していますか?
- イベントループを正しく開始していますか?
- 私がすることになっていた他のセットアップはありましたか?
以下に貼り付けたスクリプトの例では、startImageCapture() を呼び出した後、CaptureDelegate から「フレームを取得しました...」というメッセージの出力を開始する必要があるという操作が意図されています。ただし、カメラのライトは点灯せず、デリゲートのコールバックは実行されません。
また、startImageCapture() 中にエラーは発生せず、すべての関数が成功したと主張し、iSight デバイスを正常に検出します。pdb でセッション オブジェクトを分析すると、有効な入力オブジェクトと出力オブジェクトがあり、出力にデリゲートが割り当てられており、デバイスが別のプロセスで使用されておらず、startRunning() が呼び出された後にセッションが実行中としてマークされていることがわかります。
コードは次のとおりです。
ご協力いただきありがとうございます。