一見、Mac OS 用の AVFoundation は iOS で見られるものと同じフレームワークのように見えます。Apple が OS X 用の AVFoundation を進化させて、複数のカメラを同時にキャプチャできるようにしたと考えていましたが、私のコードで 2 つの USB カメラを同時に実行することはできませんでした。
cam1 を使用して iChat を実行し、cam2 を使用して photobooth を実行すると、Mac で 2 つのカメラ ストリームが同時に表示されます。これは、私のシステムがそれを処理できることを証明しています。
私のコードは、すべての AVFoundation を 1 つのクラスにカプセル化しています。このクラスの 2 つのインスタンスを実行している間、1 つのインスタンスは常にセッションを作成できなかったと言っています。cam1 をオフにすると、cam2 がインスタンス 2 で実行を開始します。私の質問は、壊れたコードを書いたのでしょうか (この結果につながる)、それとも複数のカムのサポートが設計上無効になっているのでしょうか?
前もって感謝します
ジャック