1

私は教育用Webアプリケーションのバックエンドプログラムを構築しています。そのフロントエンドは何かのビデオ(サーバー上のビデオの場合もあります)を表示し、同時にWebカメラを使用してビデオに対するユーザーの応答を記録します。この後、サーバー側で処理が行われます。フロントエンドをiOSに移植したいと思います。私はいくつかのSO検索を行いましたが、それらがこの正確な質問に答えるかどうかはわかりません。画面上で別のビデオを再生するときに、iOSデバイスのフロントカメラから同時に録画する方法があるかどうか教えてください。私の質問は、技術的な実現可能性とこれに関するAppleの規則の両方にも関係しています。

これが重複している場合は、これに対する適切な回答を見つけることができなかったため、重複している質問を教えてください。ありがとう!

ハリッシュ。

4

1 に答える 1

1

これを行うことに問題はないはずですが、カメラはビデオと同様にiOSプロセッサとメモリを大量に消費するため、パフォーマンスを監視する必要があります。

どちらのタイプのアクティビティでも、iOSSDKの一部として提供されているAVFoundationフレームワークを使用できます。画面上にビデオを提供し、アプリケーションの別の部分で画面からビデオをキャプチャします(これらは、2つの比較的無関係な領域です。本当に重要なのは、同期するために録画する時間をカメラに指示することだけです。 2つ上)。画面に表示せずにカメラからビデオをキャプチャするには、AVCaptureSessionでカメラから返されたメディアを手動で監視する必要があります。

于 2012-08-10T12:42:57.157 に答える