ユーザーの Web カメラを (ブラウザーから) サーバーにストリーミングしたいのですが、サーバーがストリームを操作し (そのビデオ ストリームでいくつかの C アルゴリズムを実行)、ユーザーに情報を送り返す必要があります。
私は WebRTC と MediaCapture をよく見て、https ://bitbucket.org/webrtc/codelab/overview の例を読んでいます。
ただし、これはピアツーピアのビデオ チャット用に作成されています。私が理解したことから、 getUserMedia からの MediaStream は RTCPeerConnection 経由で ( addStream を使用して) 送信されます。私が知りたいのは、これを使用できますが、サーバーでビデオ ストリームを処理できますか?
よろしくお願いいたします。