問題タブ [webrtc]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
javascript - 2 人以上の参加者とのビデオ会議に WebRTC PeerConnection を使用することは可能ですか?
私は WebRTC をいじり、そのしくみについて読んでいますが、ピア接続に関しては、内部で実際に何が起こっているのかについてはまだよくわかっていません。ストリームがルーティングされる方法は、何らかの中央サーバーなしでビデオ会議に参加者が多すぎて、参加者全員が相互に接続する必要がある場合、詰まらないでしょうか?
誰かがこれを実験しましたか?平均的なブロードバンド接続のしきい値を推測してみたい人はいますか?
webrtc - WebRTC オーバーヘッド
データチャネルを介してデータを送信するときに WebRTC が生成するオーバーヘッドの量を知りたいです。Websocket には、フレームごとに 2 ~ 14 バイトのオーバーヘッドがあることを知っています。WebRTC はより多くのオーバーヘッドを使用しますか? ウェブ上で有用な情報を見つけることができません。データチャネルは今のところ使用できないことは明らかです。Mediastreams で使用されるオーバーヘッドはどれくらいですか?
ありがとう
javascript - getUserMedia を Icecast サーバーにストリーミングしますか?
webrtc の getUserMedia (ビデオとオーディオ) によって作成されたローカル blob を Icecast サーバーにストリーミングして、HTML5 を使用したライブ ブロードキャストを可能にする方法はありますか?
具体的には、次の例 (Justin Uberti の 2012 Google I/O ビデオから) では、オーディオ/ビデオをキャプチャして、ビデオ要素でローカルに再生できます。
しかし、ビデオ src をローカル blob に設定する代わりに、ストリームを Icecast サーバーに送信し、Icecast サーバーを指すビデオ要素を使用してそのライブ ストリームを再生したいと考えています。
これは可能ですか?どうすればいいですか?
ありがとう!!
javascript - getUserMediaからオーディオストリームを録音する
最近、私はJavaScriptを使用してオーディオストリームを録音しようとしました。動作するサンプルコードがないことがわかりました。
サポートしているブラウザはありますか?
これが私のコードです
python - AssertionError:サービス「xmpp」のAPIプロキシが見つかりません
dev_appserver.pyなしでgaeappを実行しようとしていますが、次のエラーが発生しますAssertionError:サービス「xmpp」のAPIプロキシが見つかりません
app.yaml inbound_servicesで見つけました:-channel_presence
application.pyでchannel_presenceを直接有効にする方法
javascript - webrtc-Webカメラのアスペクト比を取得します
webRTCアプリケーションの開発方法を学びたいのですが、カメラのアスペクト比を取得できるかどうか知りたいのですが...(役立つかどうかはわかりませんが、webrtc.ioを使用していますが、-ifそれは良いです-私はそれを使うのをやめることができます)
google-chrome - WebRTC:ChromeがChrome拡張機能を介してマイクにアクセスできるようにする
私はWebRTCを初めて使用し、少し遊んでいます。ただし、ページをリロードしてコードの最新の変更を確認するたびに、Chromeにマイクへのアクセスを許可する必要があります。この特別なサイト(現在はローカルホスト)に常にマイクにアクセスする許可を与える拡張機能(アプリ)を作成できると聞きました。マイクを使用する他のサイトは、この拡張機能には含まれていません。
これが可能かどうか、そしておそらくそれを行う方法を誰かが知っていますか?
これまでのところありがとう
webrtc - WebRTC ピア接続を作成できません
webkitPeerConnection を webkitPeerConnection00 に変更した後、webrtc アプリでピア接続を作成できません
onSignalingMessage が呼び出されない理由
ここにコードがあります
});
google-chrome - webkitDeprecatedPeerConnection Chrome
動画プラットフォームを作りたい。nodejs をサーバーとして実行しているWebRTCを試しています。問題は、UbuntuでChrome 21が正常に動作し、エラーがまったくないことですが、Chrome 23(Windows)ではクライアント側でエラーが発生します。
これが私のコードです
関数 webkitDeprecatedPeerConnection を使用しようとすると、エラーが発生します。webkitDeprecatedPeerConnection は未定義の関数であると言われています。つまり、存在しません。
また、PeerConnectionフラグが有効になっています。
PS: 英語ですみません。母国語はスペイン語です。
webrtc - PeerConnection から別の接続に MediaStream を送信できますか?
最新バージョンの Chrome 23.0.1246.0 canary を使用しています。PeerConnection 経由でクライアントから受信した MediaStream を、PeerConnection 経由で別のクライアントに送信したいと考えています。つまり、ClientA は私たちの間の PeerConnection を介してローカル メディア ストリームを私に送信し、次に、このメディア ストリームを ClientB と私の間の PeerConnection を介して ClientB に送信します。
これは私のコードですが、機能しません。AddVideo ボタンを 2 回目にクリックすると、「gotRemoteStream」関数が呼び出されません。理由はわかりません。
誰でも私を助けることができますか?