問題タブ [mediastream]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
html5-video - mediaStream を実行する方法
でwebCamストリームを作成しました
stream
グローバル スコープでMediaStream オブジェクトにアクセスできますか?*
(のようなものnavigator.getAllMediaStreams[0]
)
*編集: ... getUserMedia 関数にロジックを追加せずに。私の問題ケースは、qr-decoder-library です。これはストリームを取得し、サードパーティのコードを変更したくありません
javascript - WebRTC: getStats() の使用
オーディオ/ビデオ ストリーミング帯域幅を測定するために webRTC アプリの統計情報を取得しようとしています。この質問を確認したところ、非常に役立つことがわかりました。ただし、使用しようとすると、
これは、2016 年に webRTC の何かが変更され、現在は mediaStreamTracks があるためだと思います。ただし、mediaStreamTracks を使用せずにプロジェクトをビルドしましたが、この関数を変更して機能させる方法がわかりません。
あなたはなにか考えはありますか?ご協力ありがとうございました!
アップデート:
私の電話は
getStats() は、n.7 章のこのリンクと同じです。
html - MediaStream イベントのアクティブおよび非アクティブは、リモート WebRTC ピア接続でトリガーされません
remote によって取得されたリモート MediaStream
オブジェクトがありますWebRTC Peer Connection
。
MediaStream
リモコンがいつ非アクティブになるかを確認したい(理由とは別に)。
この目的のために、イベントactive
とオブジェクトinactive
を使用する必要があることを読みました。MediaStream
しかし、これら 2 つのイベントがトリガーされることはありません。これら 2 つのイベントに特定のハンドラーを設定しても、ハンドラーが実行されることはありません。
ここで私の実装:
2 つのメッセージは表示されません。
私も試しました:
しかし、動作は同じです。
2 つのイベントがトリガーされない理由がわかりません。
Google Chrome 52.0.2743.116 m を使用しています
javascript - MediaStream は、キャンバスとオーディオを同時にキャプチャします
私は次のことをしたいプロジェクトに取り組んでいます:
- ビデオ js を読み込み、キャンバスに表示します。
- フィルターを使用して、キャンバス (したがってビデオ) の外観を変更します。
- MediaStream の captureStream() メソッドと MediaRecorder オブジェクトを使用して、キャンバスの表面と元のビデオのオーディオを記録します。
- キャンバスとオーディオの両方のストリームを HTML ビデオ要素で再生します。
この WebRTC デモ コードを微調整することで、動画要素にキャンバスの記録を表示することができました: https://webrtc.github.io/samples/src/content/capture/canvas-record/
とはいえ、キャンバスと一緒にビデオのオーディオを録音する方法がわかりません。2 つの異なるソース/要素から MediaStreamTrack インスタンスを含む MediaStream を作成することは可能ですか?
MediaStream API の仕様によると、理論的にはこれを達成する方法があるはずです: https://w3c.github.io/mediacapture-main/#introduction
「MediaStream API の 2 つの主要なコンポーネントは、MediaStreamTrack および MediaStream インターフェイスです。MediaStreamTrack オブジェクトは、ユーザー エージェント内の 1 つのメディア ソースから発生する単一タイプのメディアを表します。たとえば、Web カメラによって生成されたビデオです。MediaStream はグループ化に使用されます。複数の MediaStreamTrack オブジェクトを、メディア要素で記録またはレンダリングできる 1 つのユニットにします。」
javascript - captureStream と mediaRecorder を使用したキャンバス レコーディング
複数のキャンバスからストリームを記録するにはどうすればよいですか? つまり、あるキャンバスを別のキャンバスに変更すると、アクティブなキャンバスを最初のキャンバスに続けて記録する必要があります。
私はこのようにしました:
しかし、別のストリームを追加すると、最初の部分だけが記録されます。記録されたデータをグローバル配列にプッシュしています。
javascript - MediaStream API を使用してスクリーンショットをキャプチャしたり、JavaScript でライブ画面を共有したりしますか?
私は最近、特定のイベント (キャッチされない例外など) でクライアント マシンのスクリーンショットをキャプチャする必要があるプロジェクトに取り組んでいます。html2canvas を調査した結果、DOM リーダー/レンダラー ライブラリを探しているわけではないことがわかります。(ページ上の汚れたキャンバス要素が多すぎます)新しいAPIで実際に画面をメディアストリームソースとして使用し、画像をキャプチャすることができるかどうか疑問に思っていました(例:PNG形式) :https: //www.w3.org/TR/mediacapture-streams/#stream-api
アイデアはありますか?
webrtc - 音声通話とビデオ通話を切り替え可能な SimpleWebRTC
オーディオ ビデオ通話にSimpleWebRTCを使用しています。以下のように、ビデオ通話または音声通話を個別に発信できます。
オーディオの場合:
ビデオ用
マイビデオ要素:
イベントあり:
ビデオ ストリームをオーディオ ストリームに切り替えるにはどうすればよいですか? それともその逆?新しい SimpleWebRTC オブジェクトを作成せずに、アクティブなビデオ通話をオーディオ通話に、またはオーディオ通話をビデオ通話に効果的に変換するにはどうすればよいですか? 回避策があれば大丈夫です。
ビデオ通話を行いwebrtc.pauseVideo();
、ストリームを送信し、カメラと帯域幅を使用することを試しました。私は確かにそれを望んでいません。