問題タブ [apprtc]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 電話を受けるようにAppRTCをカスタマイズする方法
プロジェクトにAppRTCを統合しました。RoomNameを使用して、 https: //apprtc.appspot.comの部屋で WebRTC 通話に参加できます。
アプリでRoomNameをハードコーディングし、アプリを 2 つのデバイス A と Bにインストールできます。A と Bで両方のデバイスから同時に電話をかけると、それらの間で WebRTC 通話を正常に行うことができます。
ここで、デバイス A のアプリから電話をかけ、デバイス B のアプリで電話を受ける実際の VOIP 通話を行いたいと思います。
私の知る限り、デバイス A からデバイス B のアプリに接続するには、ここで SIGNALING の部分を実行する必要があります。
どんな助けでも大歓迎です!
webrtc - getUserMedia エラー: ローカル メディアへのアクセスに失敗しました - WEBRTC
PC で App RTC サーバーを構成しました。ローカル ホスト ( localhost:3000 )を使用してアクセスしている場合。ビデオ通話は機能しています。しかし、IPアドレスを使用しているとエラーが発生します。( http://192.168.0.103:3000 )
ローカル メディアへのアクセスに失敗しました。エラー名は PermissionDeniedError でした。ストリームを送信せずに続行します。
ユーザー メディアの取得中にエラーが発生しました。安全なオリジンのみが許可されます。
getUsermedia エラー: ローカル メディアへのアクセスに失敗しました。
swift - ビデオ修正のためにAppRTC iOSアプリでフレームデータを取得するには?
私は現在、Swift の iOS 用 AppRTC アプリで着信 WebRTC ビデオ ストリームにいくつかの変更を加えようとしています (これは、このObjective-C バージョンに基づいています)。そのためには、クラス RTCI420Frame (libWebRTC の Objective-C 実装の基本クラス) のフレーム オブジェクトに格納されているデータにアクセスする必要があります。特に、 [UInt8]とフレームのサイズのバイト配列が必要です。このデータは、さらなる処理といくつかのフィルターの追加に使用されます。
問題は、 RTCVideoTrack / RTCEAGLVideoView に対するすべての操作が、事前にコンパイルされたlibWebRTC.aのフードの下で行われることです。これは、上記のリンクにある公式の WebRTC リポジトリからコンパイルされ、カスタム ビルドを取得するのはかなり複雑です。サンプル iOS プロジェクトで利用可能なビルドを使用することを好みます。私の理解では、利用可能なすべての機能が含まれているはずです。
私は RTCVideoChatViewController クラス、特にremoteView / remoteVideoTrackを調べていましたが、フレーム自体へのアクセスに成功せず、公式レポで libWebRTC ソースの調査に多くの時間を費やしましたが、それでもアクセスの問題に頭を悩ませることはできません。独自の操作のためにデータをフレーム化します。どんな助けでもうれしいです!
video - ソケットioを使用してApprtcでビデオを録画するには?
私はこのコードhttps://github.com/ISBX/apprtc-node-serverを私のウェブサイトでのビデオチャットに使用しています。それはうまくいっていますが、このビデオも録画したいです。どうすればこれを達成できますか?
android - Android webrtc が 3g、4g で動作しない
Android アプリケーションには、ビデオ通話アプリ用のユーザー webrtc があります。
モバイルがwifiに接続されている場合、アプリは完全に機能します。
Wi-Fiをモバイルデータに変更してアプリを起動すると、アプリが機能せず、ビデオも表示されません。
アプリとサーバー側のkurentoにユーザー webrtc があります。
以下の状況のシナリオのリスト:
- ブラウザ クライアント + モバイル クライアント ->同じ Wifi ネットワーク上の両方 (同じ WiFi ネットワーク上の KMS サーバー) -> 正常に動作しています。
- モバイル クライアント + モバイル クライアント ->同じ Wifi ネットワーク上の両方 (同じ WiFi ネットワーク上の KMS サーバー) -> 正常に動作しています。
- ブラウザ クライアント + モバイル クライアント -> Wi-Fi 上の 1 つ (同じ Wi-Fi ネットワーク上の KMS サーバー) とモバイル データ ネットワーク上の他 -> 動作しない
- モバイル クライアント + モバイル クライアント -> Wi-Fi 上の 1 つ (同じ Wi-Fi ネットワーク上の KMS サーバー) とモバイル データ ネットワーク上の他 -> 動作しない
このすべてのシナリオに対して生成された候補を確認しましたが、それらが同じであることがわかりました。唯一の違いは、複数の候補が生成されていることです。
Crate Turn サーバーとStun がありますが、3g 接続の Android クライアントではビデオが表示されません。
誰でも解決策があり、それから私を助けてください。
前もって感謝します。
swift - RTCVideoTrack を appRTC iOS でローカルに記録して保存するにはどうすればよいですか?
リプレイ キットを使用して画面を記録しています。達成したいのは、webRTC SDK を使用して呼び出しを行っているときに、オーディオで画面を記録またはキャプチャすることです。github の appRTC を使用しました。
AVCaptureSession でこれを達成できると思います! replayKit を除外したいので、提供する関連コードはありません。