問題タブ [live555]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - NDKxlocale.h例外
live555ライブラリを読み込もうとしていますが、ndk-buildを実行すると次のエラーが発生します
xlocale.hはlive555コードのどこにもありません
私は何をすべきか?
video-streaming - クイック アンド ダーティ プレイバック設定
VLC を使用して、非常に低い帯域幅の接続を介して RTSP サーバーから H264 ビデオ ストリームをデコードおよび表示しようとしています。そうすることで、VLC は最初に RTP ストリームを確立することができます。しかし、しばらくするとビデオがフリーズして停止し、次のエラーがスローされます。
これらのエラーは、「ネットワークキャッシュ」を最大 20 秒に増やすと消えます (明らかな理由により)。しかし、これはライブ ビデオ ストリームであるため、遅延が問題となり、ネットワーク キャッシュの増加は望ましくありません。
ただし、VLC がデフォルトで提供するスムーズな再生やオーディオ同期などの凝った機能は必要ありません。最新のデコードされたフレームが表示される迅速で汚いソリューションで十分です。これにより、Gstreamer を使用してレイテンシが大幅に短縮されることは事実です。だから私はVLCでそれを行う方法を探しています。setting-flags を使用することは可能ですか、それともソースを変更する必要がありますか?
前もって感謝します
udp - udp/tcp で直接 iptv をサポートする
Androidでlive555クライアントをサポートしていました。udp/tcp で rtp を使用することになっていました。現在、単一のプログラムでudp/tcpで直接実行するように求められました。率直に言って、rtcp/rtp がなければ、どうやって udp フレームを並べ替えることができるでしょうか?
video-streaming - ffmpeg エンコーダーからの live555 低遅延ビデオ ストリーム
ウェブカメラから rtsp 経由でビデオをストリーミングするアプリケーションを実装しようとしています。Webカメラからh264ビデオにエンコードする部分を処理しました。
live555 をストリーミング サーバーとして使用しようとしていますが、それを使用するための適切な例やドキュメントが見つかりません。また、コードにはあまり褒め言葉がありません。
誰かあげてくれませんか?または、その目的に適した他のライブラリ。
streaming - ネットワーク アドレスが見つかりませんでした
UBUNTUにopenRTSPをインストールし、コマンドを使用してurl rtsp://simplelive.nexg.tv:554/starplus_mpeg.sdpを呼び出してみました
エラーが発生しています
画面の説明を取得したいのですが、このエラーが発生する理由と解決方法を教えてください。
ffmpeg - H264 でエンコードされたフレームを使用したフレームごとのメタデータの送信
サーバーからクライアントに H264 でエンコードされたフレームを使用して、フレームごとのメタデータ (ID など) を送信する方法を探しています。
現在、クライアント側とサーバー側の両方が積極的に関与するリモート レンダリング アプリケーションを開発しています。サーバーは、すべての効果、照明などを使用して高品質の画像をレンダリングします。クライアントはモデル情報も持っており、帯域幅が低すぎる場合、またはスタッタリングを避けるために画像をゆがめる必要がある場合に使用される拡散画像をレンダリングします。
これまでのところ、サーバー側で ffmpeg を使用してフレームをエンコードし、live555 を使用してクライアントにストリーミングしています。クライアントは rtsp-stream を受信し、ffmpeg を使用してフレームを再度デコードします。
このアプリケーションでは、フレームごとのメタデータを送信する必要があります。クライアントがサーバーにカメラが現在どこにあるかを伝える必要があります。理想的には、クライアントのビュー マトリックスをサーバーに送信し、対応するフレームをレンダリングして、ビュー マトリックスと共にクライアントに送り返すことができます。したがって、クライアントがフレームを受信するとき、フレームがレンダリングされたカメラ位置を正確に知る必要があります。
または、各ビュー マトリックスに ID をタグ付けしてサーバーに送信し、フレームをレンダリングして同じ ID でタグ付けして送り返すこともできます。この場合、クライアント側で正しいマトリックスをフレームに再度割り当てる必要があります。
上記の意図を ffmpeg で実現しようと何度か試みた結果、ffmpeg は必要な機能を提供しないという結論に達しました。ffmpeg は、マトリックスを格納できないか、キー フレームごとにしか設定できない、修正済みの定義済みのメタデータ用フィールド セットのみを提供します。
現在、live555 の使用を検討しています。これまでのところ、オンデマンド サーバーがあり、ウィッチは H264VideoStreamDiscreteFramer を使用して VideoSubsession を取得し、独自の FramedSource クラスを含めます。このクラスでは、エンコードされた AVPacket (ffmpeg から) をロードし、そのデータ バッファーをネットワーク経由で送信します。次に、フレームごとに何らかのメタデータをクライアントに送信する方法が必要です。
このメタデータの問題を live555 または別のライブラリで解決する方法はありますか?
ご協力いただきありがとうございます!