問題タブ [live555]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c++ - 非静的メンバ関数を関数へのポインタとして使用するには?
私はRTSPクライアントを書いていて、それを作成した後
私はdescribeコマンドを送信しています:
continueAfterDescribe
インスタンスメンバーとしてRtspClientManager::continueAfterDescribe
、すべてのメンバーにアクセスしたいと思います。
もちろんcontinueAfterDescribe
、静的メンバー関数にすることもできますが、静的メンバーにしかアクセスできません。非静的メンバー関数へのポインターを渡し、RtspClientManager 内のすべてのインスタンス メンバーにアクセスする方法は??
RTSPClient メソッド sendDescribeCommand には、次のような署名があります。
c++ - Mac でライブ 555 を使用して RTSP サーバーを作成する方法
動画ファイルを取り込んで rtsp ストリームに変換する live555 クラスのメソッドを見つけようとしています。この方法について誰か教えてください。
ffmpeg - live555 と FFmpeg を使用して H264 をストリーミングする
live555 を使用して FFMPEg を使用してエンコードされたデータをストリーミングしようとしています。データをシンクに送信するカスタム フレームソースがありますが、フレーマーで SPS と PPS を設定する方法がわかりません。にこの情報が含まれていることは理解してextradata
いますが、その中には SPS しか表示されませんでした。FFMpeg によるエンコード中にエクストラデータは変更されますか? はいの場合、live555 フレーマーでこの情報をいつ、どのように更新する必要がありますか。
FFMpeg と live555 を使用して H264 をストリーミングするサンプルを持っている人はいますか?
ffmpeg - ffmpeg と live555 を使用してウェブカメラをストリーミングする
live555初心者です。
自宅の LAN の背後にある Windows 7 (64 ビット) マシンから、エンコーダとして ffmpeg を使用して、WAN 経由のデータ センター内の Debian 64 ビット Linux マシンで実行されている live555 サーバーに Web カメラをストリーミングしたいと考えています。ffmpeg から H.264 RTP/UDP ストリームを送信したいのですが、「testOnDemandRTSPServer」はそれに接続するクライアントに RTSP ストリームを送信する必要があります。
UDPデータをポート1234、IPアドレスAA.BB.CC.DDに送信する次のffmpegコマンドを使用しています
Linux サーバーでは、ポート 5555 で testOnDemandRTSPServer を実行しています。これは、AA:BB:CC:DD:1234 からの生の UDP データを期待しています。を使用してVLCでrtspストリームを開こうとしますrtsp://AA.BB.CC.DD:5555/mpeg2TransportStreamFromUDPSourceTest
しかし、VLCでは何も得られません。私は何を間違っていますか?どうすれば修正できますか?
android - Android RTSP/UDP "RTSP/1.0 461 Unsupported transport" セルラー ネットワーク経由 (4G)
私は現在、Android デバイス用の RTSP/UDP を介したビデオ ストリーミングに取り組んでいます。私の目標は、4G セルラー ネットワークを介してビデオをストリーミングすることです。私が直面している問題は、使用されている方法がSamsung Galaxy Core SM-G386Fで機能しないことです。
以下は、メソッドとログ ファイルの概要です。私が犯している明らかな間違いがあるかどうか、または基本的にそのデバイスではサポートされていないかどうかを知りたい.
サーバ側
ストリーミング サーバー:
- Live555MediaServer
live555MediaServer
ソース: http://www.live555.com/liveMedia/
- ビデオLAN / VLC
vlc -vvv Jellyfish-3-Mbps.mkv --sout '#rtp{sdp=rtsp://0.0.0.0:5555/test.sdp}'
ソース: http://www.videolan.org/vlc/download-debian.html
ビデオ テスト ファイル:
Jellyfish ビデオ ビットレート テスト ファイル
例: Jellyfish-3-Mbps.mkv - 60s、3 Mbps AVG ビットレート、21 MB
クライアント側
Player.java (方法 1)
Player.java (方法 2) - UDP テスト
AndroidManifest.xml
メソッド ( VideoViewとMediaPlayer ) とメディア サーバー ( Live555MediaServerとVLC ) の両方が、次の Android デバイスで正常に動作します。
- サムスンギャラクシー S4 (アンドロイド 4.3)
- サムスン ギャラクシー S5 (アンドロイド 4.4.2)
- サムスン ギャラクシー ノート 3 (アンドロイド 4.4.2)
この問題は、Android Galaxy Core SM-G386F (Android 4.2) で発生します。両方の方法を使用してLive555MediaServerからストリームを再生できますが、 VLCからストリームを再生することはできません。
完全な logcat: GALAXY_CORE_VLC、GALAXY_CORE_LIVE555
方法 1 を使用したVLCストリーミング メディア用の Android Galaxy Core SM-G386Fからの Logcat。RTP /AVP/UDP を要求しますが、id は UPD パケットを受信しません。
- すべてのデバイスでこのテスト ビデオを再生できます (デバイスのメモリからビデオを再生してテスト済み)
- すべてのデバイスは、WIFI/4G を使用して、 Live555MediaServerからストリーム (RTSP/UDP) を再生できます。
- すべてのデバイスは、WIFI を使用してVLCからストリーム (RTSP/UDP) を再生できます。
- 4G を使用してVLCからストリーム (RTSP/UPD) を再生できないデバイスは 1 つだけです(VLC は接続されたデバイスを検出します)。
- さまざまなポートを試しました
アップデート
サムスンギャラクシーS4
VLCの Logcat
Live555MediaServer のLogcat
video - ffmpeg と live555 の違い
との主な違いを知っている人はいますlive555
かffmpeg
。どちらもビデオストリーミングができるようです。トランスポートストリームで行うのですlive555
がRTSP
、で行うffmpeg
のですか?mpeg-2
ありがとう、ラン
mfc - RTSP サーバー ストリーム カメラ
私はRTSPサーバーとカメラユーザーMFCを使用しています。カメラをストリーミングする必要があり、クライアントはVLCを使用してカメラをリアルタイムで監視します。
live555初心者です。デモ live555 コードを試してみたところ、コンピューターからファイルをストリーミングできましたが、カメラをストリーミングする方法がわかりません。
ドキュメントを読んだり、Google で検索したりして 1 週間を過ごしました。live555 をサブクラス化するカメラのフレーム ソースを作成し、フレームをエンコードし、次に live555 を使用してストリーミングする必要があることはわかっています。しかし、フレームソースカメラの書き方がわかりません。
任意のドキュメント、例のリンクなど..私に与えることができます。
c++ - マルチキャストをストリーミングする live555 onDemandServer
OnDemandServerMediaSubsession から派生した MediaSubsession を作成し、1 つのビューに対して VLC で動作するストリームを作成しましたが、VLC の 2 つのインスタンスを開こうとすると、両方のストリームが少し遅くなることがわかります。これをマルチキャストする必要がありますか? どうすればいいですか?live555 でマルチキャスト アドレスなどを渡すにはどうすればよいですか? MediaSubsession に渡すにはどうすればよいですか?
どんな助けでも大歓迎です。
h.264 - NVENC を使用してスタート コードを削除することは可能ですか?
NVENC SDKを使用してOpenGL フレームをエンコードし、RTSP でストリーミングしています。NVENC は、いくつかの NAL ユニットの形式でエンコードされたデータを提供します。Live555 でストリーミングするには、開始コード(0x00 0x00 0x01) を見つけて削除する必要があります。この操作は避けたいです。
NVENC には、参照できる sliceOffset 属性がありますが、NAL ユニットではなく、スライスを示しています。実際のデータが始まる SPS および PPS ヘッダーの末尾のみを示します。スライスが NAL と等しくないことを理解しています (間違っている場合は訂正してください)。エンコードされたデータに対してすでに単一のスライスを強制しています。
次のいずれかが可能ですか?
- NVENC に個々の NAL ユニットをエンコードさせる
- 各エンコードされたデータ ブロック内の NAL ユニットがどこにあるかを NVENC に強制的に示す
- Live555 がストリーミング用のシーケンス パラメータを受け入れるようにする
c++ - 1 つの RTSP ストリームでライブ ビデオとオーディオをストリーミングする Live555
live555 を単独で使用してビデオをストリーミングしたり、live555 を単独で使用してオーディオをストリーミングしたりできました。
しかし、ビデオとオーディオを同じ VLC で再生したいと考えています。私のビデオは h264 でエンコードされており、オーディオは AAC でエンコードされています。これらのパケットを FramedSource に渡すにはどうすればよいですか。
これは固定ファイルではなく、ライブ ビデオ/ライブ オーディオであるため、どの MediaSubsession/DeviceSource をオーバーライドすればよいですか?
前もって感謝します!