問題タブ [live555]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
directshow - H264ストリームでのプレゼンテーション時間が間違っている[Live555OpenRtspClient]
OpenRtspClientを変更して次のようにします
今度は、フレームをファイルに書き込む代わりに、着信プレゼンテーション時間のキューにそれらを収集します
次に、h264フレームをMP4マルチプレクサに渡します[GeraintDaviesMP4マルチプレクサフィルタ]
- 最後に、多重化されたデータをファイルに書き込みます...
だから私はh264ストリームをMP4コンテナに保存することができます...
しかし、問題は、記録されたデータの一部[すべてではない]の期間の値が間違っていることです。
10分のレコードが12時間のストリームだったようだと仮定します...VLCは、残りの時間の最後のフレームを再生する10分を再生します。
サンプル時間をMuxerに間違って設定したようです...次にデバッグして、タイムスタンプに正と負の劇的なジャンプがあることを確認します...
タイムスタンプを設定する方法は次のとおりです。
- 私はH264VideoFileSink::afterGettingFrame1関数からpresentationTimeを取得します
- 次に、firstPresentaionTimeを計算します[最初に]
- 次に、他のタイムスタンプを収集します
そして、frameTimeStamp値が負または正の値への劇的なジャンプを示していることがわかります...[私はそれらの値をint64としてキープします]
私の原因は何ですか?
- それとも、この「presentationTime」をMP4マルチプレクサに使用するのは良い考えですか?
- 「presentationTime」は図書館でどこで計算されますか?
- H264VideoFileSink :: afterGettingFrame1メソッドの「presentationTime」値が間違っている可能性はありますか?
- 誰かがh264ストリームをmp4contianerで記録し、彼/彼女の経験を共有したいと思いましたか?
android - Android用のコンパイル中にそのようなファイルまたはディレクトリエラーはありません
ndk を使用して Android 用の live555 をコンパイルしているときに、このエラーが発生しました。
エラーは次のように述べています。
/home/jomit/Applications/android-ndk-r6/sources/cxx-stl/gnu-libstdc++/libs/armeabi
しかし、ファイルシステムにディレクトリがあります。android ndkmake-standalone-toolchain.sh
のディレクトリからスクリプトを実行して取得します。tools
すべての権限の問題を回避するために、 を使用して ndk とそのサブディレクトリにすべての権限を付与しましたchmod 777 -R /home/jomit/Applications/android-ndk-r6/
。私の質問は、このエラーを解決するにはどうすればよいですか?
ノート:
githubの liveMedia-for-Androidは、私が使用している live555 Android ポートです。
64 ビットの Fedora 16 を実行しています。
以下は、android.sh
live555 をコンパイルするために実行しているファイルです。
config.android
ファイルは次のとおりです。
両方のファイル -android.sh
とconfig.android
- は、ポートで既に利用可能なものです。
Googleにはこの問題に関する知識が少し不足しているため、助けていただければ幸いです:)
objective-c - iOS シミュレータ用の live555 ライブラリのコンパイル
live555 ライブラリをコンパイルしました
iOSデバイス用ですが、iOSシミュレーター用にコンパイルできません。誰もそれを行う方法を知っていますか? ありがとう。
ubuntu - live555を使用したRTSP
最近、rtspを使用してクリップをストリーミングするためにlive555のパッケージをダウンロードしました。使い方がわかりません。助けてください。Ubuntuの場合
ありがとう
streaming - RTSP RTPクライアントストリーミング、タイムスタンプ、live555
別の国(別のタイムゾーン)にあり、独自の日時値が適用されているIPカメラがあります(例:〜2012-04-16 11:30:00)。 PCはにあります。(たとえば、私のPCの時間は〜2012-14-16 06:10:00です)
私の目的:ストリーミングするときは、カメラ に設定されているこの日時の値( "11:30:00")を取得する必要があります( PCの現在の現地時間には関心がありません)。
- RTPのタイムスタンプからカメラの日時値を計算する方法はありますか?
- 他にアプローチはありますか?
Live555ライブラリを使用しており、フレームの日時の取得には「プレゼンテーション時間」の値を使用していましたが、これによりPCの現地時間がわかります(カメラに設定されている時間ではありません)。
だから私はここで立ち往生しています。
android - Anybody has successfully ported live555 to android?
I've been trying to build live555
according to this guide:
https://github.com/boltonli/ohbee/tree/master/android/streamer/jni
as well as using some other guides, all to no avail.
If someone has succeeded in porting live555
to android can you, please, tell me how I can do so?
c++ - Visual Studio 2010 Live555
live555での開発に問題があります。私はすでにlibファイルとサンプルプロジェクトをmakeファイルでビルドしています。しかし、自分で何かを開発しようとしてもうまくいきません。ヘッダーliveMedia.hh、BasicUsageEnvironment.hh GroupsockHelper.hhをインクルードした後(インクルードパスをすべての.hhファイルに設定し、libary-athをすべてのlibファイルに設定しました)次のエラーが発生します。
何が問題なのか分かりますか?
ありがとうございました!
android - SOS: Android カメラから PC の VLC プレーヤーにビデオをストリーミングする
Androidデバイスのライブカメラ録画をシステムのvlcプレーヤーにストリーミングするコードを探しています。つまり、Android デバイスのカメラがオンになっており、ビデオをキャプチャしていると同時に、vlc プレーヤーを起動するとビデオがカメラで再生されます。
どんな助けでも素晴らしいでしょう、可能であれば私にいくつかのコードを提供してください
ありがとう
c++ - OpenCV/FFMpeg画像キャプチャの問題
IPカメラからリアルタイムで画像をキャプチャしようとしています。ストリームはVLCで完全に機能しますが、OpenCVcvQueryFrame()
は受信画像を混乱させ、認識できないほど破損させているようです。
繰り返しますが、ファイルからのキャプチャは正常に機能しますが、ライブストリームでは機能しません。違いが生じる場合は、rtsp接続URLを使用しています。また、2つの異なるカメラモデル(異なるブランド)でこれを試しましたが、問題は残っています。
その上、(私が想定している)コーデックは次の種類のいくつかのエラーを出力しています:
Error at MB: 1746
とconcealing 6000 DC, 6000 AC, 6000 MV errors
。
私に何ができる?
更新:シーケンスの最初のエラーは常にcannot parallelize deblocking type 1, decoding such frames in sequential order
アップデート2:了解しました。OpenCV/FFMPEGにrtsp/h264ストリームの問題があるようです。Qt Phononライブラリを試しましたが、これも機能しません。Live555ライブラリの概要を簡単に説明しました。これは、誰もがそう言っているという意味で、最後に機能しているように見えます。実際、アプリケーション例(OpenRTSP)は、私のストリームをうまく再生します。ただし、正直に言うと、Live555コードを理解するのは時間のかかる作業のように思えますが、今のところ私にはほとんど余裕がありません。他の選択肢を除けば、私はそのルートに行かなければならないと思います。
頭に浮かぶ他の解決策はありますか?
更新3: Live555コードからテストRTSPクライアントを機能させたので、ストリームからh264フレーム情報を抽出する方法を知っていますが、今度はそのフレーム情報を実際の表示可能なフレームに再結合する必要があります。簡単です!Live555に精通している人は、これを行う方法を知っていますか?ありがとう。
opencv - H264 (mp4) コーデックを使用した OpenCV ストリーム キャプチャ CAM
opencv でキャプチャした Web カメラの画像をストリーミングするのが好きです。私は ffmpeg と live555 を使った解決策を考えています (うまく文書化されていません)。私の問題は次のとおりです。
写真/秒が一致するように、キャプチャした画像をH264形式に変換するにはどうすればよいですか。ループしている場合、1 秒間に 25 枚以上の画像が表示され、ビデオが速すぎます。
変換された H264 ストリームを rtp / rtps などを介してネットワーク経由で直接ストリーミングするにはどうすればよいですか?
ご協力いただきありがとうございます!