問題タブ [live555]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
2052 参照

video - VLCでRTSPをリストリームできません

VLCがインストールされたLinuxサーバーがあり、IPカメラ(rstp)を再ストリーミングしようとしています。私のPCからは完全に実行されるので、リストリーミングのコマンドは問題ないはずです。サーバーから実行しようとすると、いくつかの問題が発生します。

PCとサーバーのVLCバージョンは同じです。live555ライブラリが欠落している可能性があることがわかりましたが、そうではありません。手伝っていただけませんか?

0 投票する
4 に答える
6550 参照

iphone - RTSPストリーミングビデオを再生するためのアプリを作成する

RTSPストリーミングビデオを再生するアプリを作成したいと思います。私はSOで同じことに関してたくさんの質問を見つけました。すべての質問は私にlive555を指摘しました。リンクをたどって、c++ライブラリをダウンロードしました。最初はこれを構築できませんでしたが、SOから再び助けを得て、提供されたソリューションを実装しました。

私がこれまで行ってきたプロセスは次のとおりです。

  • ターミナルで、ライブラリのパスと、ライブラリcd liveのすべてのファイルが配置されている場所を選択します。
  • 端末に入力./genMakefiles iphoneosしました端末からのエラーまたは成功応答はありません
  • makeエラーオキュアを使用したときの上位コマンドの後-bash: make: command not found
  • 私が使用したとき./genMakefiles iphoneos makeの応答はUsage: genMakeFiles <os-platform>

ライブラリが正常にビルドされているかどうかを確認するにはどうすればよいですか?はいの場合、iOSアプリでそれを使用する方法は?

インスタンスにアクセスして作成するために必要なクラスはどれですか?

ライブラリがビルドされていない場合、どうすればビルドできますか?同じように、ビルド場所からどのように使用できますか。

リンクをたどってみました

ありがとう

0 投票する
1 に答える
1689 参照

streaming - RTSPserver でフレームレートを設定する方法

Live555 を使用して RTSPServer アプリケーションを作成しました。このアプリケーション サーバーでは、ライブ メディア ストリーマー アプリケーションからライブ ストリームを受信し、次にデジタル カメラからストリームを取得します。

受信者の要件に従ってサーバーが可変フレームレートでストリーミングできるように、サーバー側でフレームレートを設定する方法はありますか?

0 投票する
1 に答える
2717 参照

rtsp - Live555でストリームを一時停止および再生する方法

別のプログラムにストリーミングしているLive555でビデオサーバーにアクセスしています。rtsp PAUSEおよびPLAYコマンドをビデオサーバーに送信して、他のプログラムへのストリーミングを停止したいと思います。これは可能ですか?私のコードは何もしていないようです。サーバーに接続でき、サーバーは完全なPAUSEコマンドを受信したことを確認します。

VideoServer.h

VideoServer.cpp

このプロセスで作成したストリームを一時停止して再生することしかできないようです。これはLive555を使用している場合ですか?

0 投票する
2 に答える
2413 参照

h.264 - C++のオープンソースH.264デコーダー

データがH264でエンコードされているRTSPを介してネットワークカメラのビデオを受信するためにlive555を使用しています。受信したパケットをデコードして別のビデオフレームに解析するためのオープンソースソフトウェアはありますか?

よろしくお願いします、

DídacPérez

0 投票する
2 に答える
774 参照

iphone - クリーンなディレクトリに LIVE555 RTSP ライブラリをビルドする

こんにちは、LIVE555 ライブラリを新しいディレクトリに構築する方法を知りたいです。私の現在の方法では、.o ファイルと構成ファイルを手動で削除する必要がありますが、それはあまり効果的でも賢くもないと思います。

現在、私のワークフローは次のとおりです。

しかし、それはすべて同じディレクトリにビルドされ、非常に面倒です。バイナリとヘッダーファイルをクリーンなディレクトリにビルドする構成で変更できる属性に誰かが光を当てることができますか?

ありがとうございました!

0 投票する
0 に答える
1571 参照

c++ - FFMpeg を使用して RTP H264 パケットを解析する方法

私はこのフォーラムを初めて使用します。誰かが私の問題を解決してくれることを願っています。

RTP H264 packetsを使用FFMpegして変換する必要がありBMP filesます。これまでに次のことを達成しました:

-Reading H264 file and convert it to BMP files using FFMpeg.

-Receiving raw RTP H264 packets.

RTP H264誰かが を使用してパケットをデコードするのを手伝ってくれたら本当にありがたいですFFMpeg。インターネットで多くの検索を行い、次の解決策を見つけました。

  • rtp_h264.c を使用して libavformat を実行すると、ファイルはそこにありますが、ライブラリをどこにもダウンロードできませんでしたが、ライブラリをダウンロードせずに使用する方法はありません。可能であればダウンロードリンクと例を提供してもらえますか?

  • H264VideoRTPSource を使用する live555で、ライブラリをダウンロードした後、このコードの使用方法がわかりませんでした。クラスをインスタンス化する必要がありますか? またはそれを継承しますか?H264VideoRTPSource を使用したインターネット上の例はありますか?

すべての標準を読まずそれを行う他の方法はありますか(RFC3984 and RFC6184)

ありがとうございました。

0 投票する
1 に答える
2769 参照

stream - rtpソースストリームをlive555経由でrtspにプロキシします

ffmepgによって生成されたRTPストリームがあります。次に、live555を使用してRTSPにリストリームする必要があります

RTSPから別のRTSPにリストリームする方法があります:LIVE555プロキシサーバー

しかし、プロキシサーバーを変更してRTPソースをRTSPに再ストリーミングする方法(sdpの説明を取得できます)?

すなわち

  • ソースストリーム:rtp://192.168.1.10:55555
  • retream to:rtsp://:554 / stream1

任意のアドバイスをいただければ幸いです。ありがとう!

0 投票する
2 に答える
18560 参照

c++ - H.264 ライブをストリーミングできるように Live555 FramedSource を作成する方法

D3D9 アプリケーションからライブ データを MP4 などにストリーミングできるようにする、Live555 の FramedSource から派生するクラスを作成しようとしています。

私が各フレームで行うことは、バックバッファをテクスチャとしてシステム メモリに取り込み、RGB から YUV420P に変換し、x264 を使用してエンコードし、理想的には NAL パケットを Live555 に渡すことです。基本的にDeviceSourceファイルをコピーして、FramedSourceから派生したH264FramedSourceというクラスを作成しました。入力を入力ファイルにする代わりに、フレームごとに更新する NAL パケットにしました。

私はコーデックとストリーミングにまったく慣れていないので、すべてが完全に間違っている可能性があります。各 doGetNextFrame() で、NAL パケットを取得して次のようなことを行う必要があります

ペイロードは私のフレームデータのバイト数だと思いますか? 誰かが FramedSource から派生したクラスの例を持っている場合、少なくとも私がやろうとしていることに近いかもしれません. Live555 のドキュメンテーションはほとんどコードそのものであり、私が簡単に理解できるわけではありません。

0 投票する
2 に答える
1332 参照

ffmpeg - live555 DeviceSource を実装して、ffmpeg エンコーダーからフレームを受信します

ウェブカメラをストリーミングするためのアプリケーションを作成しています。OpenCV を使用してカメラをキャプチャし、ffmpeg をエンコーダーとして、live555 をサーバーとして使用したいと考えています。ffmpeg からフレームを受信するエンコーダーをカプセル化するには、live555 に DeviceSource.cpp を実装する必要があることを知っています。ただし、これを行う方法の例はないようです。だから、DeviceSourceの実装に関するチュートリアルや例を誰かに教えてもらえますか。ありがとうございます。