問題タブ [mpeg-4]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - iPhone SDKのIPカムからライブビデオをストリーミングしますか?
カメラのIPが利用可能な場合、IPカムからライブビデオをストリーミングできるようにするプラグインモジュールを開発する必要があります。同じもののフォーマットとエンコーディングは次のとおりです。MPEG4RTSP/RTPですが、どこから始めればよいのかわかりません。多くのサイトで検索しましたが、関連するものが見つかりませんでした。AVFoundation
Applesのドキュメントを閲覧しているときに、IPCamからライブビデオをストリーミングするために使用されていることがわかりました。
更新これはGITHUBから 見つけましたが、アプリに実装する方法がわかりません。
サンプルコードまたは関連アプリで私を助けて、これを克服するように私に提案してください。前もって感謝します。
java - 2 つの .m4a ファイルをマージするか、.wav ファイルを m4a に変換します
一時停止と再開機能を備えた mpeg-4 で記録する方法を探していましたが、ないように思えました。そこで、rawwave
形式で記録してから に変換することにしました.m4a
。Androidで.wav
ファイルを変換できる方法はありますか。.m4a
私はAndroid用のポートを探しましたが、何も見つかりませんでした。Androidへmencoder
の移植に関する投稿がいくつかありましたが、Androidでそれを使用して2つのファイルをマージしたり、ファイルを. ffmpeg
linux
.m4a
.wav
.m4a
metadata - カスタム ファイル タイプを mpeg-4 にトランスコードする
カスタム ヘッダーとそれに続く UYVY タイプの YUV 形式で構成されるカスタム ビデオ ファイルがあります。ヘッダー タグには画像の場所に関する特別な情報が含まれているため、それらを保持する必要があります。
現在、Microsoft Media Foundation H.264 エンコーダーを使用して mpeg-4 ファイルを作成するために、UYVY を YUY2 に変換していますが、メタデータを保存する方法がわかりません。
Microsoft Media Foundation を使用して、新しくエンコードされた mp4 ファイルにカスタム メタデータを保存するにはどうすればよいですか? IPropertyStore では、カスタム XML ファイルを使用してカスタム メタデータを処理する方法について説明していますが、これを行う方法の例を見つけることができません。
ありがとう!
python - mp42 でエンコードされた ASF ファイルを作成する Python モジュール
ウェブカメラを使用してビデオをキャプチャし、Windows マシンで mp42 asf ファイルとしてエンコードしようとしています。pymedia を使用して mpeg2 ファイルをエンコードできましたが、pymedia は mp42 をサポートしていないようです。
opencv をインストールし、python ラッパーを使用しようとしましたが、ライターを作成するたびに python がクラッシュし続けます。画像をキャプチャするだけでも、遅すぎて信頼性がないようです。mp42 ファイルを作成できる Python モジュールを知っている人はいますか? ありがとう - レイ
ffmpeg - MP4/FLV からフレームを抽出していますか?
FFMPEGでそれが可能であることは知っていますが、部分的なファイルがある場合はどうすればよいですか(最初と最後がないなど)。そこからいくつかのフレームを抽出することは可能ですか?
stream - ffmpeg を使用してマルチビットレート (MBR) MPEG-4 ビデオを作成できますか?
私は現在、クライアントの設定 (画面サイズ、処理能力など) またはネットワーク帯域幅に応じてストリームのビットレートを動的に調整する機能を必要とする Web カメラ ストリーミング サーバー プロジェクトに参加しています。エンコーダーは無料でオープンソースであるため ffmpeg で、コーデックは MPEG-4 パート 2 です。サーバー部分には live555 を使用します。
これを達成するためにffmpegを使用してMBR MPEG-4ビデオをエンコードするにはどうすればよいですか?
encoding - H264 エンコーダ設定
xuggler を使用して、一連の画像を MP4 ファイルにエンコードしています。次のコードを使用しIStreamCoder
て H264 コーデックをセットアップし、指定します。
次の出力が得られます。
MPEG4 コーデックを指定すると、次の出力が得られます。
ご覧のとおり、唯一の違いはICodec
タイプ (H264 ではなく MPEG4) とプリセットの使用 (H264 コーデックを使用する場合に xuggler で必要とされる) です。品質の大きな違いを説明し、問題を解決する方法を教えてくれる人はいますか?
video - ビデオを保存し、特定の場所から再生する
ユーザーがマシンでさまざまなイベントを実行している間にビデオを保存する必要があるプロジェクトに取り組んでいます... ユーザーが実行した各イベントのタイムスタンプを保存し、ユーザーが選択した特定のイベントのビデオを再生したいと考えています。
どうすればこれを達成できるか、この点で誰か助けてもらえますか? ビデオをmpeg形式で保存する必要があるということですか?ビデオ間の特定の場所からビデオを再生するにはどうすればよいでしょうか。動画を別のチャンクに保存したくありません。
mpeg-4 - デコードせずに h264 ビデオのキー フレーム (I フレーム) を見つけることができますか? つまり、パケットですか?
最初にデコードせずに I フレームを見つけることができるかどうかを知る必要があります。AVPacket に何らかのフラグを設定したいのですが、フラグが表示されません。
ありがとう。
android - h.264 および mpeg ヘッダー
mpeg/h.264/RTP ストリーミング用のコードを開発しようとしています。私はこれらすべてにまったく慣れていないので、私の質問は少しばかげているかもしれません。モバイル カメラ (Android) からビデオをキャプチャしていて、それをストリーミングしたいと考えています。ネットを見ると、似たようなものがたくさん見つかりました。私がすべきことは、ストリームから mpeg4 ヘッダーを取り出すことだと思います。これは、ストリームの最初の 40 バイトを取り出した後、次の 4 バイトに NAL ユニットの長さがありますが、見つからず、理由もわかりません。
私のストリームは次のようになります。
mpeg4 ヘッダー
その後
したがって、私のNALユニットの長さは3c911716です...これは明らかに私のNALuの長さではありません
足りないものはありますか???
どうもありがとうございました !