問題タブ [muxer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - weblogic.socket.Muxerとは何ですか?
WebLogic 8.1でweblogic.socket.Muxerが何に使用されているかを理解している人はいますか?
多くの場合、スレッドダンプでは、次のようなスタックトレースが表示されます。
それは私がそれに問題を抱えているということではありません、それは理解するのがただ興味をそそられます:
1)それは何をしているのですか?
2)パフォーマンスに影響を与える可能性はありますか?
verilog - Verilogのカスタムモジュールの配列への単一入力
したがって、2つの異なるセレクター信号に基づいて読み取り/書き込みできるようにしたい4つのRAMモジュールの配列があります。現在、中間信号を使用してRAMをインスタンス化しています。
head
そして、またはtail
信号(2ビットベクトル)のいずれかを使用して使用するRAMを選択したいと思います。これを行う方法はありますか?
java - java.lang.OutOfMemoryError:Javaヒープスペース
私のアプリケーションはクラスター環境にデプロイされています。最近、サーバーは次のスタックトレースでダウンしました。それはコードから来ているようには見えません。このエラーがポップアップする最近まで、正常に実行されていました。サーバーに大きな変更は加えられていません。誰かがアドバイスできますか?
stream - DirectShowTSマルチプレクサはありますか
誰か知っていますか、Direct ShowベースのMPEGトランスポートストリームマルチプレクサはありますか?私が見つけることができるのは、コマンドラインユーティリティtsMuxeRだけです。
c++ - ビデオ録画コーデック/マルチプレクサ パック
マルチメディア アプリケーションを開発しており、ビデオ録画を Web カメラからハード ドライブに保存する機能が必要です。現在、WebM VP8 コーデックとマルチプレクサ DShow フィルターを使用しています。
mkv、avi、mp4 (可能性あり) などのさまざまなコンテナーに記録を保存する機能を追加したいと考えています。アプリ内で Flash Media Server ストリーミングを実装する予定であるため、H.264 AVC コーデックのライセンスも検討する必要があると思います。
ある種の Media Recording SDK の購入を検討する必要があると思います。しかし、これらすべてのライセンスの問題は、まったく厄介な問題です。
何かアドバイスいただけますか?すでにそのようなタスクに直面し、何かを購入したり、オープンソース ソリューションを見つけたりした人はいますか?
あなたの考えを共有してください。
前もって感謝します、
アントン
visual-c++ - MP4ファイルを使用したPlatformSDKでのDirectShowサンプル(AMCap)
Direct Showサンプル(AMCap)を使用して.mp4ファイルを生成したい。しかし、私はこれを実装する方法がわかりません。誰かがこれについて私を助けてくれますか?
よろしくお願いします、Dhaval Kariya
render - 直接表示、レンダラーへの MUX
Muxer は通常、ファイルに書き込まれるように実装されていますか。
レンダラーをミキサーの出力ピンに接続したいのですが、失敗します。
ソース コードを取得してステップ実行できるように、レンダラーを埋め込みました。エンコードされたデータに接続すると、レンダラーが機能します。
私のレンダラーは何もせず、データを消費するだけです。実際には、ワイヤーに負っているデータを送信します。私はwebmマルチプレクサを使用しています。
エラーコードは、それらが互換性のあるタイプではないことを示しています。興味深いのは、CheckMediaType や入力ピンの関数を呼び出していないことです。したがって、何が起こっていても、マルチプレクサの内部で起こっています。
問題が何であるかを推測するのは難しいことを私は知っています。これは、Windows に付属の AVI マルチプレクサーでも発生しました。
stream - webmmuxdirectshowシークキューIStream
私はvp8とvorbisを多重化するためにdirectshowフィルターを使用しています。そして最も重要なのは、webmファイルをリアルタイムで送信している(実際に送信しようとしている)ことです。したがって、作成されているファイルはありません。データはエンコーダーになってからwebmにパックされるので、ソケットに送信します。
filesinkerフィルターは、IStreamを使用してファイルIOを実行します。そして、シーク操作を多用します。使えない。ソケットを探すことができないので。
誰かがこのマルチプレクサを実装または使用する方法を知っているので、シーク操作は呼び出されません。または、断片化をサポートするようにキューを備えたマルチプレクサのバージョンである可能性があります。
ありがとう
www.webmproject.orgが提供するdirectshowフィルターを使用しています
gstreamer - Gstreamerマルチプレクサ、キャップは拒否されました
Win 7x64のGstreamerOSSビルド0.10.7で次のパイプライン(SIMPLIFIED)を使用しています。
パイプラインはGstreamer-Sharpを介して起動されます。パイプラインのコンソール出力は次のとおりです。
マルチプレクサを省略している限り、ビデオとオーディオの両方が正常に再生されます。パイプラインにマルチプレクサを含めると、ビデオがすぐにフリーズし、音が聞こえなくなります。なぜマルチプレクサがキャップを拒否するのですか?
video - 他の libav ライブラリを使用せずに libavformat を使用するにはどうすればよいですか?
ビデオを多重化するためにlibavformatのみを使用する簡単な実例が欲しいです。libavcodec でのエンコード、libavformat での多重化、libavio でのデータの保存を示す素敵な例 ( doc/examples/muxing.c ) があります。ただし、libavformat を単独で使用し、バッファ内のエンコードされたデータをフィードし、バッファ内の多重化されたデータを取得する例は私が知っているものはありません。
難しさは 2 つあります。1 つは、ストリームを追加するavformat_new_stream(AVFormatContext *s, const AVCodec *c)
にはコーデックへの参照が必要です。2 つ目は、多重化からの出力が に渡されAVFormatContext->pb
ますAVIOContext*
。したがって、libavformat を他の libav ライブラリから解放する (明白な) 方法はないようです。
参照: この質問では、libavio を使用しない方法について言及しています: Get TS packet into buffer from libavformat