問題タブ [asf]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
spring - JSFの統合時に「jsf-impl-2.0.jarからTLDMETA-INF/jsf_core.tldを読み取れません」エラー
Struts + Spring + Hibernateアプリケーションがあり、JSFを統合しようとしています。そのために、とでいくつかの構成をweb.xml行いstruts-config.xmlました。にいくつかのJARファイルを追加しましたWEB-INF/lib。
私のWEB-INF/libに含まれているjarファイルは次のとおりです。
antlr-2.7.6rc1.jar、asm.jar、asm-attrs.jar、bsh-2.0b2.jar、c3p0-0.9.1.2-jdk1.3.jar、cglib-2.1.3.jar、commons-beanutils-1.7 .jar、commons-betwixt-0.8.jar、commons-cli-1.0.jar、commons-codec-1.3.jar、commons-collections-3.jar、commons-dbcp-1.2.1.jar、commons-digester-1.7 .jar、commons-discovery-0.2.jar、commons-fileupload.jar、commons-httpclient-3.1.jar、commons-io-1.3.1.jar、commons-lang-2.3.jar、commons-logging-1.1.jar 、commons-pool-1.2.jar、commons-validator.jar、connector-1_5.jar、dom4j-1.6.1.jar、ehcache-1.1.jar、el-api-6.0.20.jar、el-impl-2.2 .0-SNAPSHOT.jar、hibernate-3.1.3.jar、jetty-util-6.0.0、.jar、servlet-api-2.3.jar、spring-2.5.6.jar、standard.jar、struts.jar、 xercesImpl-2.6.2.jar、xmlParserAPIs-2.6.2.jar、xstream-1.3.1
以下のjarファイルは、JSFを統合するために新しく追加されたものです。
jsf-api-2.0.jar、jsf-impl-2.0.jar、myfaces-jsf-api-1.0.9.jar.jar.jar、struts-faces-1.3.10.jar
私web.xmlは:
私struts-config.xmlは
Springソースのトールスイート、Tomcat5.5およびJDK1.5を使用しています。私Tomcat 5.5\common\libにはJARファイルが含まれています
commons-el.jar、jasper-compiler.jar、jasper-compiler-jdt.jar、jasper-runtime.jar、jsp-api.jar、naming-factory.jar、naming-factory-dbcp.jar、naming-resources。 jar、servlet-api.jar
サーバーは正常に起動していますが、JSPページを読み込めません。次のような例外が発生します。
どうすればこれを解決できますか?
android - asf ファイルを介した Android WebKit ライブ ビデオ ストリーミング
私は周りにグーグルを持っていて、Androidのメディアプレーヤーがasfをサポートしていないことを発見しました. ただし、Google Chrome の組み込みプレーヤーは asf ストリーミングをサポートしています。WebKit のメディア プレーヤーでも同じことができますか? アプリケーションで webkit のメディア プレーヤーを使用して、ライブ ストリーミングを再生できますか?
directshow - directshow でプログラムによって記録ファイルを変更する
DirectShow を使用して、ライブ ソース (現在は Web カメラ、次にテレビ キャプチャ カード) から記録し、現在の日付と時刻をオーバーレイに追加し、オーディオとビデオを .asf として保存するコンソール アプリケーションを作成しました。ここで、グラフを停止することなく、出力ファイルが 60 分ごとに変更されるようにしたいと考えています。ライブ ストリームの 1 秒たりとも無駄にしてはなりません。グラフは次のようなものです。
http://imageshack.us/photo/my-images/543/graphp.jpg/
GMFBridge を調べましたが、その例にはコンパイルの問題があります。オーバーレイ フィルターとオーディオ ソースから存在するものを分割し、それらを別の asf ライター (一時停止) に接続してから、60 分ごとに切り替える方法があるかどうか疑問に思っています。一時停止した asf フィルターのファイル名を変更する必要があります (pp.asf、pp2.asf、pp4.asf ...)。このようなもの:
http://imageshack.us/photo/my-images/546/graph1f.jpg/
pp1 を一時停止します。インターネットで、グラフが停止モードにならない場合、asf ライターが現在のファイルを削除すると言う人を見つけました。
gstreamer - gstreamer を使用したライブ WMA/MMS ストリームのデコード
コンテンツ タイプが の Windows Media サーバーからストリーミング オーディオを受信するアプリケーションがありますapplication/x-mms-framed。アプリケーションは、次のようにストリームを gstreamer パイプラインに渡す前に、データからフレーミングを削除します。
(もちろん、通常、パイプラインには通常、WMA デコーダーやその他のものが含まれます。これは、問題を説明するために必要な最小限のものです)。
デバッグ出力から、ASF 解析が 2 番目のデータ パケットでうまくいかないことがわかります。実際の開始位置から +3 バイトのオフセットで読み取ろうとしています。
デバッグ出力からのいくつかのデータ:
- 最初のヘッダー パケット (フレーム化されたストリームからの $H) は 5027 バイトで、正しく解析されているようです。最小パケット サイズは 1567 です。
- 次の各データ パケット (フレーム化されたストリームからの $D) には、1564 バイトが含まれます。
問題は、ASF デマルチプレクサが、実際のパケットに含まれるデータが少ないことを認識しているにもかかわらず、各パケットに 1567 の固定の min-packet-size 値を使用していることだと思います。余分な 3 バイトを暗黙的なパディングとして扱い、消費するパケット サイズを減らすのではなく、(効果的に) スキップします。
これはおそらく、フレーミングを単純に削除するコードが、実際のフレーム サイズも渡す必要があるためです。gstreamer のバッファ パス メカニズムを使用してこれを行う方法があるかもしれません。その場合、フレーム解除を行うために gstreamer プラグインを作成する必要があります。そのようなプラグインはapplication/x-mms-framed->に変換しますvideo/x-ms-asf。それを行う既存のプラグインを見つけたいと思っていましたが、これまでのところ成功していません。
私は正しい方向に進んでいますか、それとも単に ASF デマルチプレクサーのバグですか (私は実際に 3 つの異なる ASF デマルチプレクサー プラグインを試したので、そうではないと思います)?
video - WriteStreamSampleがパケットをドロップしないようにするにはどうすればよいですか?
私はWindowsMediaFormat 11 SDKを使用して、圧縮されたサンプルの読み取りと書き込みによってビデオファイルをコピーしています(つまり、デコード/エンコードは行われず、生のサンプルをコピーするだけです)。
私の問題は、ライターがデータパケットをドロップしていることです。元のファイルにあったすべてのデータパケットを保持したいので、これは最適ではありません。入力ファイルでビットレートが間違って定義されている場合、問題は特に深刻です(結局のところ、あらゆる種類の奇妙なファイルが浮かんでいます)。
パケットドロップを完全に無効にするために使用できる構成設定はありますか?私は今のところこのようなものを見つけていません。非常に高いビットレートとバッファウィンドウを設定しようとしましたが、ライタープロファイルにストリームを追加するときに情報のないエラーが発生しました。
現時点での私の唯一の選択肢は、すべてのASF解析コードを自分で再実装して、実際に低レベルのコピー操作を実行することだと思われます。ただし、これはかなりの無駄な時間になります。
私が見逃したものはありますか?どういうわけか、ライターにパケットをドロップしないように指示できますか?
編集:ビデオがWMV2(Windows Media Video 8)コーデックを使用している場合、問題は最も深刻であるように見えます。VC-1を使用すると、出力ビデオは正常です(または、少なくとも正常に近い場合、ファイルの内容を詳細に確認していませんが、視覚的には問題なく見えました)。おそらく、WMV2の実装はメディアフォーマットSDKでどういうわけか壊れていますか?さて、私は今のところWMV2サポートなしで生きなければなりません。
writer - WM ASF Writerとは何ですか?どこでダウンロードできますか
プログラムを入手しましたが、WM ASFWriternotfoundというエラーが返されます。オンラインで検索したところ、コードを書くときに使用する方法のリンクが表示されました。誰かが私がこれをダウンロードできる場所を知っていますか?
c# - C#でWMVファイルの情報を解析する方法
ASF ファイルの情報をビットレート、メタデータ、言語として取得したい...ASF 仕様を読み、ASF ファイルにはヘッダー オブジェクト、データ オブジェクト、インデックス オブジェクトのパーツがあることを知っています。最初に、ASFファイルのバイナリファイルだと思います.FileStream、BinaryReaderとしてC#のCLASSとFUNCTIONで解決しようとしています:
次に、 String に変換しようとします:
しかし、期待どおりに表示されません。無意味な文字列が表示されます: 0&?u?f? ??. ASFファイルの情報を文字列に変換する方法を教えてください。
c# - C#で2つのビデオファイルをマージするには?
複数のビデオ ファイル (.wmv) を結合して 1 つの wmv ファイルにする必要があります。どうすればいいですか?
android - Android での ASF ストリーミング?
現在、IP Web カメラ (Foscam Fi8918w) のストリームを表示する Android アプリを作成できるかどうかをテストしています。それができるアプリがいくつかあることは知っていますが、そのアプリには必要な機能がありません。
カムを分析すると、2 つのストリームが埋め込まれた ASF ストリームが見つかりました。
ストリーム 1: 640*480 のモーション JPEG ビデオ (MJPG)
ストリーム 2: IMA WAV ADPCM オーディオ (8000Hz、16bit モノラル)
次に、Google で Android ASF 命令を検索しましたが、結果はありませんでした。私が見つけた唯一のことは、Android メディア プレーヤーがサポートしていないことでした。
ウィキペディアにはASF 仕様へのリンクがあったため、その背後にある魔法はありません。自分ですべてを実装する以外に方法はありませんか?
c# - ASFRTPパケットをビデオデータに変換するRTSP
私はMS-RTSPプロトコルに基づいてストリーミングデータを処理するプログラムに取り組んでいますが、これまでのところ非常にうまく機能しており、RTSPによってUDPパケットを取得しています。
問題は、UDPパケットをビデオデータに変換できないことです。
MS-RTSP-SPEC、RFC-2326、およびMS-ASF-SPECIFICATIONドキュメントがあります。
しかし、「ASFペイロードヘッダーと圧縮メディアデータ」がどのようなデータ構造であるかはわかりません。
次のデータは、RTP接続から受信したパケットの1つです。
そして、このMS-ASF-SPECドキュメントのどの部分に「ASFペイロードヘッダーと圧縮メディアデータ」の説明があるのかわかりません。
QQを手伝ってください