問題タブ [mpeg-4]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
http - http 経由の GStreamer Webcam mpeg4 ライブ ストリーミング
H.264/AVCビデオを含むmpeg-4でウェブカメラからのビデオストリームをエンコードし、gstreamerを使用してhttp経由でストリーミングする方法を考えていましたか? ウェブカメラはシンプルな USB 2.0 ウェブカメラです。私が見つけた唯一の例は、rtsp 経由で mpeg-4 をストリーミングすることですが、私が使用しているクライアントは rtsp について知りません。手伝ってくれてありがとう。
qt - Qtを使用してビデオをフレームに分割するには?
ビデオ ファイル (H.264 および MPEG-4) を読み込んで、たとえば 2 つの部分に分割したいと思います。30 秒で分割したいのですが、フレームを完全に保存したいと思います。それで、それを行う方法はありますか?フォノンを調べましたが、この問題に役立つものは何もありませんでした。
mpeg-4 - IフレームとDC係数の抽出
MPEG-4ビデオからIフレームとDC係数を抽出するにはどうすればよいですか?
mpeg-4 - mpeg-4ビジュアルストリームのブロックでdct内係数を見つける方法は?
mpeg4ビジュアルストリームで特定の構文単位(8x8ブロックのイントラdct係数など)を見つけるための「簡単な」方法はありますか?
または単に言う、それを行う唯一の方法は、すべての詳細でストリームを分析することですか?
iphone - VLCを使用して、同じコンピューター上で30〜40のIPベースのWebカメラをエンコードすることは可能ですか?
私は幼稚園の小さなチェーンのIT担当者です。現在の各学校には、古いAxis205,206モデルからAxisM1011まで、それぞれ約30〜40のAxisIPWebカメラがあります。これらのカムを使用すると、保護者はWebサイトにログインして、1日を通して子供の教室を見ることができます。IPカムはローカルネットワーク上にあり、ポート80でストリーミングされます。各学校には1つのパブリックIPアドレスがあり、その上にリバースプロキシHTTPサーバーがあります。基本的にURLの書き換えを行うことで、Axis WebカメラからMJPEGを直接提供し、クライアント表示アプリがAxisHTTPAPIを介してカムに直接アクセスできるようにします。
これは何年もの間うまく機能しており、最近までiPhoneでも機能していました。実際、iPhoneでも動作しますが、Wi-Fiに接続している場合に限ります。iPhoneが3G経由で接続されている場合、MJPEGストリームは機能しなくなります。キャリアはAT&Tです。
私は過去数日間かなりの調査を行い、Appleデバイス用のHTTPライブストリーミングに移行する必要があることを知っているので、解決しなければならないパズルのさまざまな部分に頭を悩ませようとしていますそれを機能させる。
Axisカムの組み合わせが問題になる可能性があります。Axis 205および206はMJPEGのみですが、M1011はh.264を提供できますが、明らかにRTSP経由でのみ提供されます。必要な場合、またはソリューション全体に役立つ場合は、古いAxisカムをM1011に交換したいと思います。
これまでの私の理解から、私が最初に整理しなければならないことは、30〜40軸のM1011 h.264ストリームをMPEG-2(.m3u8および.tsファイル)として(再)エンコード/チャンク化することです。
質問1
VLCコマンドラインの「バッチ」ファイルを使用して1台のコンピューターをセットアップし、Axis Webサイトからの30〜40の入力ストリームを開始してMPEG-2にエンコードし、iPhoneに対応できるようにすることは可能ですか。その多くのウェブカメラを処理するための安定性、ハードウェア要件などについて疑問に思っています。この同じコンピューターにはHTTPサーバー(おそらくIIS)とパブリックIPアドレスがあるため、ローカルコンピューターよりも遠くにMPEG-2ファイルを取得する必要はありません。
質問2
MJPEGのみを提供する古いAxisモデル(205、206)の場合、VLCを使用してそれらをMPEG-2にエンコードすることもできますか?.h264をMPEG-2に(再)エンコードまたは再パッケージ化することは、MJPEGをMPEG-2にエンコードするよりもはるかに「作業」が少ないと思い込んでいますか、それともほぼ同じ量のCPUなどですか?最新バージョンのVideolanをインストールしましたが、RTSPURLを介してAxisM1011 .h264ストリームに接続するのは簡単だったので、多くのことが機能することを知っています。
質問#3
誰かが特定のVLCコマンドラインまたは構成を共有できますか?入力としてAxis M1011.h264および/またはAxisMJPEG、出力についてはMPEG-2(.m3u8および.tsファイル)"チャンク"特に3Gに接続した場合、AppleiPhoneで必要なサイズになります。
質問#4
最後に、誰かが別の提案されたアプローチ(別のエンコーダー、よりうまく機能するメディアサーバーなど)を持っている場合は、それらの提案も聞きたいと思います。
ffmpeg - ffmpegを使用してaviを3gpに変換します
コーデックをmpeg4シンプルプロファイルレベル0として使用してaviファイルを3gpに変換したいのですが、ffmpegでは実行できません。このエラーが発生します-要求された出力形式'-vcodec'は適切な出力形式ではありません。このヘルプを修正してください!事前の注意に感謝します-入力aviはコーデックffv1でffmpegを使用してbmpイメージから生成された720x480です。出力3gpはmpeg4シンプルプロファイルレベル0である必要があります
iphone - H.264 と MPEG-4 のファイル サイズ
Apple のドキュメントは、これらが異なることを示しているようです。
しかし、どちらがより小さなファイル サイズを生成し、どちらが一定のビデオ サイズでより良いビデオ品質を生成するのでしょうか?
streaming - MP4 によるライブ ストリーミング
私はオンラインテレビサービスに取り組んでいます。目標の 1 つは、追加のブラウザー プラグイン (Flash を除く) なしでビデオを再生することです。
MP4 を使用することにしました。これは、HTML5 ブラウザーの大部分と Flash (フォールバック用) でサポートされているためです。ビデオは、FFMpeg によってサーバー上の ASF からトランスコードされます。
しかし、MP4 には長さを指定する必要があるメタデータ用の moov アトムがあるため、ライブ ストリーミングできないことがわかりました。FFMpeg は、moov をファイルの最後に配置するため、mp4 を stdout に直接ストリーミングすることはできません。( MP4 のライブ トランスコーディングとストリーミングは Android で動作しますが、Flash プレーヤーでは NetStream.Play.FileStructureInvalid エラーで失敗します)
もちろん、MPEG-TS は存在しますが、HTML5 ではサポートされていません<video>
。
私が考えたのは、ストリームをリアルタイムで MP4 にトランスコードし、それに対する新しい HTTP リクエストごとに、最初にビデオの長さの非常に長い数値を指定する moov を送信し、次に残りの部分の送信を開始する方法です。 MP4 ファイル。
そのようにストリーミングにMP4を使用することは可能ですか?
いくつかの調査と av501 の回答の後、機能するにはフレームのサイズを知る必要があることを理解しています。
mp4 ファイルを小さなパーツに分割して、ストリーミングできるようにすることはできますか?
もちろん、別のコンテナ/フォーマットに切り替えることもできますが、Flash と HTML5 の両方に対応する唯一のフォーマットは mp4/h264 であるため、両方をサポートする必要がある場合は、2 回トランスコードする必要があります。
java - java.awt -- java がモニター (画面) に画像を出力する場合、モニター カードに出力されるファイルはどこにありますか?
Java グラフィックス オブジェクトを使用して一連の画像を描画しているとします。Java がこれらの画像をモニターに出力しているとします。モニター カードに送信されるファイル (グラフィック表現ファイル) はどこにありますか。このファイルを取得してディスクに保存するにはどうすればよいですか、このファイルを取得して配列に書き込むにはどうすればよいですか、またはこれらのファイルを取得して (モニターへの) 出力結果を 1 つのファイルに結合するにはどうすればよいですか節約?スクリーン ショット機能を使用したくありません。モニターへの出力をある種のバイト ストリームにリダイレクト (xor キャプチャも) できるようにしたいのです。ディスプレイ機能について話している場合、モニターはセマフォよりもはるかに優れていることに注意してください。反例はいらない。
私は正しい質問をしていないかもしれません。「デバイス空間」に配置される前に、ファイルがまだユーザー空間にある間にファイルをキャプチャしたい場合があります。MPEG-4 形式に変換できるように、バイト ストリームをキャプチャしてみます。ストリーミング入力からの MPEG-4 コンバーターからのストリーミング出力が必要です。そうでなければ、静止画像を個別の時間に取得して画像を変換する必要があります。
ユーザースペースからの出力はどのような形式になりますか? デバイス空間の出力はどのような形式になりますか? 推測を最小限に抑えるようにしてください。
http://docs.oracle.com/javame/config/cdc/opt-pkgs/api/jsr927/index.html
Java は、AWT オブジェクトをテレビ画面に表示する手段を作ったのだと思います。(ジャバテレビ)。