問題タブ [stagefright]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android-source - Bravia Engine は AOSP でどのように呼び出されますか?
Google から AOSP ソース コードを見つけ、 https://github.com/sonyxperiadev/device-sony-sgp321からベンダーの情報も取得しました 。
ソニーは、ブラビア エンジン ライブラリを AOSP に追加して、画像とビデオの品質を向上させました。libstagefright の awesomelocalrenderer で呼び出すか、OMX addPlugin が呼び出されたときにデコード フェーズで呼び出すことができます。
私は両方の場所を検索しましたが、コードは他のネイティブ AOSP ソース コードと同じです。ソニーは BE ライブラリをどのように使用していますか?
linux - ビデオ コーデックを gstreamer または vlc に統合する
ビデオコーデックC-Code
用があります。圧縮形式を入力として受け取り、データ バッファーを出力します。スタンドアロン アプリケーションとして、生成されたものを を使用してレンダリングできます。YUV
YUV
OpenGL
私の仕事は、このコードを使用してプレーヤーを作成することです (つまり、再生、一時停止、ステップなどの機能を備えています)。gstreamer
車輪全体を再発明するのではなく、自分のコーデックをプレーヤー コード (for 用)に統合できればよいと思いますLinux
。
上記を達成することは可能ですか?続行できるチュートリアルはありますか? 私はネットでたくさん検索しましたが、私の要件に固有のものを見つけることができませんでした. 上記の問題に固有の情報またはリンクは、私にとって非常に役立ちます。前もって感謝します。
-よろしく
android - Androidハードウェアデコード後の生データのカラーフォーマットは何ですか?
ハードウェアデコード用の一定のカラーフォーマットはありますか、それとも異なるAndroidデバイスごとに独自のカラーフォーマットがありますか?
ハードウェア デコードの結果の生データを取得し、それを自分でレンダリングしたいと考えています。
ありがとう。
android - H264 の MediaExtractor なしで MediaCodec を使用する方法
MediaExtractor なしで MediaCodec を使用する必要があり、FileInputStream を使用してファイルを読み取っています。現在、機能していません。画面に緑がかったスクランブル画像が表示されています。
これはソースコード全体です:
MediaExtractor を使用すると、すべて正常に動作します。MediaExtractor の使用時に MediaFormat を調べて、SPS/PPS 値を取得しました。以下のセクションを削除すると、画面には何も表示されません。
私は何が欠けていますか?MediaExtractor を使用せずにプログラムで SPS/PPS 値を取得するにはどうすればよいですか?
android - Android で MPEG 2 TS のデマルチプレクサを作成する
MPEG2 TS (HLS STREAM) から ID3 タグを抽出する必要があるという要件があります。ファイルの再生に関して、Android では MPEG2 のサポートが制限されています。しかし、私の懸念は ID3 タグを抽出することです (ファイルを再生する必要はありません)。したがって、コーデック(エンコードとデコード)には関心がありません。
次のオプションを検討しました。
libstagefright と OpenMax : Google が Android 2.0 から実装した再生エンジン。MediaExtractorは、基になるファイル システムまたは http ストリームからトラック データと対応するメタ データを取得します。しかし、この投稿によるとAndroidにビデオコーデックを追加する 私は独自のファームウェアまたは独自のメディアプレーヤーを構築する必要があります.私はその道をたどる必要がないことを望んでいます. stagefright と openMax の詳細については、次を参照してください。
Android の Stagefright メディア プレーヤー アーキテクチャ
FFMPEG のコンパイルと使用: オーディオとビデオを記録、変換、およびストリーミングするための完全なクロスプラットフォーム ソリューション。ここで説明されているように、このライブラリを使用して ts ファイルを逆多重化できます。
FFmpeg - トランスポート ストリーム ファイル (.ts) からのビデオとオーディオの抽出。
しかし、HLS ストリームから ID3 タグを抽出できるかどうかはわかりません。libavformatはこれを実行できるかもしれませんが、読み取りメタデータをアプリケーションに通知するメカニズムを考え出す必要があります。
vlc for android のコンパイル: android 用の vlc をコンパイルし、demux コンポーネントのトランスポート モジュール内でタグを抽出するためにいくつかの変更を加えましたが、提供しているすべてのストリームを再生することはできません。
これらのオプションを調べた後、これを実現する方法をまだ修正していません。ファイルを再生したり、独自のファームウェアを構築したりしたくないので、メディアプレーヤーを作成したくありません。ffmpeg を使用するのが最も実行可能なオプションのようですが、サードパーティまたはオープン ソース ライブラリを使用せずにこれを試してみたいと思います。私の質問は次のとおりです。
Androidで動作するデマルチプレクサをゼロから作成することさえ可能ですか?
可能であれば、どうすればいいですか?
見逃したオプションはありますか?
私はこれが初めてです。どんな助けでも大歓迎です..ありがとう
android - HW モードで OMXCodec エンコーダーを作成する
Android ICS 4.0.4 でハードウェア アクセラレーションによる H264 ビデオ エンコーディングを実装しようとしています。MediaCodec クラスが利用できないため、stagefright API を使用する必要があります。しかし、HardwareCodecsOnlyフラグを設定すると、OMXCodec::Create は常に NULL を返します。
フラグ kHardwareCodecsOnly を指定してOMXCodec ::findMatchingCodecs() を呼び出すと、次のリストが表示
されます
。
- OMX.TI.Video.encoder
- OMX.Nvidia.h264.encoder
- OMX.SEC.AVC.Encoder
つまり、ハードウェアでサポートされている HW エンコーディングを意味していると思います。
OMXCodec::Createにフラグを設定しなかった場合- コーデックは適切に作成されましたが、ソフトウェア モードにあると思います (どのコーデックが正確に作成されたかを確認するにはどうすればよいですか?)
OMXCodec ソースをブラウズすると、興味深い行が見つかりました。
Encoder の場合、常に最初にソフトウェア コーデックをインスタンス化しようとするようです。私は何を間違っていますか?どんな助けでも大歓迎です。ありがとう
OMXCodec 作成のコードは次のとおりです。
android - Ubuntu で Android 用の stagefright-plugins をビルドする方法
Ubuntu ( https://github.com/omxcodec/stagefright-plugins )で Android 用の stagefright-plugins をコンパイルしようとしましたが、手順に問題があります。
「android/frameworks/native」および「android/frameworks/av」ディレクトリに「USES_NAM」フラグが見つかりません。また、「android/frameworks/native」および「android/frameworks/av」ディレクトリも表示されません。この問題を解決するのを手伝ってくれませんか? 前もって感謝します
android - openmax と android stagefright を使用した Demux .mp4 ファイル
.mp4 ファイルを分離してオーディオ/ビデオを分離し、openmax と android stagefright を使用して個別にレンダリングする方法を教えてください。
1.jni ファイルにすべての関数を実装する必要がある場合。
2.デマルチプレクサーにffmpegを使用する場合、どのようにandroid stagefrightと統合できますか(コンポーネントとしてffmpeg demuxerを構築し、openmax ilを使用してandroidとリンクするか、android jniでコード全体を記述する必要がある場合(その場合、私はffmpeg を android stagefright にリンクするには))。
3. Android ndk は stagefright をサポートしていないため、両方を統合する方法。
よろしくマヤンク