問題タブ [stagefright]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
0 に答える
858 参照

android - QOMX_COLOR_FormatYUV420PackedSemiPlanar64x32Tile2m8ka コンバーター

YUVAndroid で H/W デコード出力からのデータを処理する必要があります。

実はNexus4を使っていて、デコードの出力形式はQOMX_COLOR_FormatYUV420PackedSemiPlanar64x32Tile2m8katypeです。

しかしYUV420 Planar、フォーマットデータが必要です。変換する必要があります。

変換機能などを共有できますか?

0 投票する
1 に答える
4018 参照

android - Android: ビデオ デコーダー用の OMX コンポーネントの作成

私は、decoder( HEVC)FFMPEGを Android のに統合するという新しいタスクを持っていますStagefright。これを行うには、まずコンポーネントを作成する必要があります。次にOMX、コーデックを に登録し、コンポーネントを に登録します。media_codecs.xmlOMXOMXCore

OMXビデオ デコーダー用のコンポーネントを作成するためのガイドや手順はありますか? 次に、このデコーダーは基本ストリーム (.binまたは.h265ファイル) のみを再生するため、ここにはコンテナー形式はありません。

OMXビデオコーデックのコンポーネントを作成する際に従うべきいくつかの手順またはガイドラインを誰かが提供できますか? どんな種類の指針も私にとって本当に役に立ちます。

前もって感謝します。

0 投票する
1 に答える
2285 参照

android-ndk - stagefright ライブラリを使用した Android での H264 HW 高速デコード

HW with Stagefright ライブラリを使用して h264 ビデオをデコードしようとしています。

ここで例を使用しました。でデコードされたデータを取得していMedaBufferます。レンダリングのために、AwesomePlayer.cppで試しましたMediaBuffer->data()AwesomeLocalRenderer

しかし、画面の画像が歪んでいます

元の画像とクラッシュした画像のリンクは 次のとおりです。

また、例でこれを試しました`

しかし、ネイティブ コードがクラッシュします。実際の画像を取得できないか、破損しているか、黒い画面です。

前もって感謝します。

0 投票する
1 に答える
2134 参照

android - Android NDK アプリケーションに libstagefright を追加する

コードにいくつかの変更を加えてAOSPコンパイルしました。今、私はアプリケーションで作成したものを追加したいと考えてlibstagefright.soいます。

Android.mk私はコンパイル済みライブラリとしてパスを追加していLOCAL_SRC_FILESますlibstagefright.so

こちらです』

プログラムをビルドして実行しているときに、ライブラリに変更が見られません。変更が見られないという問題は何ですか?

前もって感謝します。

0 投票する
1 に答える
826 参照

android - カスタム デコーダーを統合して Android で再生し、同時に fps を表示する

最終プロジェクトの一部として、カスタム デコーダーを開発しました。私のデコーダーは.steveファイルを受け入れるようになりました。私のデコーダーを Android フレームワークと統合したいと考えています。

私はこの問題について多くのことを調査しましたが、私が見つけた便利なリンクの 1 つがここにあります。 Android: デコーダーをマルチメディア フレームワークに統合する方法

私が直面している問題は、Android ソース コード全体をコンパイルしてデコーダーを統合したくないということです。.steve.apkファイルを認識してビデオを再生できるファイルを使用してアプリを作成したいと考えています。私のアプリをテストしたい人は誰でも、ソースコードをコンパイルするのではなく、電話に直接インストールして、大学院で簡単に配布してデコーダをテストできるようにします。apkapk

0 投票する
1 に答える
4121 参照

android - MediaCodec API を使用して Android ベースのメディア プレーヤー アプリケーションでオーディオ ビデオ同期を実現する最良の方法は何ですか?

MediaCodecAPIを使用してAndroidにメディアプレーヤーを実装しようとしています。

私は 3 つのスレッドを作成しましaudiovideo

スレッド 2 :audioコーデックの出力バッファをデキューし、AudioTrackクラスの書き込みメソッドを使用してレンダリングする

スレッド 3 :videoコーデックの出力バッファをデキューし、releaseBufferメソッドを使用してレンダリングするには

フレーム間audioの同期を達成する際に多くの問題に直面しています。videoフレームをドロップすることはなくaudio、フレームをレンダリングする前にvideo、デコードされたフレームが 3 ミリ秒以上遅れているかどうかをチェックします。

との違いを見つけるには、audiovideoのロジックを使用します

timeUsビデオ フレームの表示時間 (マイクロ秒) です。nowUs再生中のマイクロ秒単位のデュレーションが含まれているはずaudioです。常に維持する必要があるとフレームstartTimeUsの初期の違いです。audiovideo

最初の if ブロックは、audioトラックが実際に存在し、それが初期化されているかどうかをチェックし、存在しない 場合(first else)が設定され、初期ギャップがゼロに設定されてnowUsいることから計算しての値を設定します。メイン関数でゼロに初期化されます。audiotrack audionowUsSystemTimestartTimeUs

同期ブロックの if ブロックは、最初にレンダリングされるフレームが でaudioaudioフレームが後で結合する場合に使用されます。first_audio_sampleflag は最初は true に設定されています。

不明な点があればお知らせください。

また、ビデオ コーデックを使用して av ファイルのメディア プレーヤーが実装されているオープン ソース リンクを知っていれば、それは素晴らしいことです。