4

ラズベリーパイのビデオ出力を取得して、ちょっとadalightアンビエントライトニングシステムに渡します。XBMCのPI用プレーヤー、omxplayer、デコードおよびその他の機能用のOpenMAXAPIを使用します。

コードを調べると、次のようになります。
m_omx_tunnel_sched.Initialize(&m_omx_sched, m_omx_sched.GetOutputPort(), &m_omx_render, m_omx_render.GetInputPort());

私が理解している限り、これはビデオスケジューラとレンダラー[S]->[R]の間にパイプラインを設定します。

今の私の考えは、グラバーコンポーネントを作成し、それをパイプライン[S]->[G]->[R]にほとんどプラグインしないことです。グラバーはフレームバッファーからピクセルを抽出し、LEDを駆動するデーモンに渡します。

今、私はOpenMAX APIを掘り下げようとしていますが、これはかなり奇妙に思えます。どこから始めればいいですか?それは実行可能なアプローチですか?

よろしくお願いします

4

2 に答える 2

3

デコードされたデータが必要な場合は、レンダラーに送信しないでください。レンダリングする代わりに、データを取得して、やりたいことを何でもします。デコードされたデータは、 video_decodeOpenMAXILコンポーネントの出力ポートから取得する必要があります。正しい出力ピクセルフォーマットも設定する必要があると思います。コンポーネントの出力ポートを必要な正しいフォーマットに設定して、変換がGPUによって行われるようにします(YUVまたはRGB565が利用可能です)。

于 2012-12-20T19:16:04.710 に答える
0

最初は、カメラコンポーネントの出力にバッファーを接続し、CPUでそのフレームを使用して必要なすべてを実行し、レンダリングの入力ポートに接続されたバッファーを介してフレームを送信する必要があると思います。これは簡単なことではありません。ラズベリーのOpenMaxに関するドキュメントがほとんどないため、タスク。

開始するのに最適な場所: https ://jan.newmarch.name/RPi/

手元に置くのに最適な場所:http: //home.nouwen.name/RaspberryPi/documentation/ilcomponents/index.html

次善の場所:インターネット全体に配布されたソースコード。

幸運を。

于 2016-05-30T16:32:28.790 に答える