1

Android RTSP ストリーミング プロトコルでサポートされているオーディオ コーデックの数。私は Android オーディオ RTSP ストリーミングに取り組んでいます。Android RTSP ストリーミング クライアントを実装するのは簡単です。

import android.media.MediaPlayer;
MediaPlayer player = new MediaPlayer();
player.setDataSource(RTSP_URL);
player.prepare();
player.start();

ただし、サポートされているオーディオ音声/メディア コーデックのリストは、Android API の概要/リファレンスにも RFC 仕様にも指定されていません。

誰かがその背景を共有するのを手伝ってくれませんか?

4

1 に答える 1

1

サポートされるコーデックは、デバイスごとに異なる場合があります。たとえば、一部のデバイスは、特許/ロイヤリティフリーのコーデックのみをサポートすることを決定する場合があります (何も知りませんが、例として...)。

AudioCodec の getCodecs() メソッドを使用して、特定のデバイスがプログラムでサポートするコーデックのリストを見つけることができます。

public static AudioCodec[] getCodecs ()

SDP (セッション記述プロトコル) の目的の 1 つは、接続のいずれかの端が、両方がサポートするセットから使用するコーデックをネゴシエートできるようにすることです。

Android のドキュメントでは、コーデックがアプリ開発者にどのように「公開」されるかについて説明しています。

Stagefright サービスは、system/etc/media_codecs.xml と system/etc/media_profiles.xml を解析して、android.media.MediaCodecList と android.media.CamcorderProfile クラスを介して、デバイスでサポートされているコーデックとプロファイルをアプリ開発者に公開します。

これが説明しているのは、デバイスにコーデックを追加している誰か (デバイス ベンダーなど) が、デバイスでアプリを開発している誰か (通常のアプリ開発者など) がそのコーデックを利用できるようにするために使用する方法です。

この方法でコーデックが追加されると、上記の getCodecs() メソッドが呼び出されたときに返されます。

于 2015-06-02T20:44:25.363 に答える