問題タブ [a2dp]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - Android Pre-HoneyComb の A2DP および HFP 制限の回避
私はスマートフォン用の Bluetooth 経由でストリーミング オーディオをミキシングすることを含む興味深いプロジェクトを研究しています。それは私が最も経験を積んでいるので、Android から始めます。私はAndroidでBluetoothを1、2回使用しましたが、私の経験では、ハニカム以前のAPIではアプリケーションがA2DPまたはHFPオーディオシンクに接続できないことがわかりました。必要なUUIDを使用して、HTC EVOのジンジャーブレッドでこれをすでに試しましたが、役に立ちませんでした。
公式ドキュメントによると、API LEVEL 11の時点でこれが可能になりましたが、サポートが Honey Comb でのみ開始されたため、この API レベルを提供する唯一のデバイスは、後で Ice Cream Sandwich デバイスになると確信しています。私は完全なアマチュアなので、すぐに開発グレードの Ice Cream Sandwich デバイスにミットを取り付けることはできそうにありません。私は今、概念を証明しようとしているだけなので、後のリビジョンにコードを適応させることは問題ではありません。
理想的には、ペアリングされた A2DP デバイスの入力/出力ストリームを使用して、PCM データを直接読み書きしたいと考えています。ただし、今すぐこれを行いたい場合は、回避策を使用する必要があります。
私の考えは、私の理解によれば、マイクからオーディオ入力を読み取り、オーディオ出力をスピーカーにプッシュする、 AndroidのAudioRecordおよびAudioTrackクラスを使用することです。どちらの場合も、A2DP デバイスが接続されていない場合、これらの構造はデバイスのマイクとスピーカーをそれぞれ使用します。ただし、A2DP または HFP デバイスが接続されている場合、システムがこれらの構造体をそれぞれの入力と出力をヘッドセットのマイクとスピーカーに設定するかどうかはわかりません。もしそうなら、これを効果的にコードに組み込み、後で調整して Ice Cream Sandwich の直接サポートを利用することができます。
この分野で比較的豊富な経験を持つ人で、このアプローチがうまくいくと思う人はいますか? 座って時間の無駄になる可能性のあるコードを書く前に、誰かが成功したかどうかを知りたいです。
c - asound.confファイルとHFPおよびA2DPコマンドの関係を説明する
ここでは、A2DPおよびHFP(ハンズフリー)プロファイルのテストを探しています。
したがって、ここHFPでは、dbusコマンドを使用してdbusを介してメッセージを送信し、bluezのサービスアドレスを実行しています。接続および切断用。
ここでは、HFPでオーディオを再生するために以下のコマンドを使用しています。
の意味を教えていただけますかhw:0,1
。
HFPは、8000Hzのサンプリングレートのwavファイルのみをサポートします。
IN Advanced Audio Distribution Profile(A2DP)は、Bluetooth接続を介して高品質のオーディオをあるデバイスから別のデバイスにストリーミングする方法を定義します。
ここではこのコマンドを使用していますが、このコマンドの前にasound.conf
ファイルを更新する必要があります。
どちらの場合も、同じasound.conf
ファイルを使用しています。これを以下に示します。
したがって、このasound.confファイルとHFPコマンドおよびA2DPコマンドとの関係を知りたいと思います。
この混乱を整理するのを手伝ってください。
android - AndroidでA2DPシンク機能を有効にする方法は?
Gingerbread2.3.4をOSとして使用するカスタマイズされた組み込みデバイスを開発しています。これで、デバイスは、iPhoneや他のAndroidデバイスなどの他のA2DP対応デバイスからのオーディオストリーミングを再生できるようになります。Bluez
Gingerbreadには、A2DPシンク機能が可能なスタック4.69が含まれていることを知っています。ただし、AndroidがこれらのAPIを公開しているとは思えません。
この機能を実現する方法について何かアイデアはありますか?私は一般的なAndroidアプリを開発していないので、あらゆる種類の非標準的な方法を歓迎します。Bluez
AndroidでもDBusインターフェースから直接スタックにアクセスできると思います。
android - Android アプリを使用して Bluetooth A2DP クライアントのように動作させることはできますか? 携帯電話から Android タブレットに音楽をストリーミングする
A2DP を使用して携帯電話に接続し、携帯電話から音楽をストリーミングできるタブレットを実行する Android アプリを作成したいと思います。
Android タブレットは、私の車のステレオとナビゲーション システムに取って代わります。
私はすでに Android Bluetooth API についてかなりのことを読んでいます。いくつかのサンプル アプリをインポートしました。さらにもっと読む Android API では、音楽ストリームを「送信」することしかできず、「受信」することはできないという印象があります。私が望むように。
誰かがこれについてタフなことやアイデアを持っていますか?
よろしく
python - dbus-python api を使用して Linux システムに A2DP シンクを実装する
最新の Ubuntu 12.04 と最新の bluez スタックを実行している Linux システムにカスタム A2DP シンクを実装したいと考えています。
私の基本的な要件は次のとおりです。
レシーバーとして機能する Linux システム (デフォルト キー "0000" または "anything" による自動認証を備えた Bluetooth ヘッドセットなど)
dbus-python API を使用して bluez スタックと通信したいと考えています。独自のアルゴリズムを実行して、実行時に通信パラメータを構成したいので、独自のシンクを実装したいと考えています。
後で、Linux システム用の HSP および HFP プロファイルも実装したいと考えています。
基本的に、これらのプロファイルを実行し、USB 経由で Linux システムに接続されている外部 Bluetooth モジュールをテストして、さまざまな音声送信構成をテストし、さまざまなプロファイルで音声受信のパフォーマンスを評価したいと考えています。
Web で既に利用可能なオープン ソース コードが必要であることはわかっています。しかし、私はそれを見つけることができませんでした。コードが C や JAVA で書かれていたとしても、私には関係ありません。教育目的で必要であり、商用コードを購入できません。そこで、このテストベッドの作成にあたり、専門知識をお持ちの方にご協力をお願いしています。なぜなら、私の主な目的は、将来 bluez スタックを変更することであり、テスト ベッドの作成に時間を無駄にしたくないからです。
android - Bluezでのdbusインターフェースの作成
次のようなdbusインターフェイスの作成に関する質問
org.bluez.Audio、org.bluez.AudioSource
d-feetデバッガーに表示されます。
Bluezを実行しているホスト(ラップトップなど)は、Bluetooth A2DPソースとして動作するリモートデバイス用のインターフェイスorg.bluez.AudioSourceを作成しますか?
同様に、Bluetooth電話でorg.bluez.AudioSinkインターフェイスを作成して、たとえばA2DPレシーバーとして動作させる方法はありますか?その場合、ホスト(ラップトップなど)は、電話側のbluezと対話するためのAudioSinkインターフェイスを作成する必要がありますか?
linux - pulseaudioなしのA2DPシンク
そのため、Bluetoothを使用してAndroid携帯から送信された音楽をLinuxサーバーに再生させようとしています(LinuxマシンはA2DPシンクで、電話はソースです)。私がこれまでに行ったことは次のとおりです。
- bluez をインストールして audiosource/audiosink を有効にする
- 電話とサーバーのペアリング
- 電話からサーバーに接続します(電話はBluetooth経由でオーディオをストリーミングしていると言っています)
でも何も聞こえない。また、インターネット上のほとんどのガイドは Pulseaudio を想定しており、私は ALSA を使用することを好みます。
私は現在、/etc/asound.conf に以下を持っています:
Bluez v4.99 と Alsa v1.0.25 を実行しています。何か案は?
audio - A2DP のリサンプリング オーディオ出力 (PCM WAV から)
を搭載した CM7 スマートフォンの Bluetooth 2.1 を搭載したヘッドセットにPCM WAV 32,000Hz
のストリームを備えたステレオをどのように接続しますか? これは可能ですか?SBCは本当に悪い考えです。1024 kbps (125 KB)
DSPManager
ヘッドセット プロファイル (HSP) で可能でしょうか? このプロファイルでサポートされているコーデックについてはわかりません。
@TJD: 圧縮されたストリームを圧縮するためです。私の Epic 4G は Apt-X をサポートしていません。私のヘッドセット Gemix BH-04A 黄色。
android - Bluetooth a2dp デバイスに接続するには?
Android 4.1 を実行している Android デバイスと a2dp 対応のオーディオ レシーバーをペアリングしようとしています。Bluetooth設定画面から問題なく実行できますが、コードで実行するのに苦労しています。
基本的にデバイスを検出できますが、ソケット経由で接続できません。間違った UUID を使用している可能性があります。または、事前定義された android.bluetooth.BluetoothA2dp クラスを使用する必要があります。これが私がやっていることです:
しかし、接続できないという例外が発生します。
また、デバイスが提供するUUIDを使用して接続しようとしましたdevice.getUuids()
が、それらはa2dpデバイスへの接続にも役立ちませんでした。
a2dp デバイスへの接続方法に関するヘルプをいただければ幸いです。ありがとう。
java - Java を使用して独自の A2DP プロファイルを作成する
私たちの多くは、Bluetooth ヘッドセット/イヤホン、または組み込みのプログラムされた A2DP (高度な音声指向プロファイル) を備えた同様のデバイスを使用して、標準デバイスからストリーミング オーディオを受信できるようにしています。
しかし、モバイル デバイスにインストールできる Java を使用して独自の Bluetooth A2DP プロファイルを設計 (コーディングおよび実装) したかったので、別のデバイスから受信したストリーミング オーディオを非常にデバイスが受信および出力できるようになりました。
例:私のラップトップには、携帯電話と同様にBluetoothスタックがあります。通常の携帯電話には A2DP プロファイルがありません。しかし、携帯電話がアンプに接続されていて、ラップトップのオーディオをそのアンプにワイヤレスで転送したい場合はどうでしょうか。
提案: インストール可能な Java ベース (モバイル デバイスのサポート言語として広く受け入れられている Java) A2DP Bluetooth プロファイルを設計すると、携帯電話を Bluetooth ベースのオーディオ レシーバーとして使用できます。
しかし、主な問題は、どこから、どのように開始するかです。