問題タブ [opensl]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - アプリケーションが起動されるたびに OpenSL ES がオーディオを再生しない理由
Android で OpenSL ES を使用して、ゲーム エンジンにオーディオ再生を実装しています。これまでのところ、Android ファイル記述子データ ロケーター (AndroidFD) のみをサポートしています。問題は、OpenSL ES のラッパー クラスを使用している場合、オーディオの再生が常に機能するとは限らないことです。
ラッパー:
AudioEngine.cpp
サウンド.cpp
ゲーム.cpp
アプリケーションの起動時にサウンドが常に再生されるとは限りません。上記のすべての OpenSL ES コードを Game::initialise() 内に記述した場合、サウンドは常に再生されます。同じコードがラッパー クラス内で機能しない理由がわかりません。
Samsung Galaxy S III (GT-I9305)、Android 4.2.2、CyanogenMod 10.1.3-i9305 でアプリケーションを実行しました。
android - SL_ANDROID_STREAM_VOICE を使用した Android 上の OpenSL ES。マイク入力が極端に低い
OpenSL ES と SL_ANDROID_STREAM_VOICE を使用して、ネイティブ Android アプリのオーディオをメイン スピーカーではなく耳 (電話) スピーカーにルーティングしています。イヤー スピーカーへの出力は正常に機能しますが、オーディオ入力の録音は非常に小さくなっています。この状況でマイクをブーストまたは再構成する方法はありますか? OpenSL ES を介した SDK または NDK のいずれかを使用できます。
ありがとう!
android - Androidで人間の声を音符に変換する方法は?
Androidのマイクからa4,b1.などの音符にアナログデータを保存しようとしています。 aubio.orgを使ってみました。しかし、それはCで書かれています。それを行うための他のオープンソースはありますか? オービオがそれを行う方法である場合、どうすればそれを行うことができますか.
android - robotium を使用して、オーディオがネイティブ レベルで再生されているかどうかをテストするにはどうすればよいですか?
それともこれは可能ですか?私は MediaPlayer や Java レベルのコンポーネントを使用していませんが、ネイティブ層で OpenSL を介して動作する GStreamer フレームワークを使用しています。
どうにかして NDK を使用してオーディオ エンジンに接続する必要があると思います。ヒントをいただければ幸いです。
android - Android - 着信通話の音声をリアルタイムで分析する
進行中の通話の着信音声/音声を確認/分析する方法はありますか? 私が必要としているのは、誰かが相手側で話しているかどうか (1 または 0) を検出する方法です。複雑な処理は必要ありません。
私はすでにそのMediaRecorder.AudioSource.VOICE_DOWNLINK
方法を認識しており、それが機能するのは少数の電話だけです。しかし、少なくとも 75% の電話で動作する堅牢なものが必要です。
これが可能であれば、ネイティブ (JNI) コードが必要になることはわかっています。
私が確認する必要があるのは、電話のハードウェアアーキテクチャのために、それを行う方法をまったく探しているべきか、それともネイティブコードを使用しても完全に不可能なのかということです。これをサポートするいくつかのリンクは非常に役立ちます。
android - SLDataLocator_AndroidSimpleBufferQueue (Android 4.3) とは何ですか?
次の「2」は何を表していますか。
私が読んだことから、それはバッファの数です。
なぜ2?1だけではないのはなぜですか?そして、2 の方が優れているのであれば、なぜ 10 にしない方がよいのでしょうか?
ありがとう
java - Android OpenSL "pAudioSrc: データ形式 2 は許可されていません" - SL_DATAFORMAT_PCM を拒否しますか?
AudioPlayer
bufferqueue ソースと outputmix シンクでを作成しようとしています。ndk サンプルに示されているものと非常によく似た pcm 形式でソースを構成しましたが、OpenSL は拒否していSL_DATAFORMAT_PCM
ます (「データ形式 2」)。これは私には意味がありません。
エラーは次のとおりです(Samsung Galaxy S2の場合):
関連するコードは次のとおりです。
誰がこれを引き起こしているのか知っていますか? ありがとう!