問題タブ [openal]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - 特定の時間に 1 回だけバッファを再生できますか?
OpenALのドキュメントから:
基本的な OpenAL オブジェクトは、Listener、Source、および Buffer です。オーディオデータを含む多数のバッファが存在する可能性があります。各バッファは 1 つ以上のソースにアタッチできます
私の問題は、1 秒間に複数回同時に再生する必要がある 1 つのサウンド ファイルがあることです。音の長さは 2 秒です。それで重なります。
これには複数の満たされたバッファが必要ですか (= メモリ内で複数回聞こえる)?
1 つの Buffer を複数の Source に接続した場合、メモリ内の 1 つのコピーだけで、サウンドを 10 回再生し、それ自体をオーバーラップさせることができますか? それとも、メモリ内のそのサウンドの 10 個のコピーを処理する必要がありますか?
iphone - AppleのOpenALプログラミングガイドはありますか?
何も見つかりません。とにかくあるのでしょうか?
audio - オーディオ プログラミングのコンテキストでは、ピッチとスピードは同じものですか?
ピッチとは「知覚される周波数」を意味します。良い。しかし、OpenAL でピッチを非常に低くすると、サウンドが何倍も長く再生されます。非常に高くすると、音は非常に短く再生されますが、周波数が高くなります。私にとって、論理的には、遅くしたり速くしたりすることの結果です。
それともピッチ!=スピード?
iphone - OpenALのオーディオをiPodの音楽とブレンドするにはどうすればよいですか?
あまり馴染みのないオーディオエンジンを使用しています。これは、Appleのサンプルプロジェクト(SoundEngine.cpp)から派生したエンジンです。OpenALを使用して効果音や音楽を再生しますが、AVAudioSessionCategorySoloAmbient
またはkAudioSessionCategory_SoloAmbientSound
または他のカテゴリでオーディオセッションを初期化する場所はどこにもありません。
私がやりたいのは、ユーザーの音楽をバックグラウンドで再生し続けることですが、カテゴリを設定するための行を挿入できる場所がどこにもありません。
基本的に、初期化コードは次のとおりです。
3行目は、ユーザーの音楽がフェードアウトする場所です。ファイル全体のオーディオセッションを参照する場所すらありません。何か案は?
どうやら、あなたはできません。少なくとも、私がターゲットにしているOSバージョンではそうではありません。それ以降のOSバージョンについてはよくわかりません。
java - UnsupportedAudioFileException の回避策は?
私は、Java で小さな音楽/リズム ゲームを作成する非常に初期の段階にいます (OpenAL を使用する Slick フレームワークを使用しますが、ここではおそらく関係ありません)。ゲームは WAV 形式のいくつかのサウンド ファイルを読み取る (および再生する) 必要がありますが、一部のファイルは [javax.sound.sampled.UnsupportedAudioFileException] 例外をスローしています。
ファイルは Winamp または Foobar2000 で問題なく再生できるため、これは Java がファイル形式の一部のバリアントを認識しないことを意味します。この時点での選択肢は何ですか?
注:問題のファイルはユーザー提供であるため、事前に変換することはできません(大胆さなどを使用)。変換手順は実行時に行う必要があります。
c++ - OpenAL-最大ソースを決定します
基盤となるサウンドハードウェアで許可されるOpenAL「ソース」の最大数を定義できるAPIはありますか?
インターネットを検索して、2つの推奨事項を見つけました:
- エラーが発生するまで、OpenALソースを生成し続けます。ただし、FreeSL(OpenALラッパー)には、これは「非常に悪く、ライブラリをクラッシュさせる可能性さえある」という注記があります。
- 16個しかないと仮定します。なぜ誰もがもっと必要とするのでしょうか?(!)
2番目の推奨事項はFreeSLでも採用されています。
では、サポートされる同時「音声」の数を定義するための共通のAPIはありますか?
お時間をいただきありがとうございます、
明細書
iphone - AVAudioRecorder と AVAudioPlayer を使用すると OpenAL が機能しない
オーディオの問題で数日間悩んでいます。私は、OpenAL が AVAudio 機能とうまくいくとは思わない。
私は自分の OpenAL クラスを持っています。(MyOpenAL クラスをラップ) 私のアプリは、AVAudioRecorder を使用して録音を開始します。私は記録を停止します。次に、OpenALを使用して任意のサウンドを再生する「OpenAL Play」ボタンをクリックしました。聞こえない。AVAudioPlayerを使用して「AVAudioPlayer Play」ボタンをクリックすると、録音を聞くことができます。
oalTouch、avTouch、SpeakHear サンプル コードをテストしました。彼らは同じ結果になりました。oalTouch では、AVAudioPlayer が停止すると、OpenAL の再生も同時に停止します。これが私がそう思う理由です。
OpenAL は、AVAudio~ 関数を一緒に使用する際に問題がありますか?
私は長い間グーグルでした。しかし、解決策と同じ問題の問題を見つけることができませんでした。
私を読んでくれてありがとう。
audio - OpenALデバイス、バッファー、コンテキストの関係
OpenALをラップするオブジェクト指向モデルを作成しようとしていますが、デバイス、バッファー、コンテキストを理解するのに少し問題があります。
プログラマーガイドで確認できることから、複数のデバイスがあり、それぞれが複数のコンテキストと複数のバッファーを持つことができます。各コンテキストにはリスナーがあり、alListener*()
関数はすべてアクティブなコンテキストのリスナーで動作します。(リスナーを変更したい場合は、最初に別のコンテキストをアクティブにする必要があることを意味します。それが正しい場合)。これまでのところ、非常に優れています。しかし、私を苛立たせているのは、デバイスをalcCreateContext()
関数に渡す必要があるが、に渡す必要がないことalGenBuffers()
です。
それでは、これはどのように機能しますか?複数のデバイスを開くと、どのデバイスでバッファが作成されますか?バッファはすべてのデバイス間で共有されていますか?開いているすべてのデバイスを閉じると、バッファはどうなりますか?
(または私が見逃したものはありますか?)
audio - 初めてフィンチを使う。mp3、oggまたは他の形式(wavファイルを大きくする)を再生する方法は?
私の*.wavの仕事は期待通りです。しかし、wavファイルは大きすぎるので、*。mp3または* .oggを再生したいのですが、機能しません。
finchデモプロジェクトにあるこのコード行を使用します
そのため、sitar.wavを.mp3ファイル名に変更するだけです。
注1: mp3やoggであってはなりません。wavほど大きくないファイル形式でも問題ありませんが、どちらですか?
注2: サウンドの使い方がわからなかったので、stackoverflowでfinchを検索して見つけました。見た目は簡単なので、それを使用したいと思いますが、そのサウンドファイル(圧縮コーデックを使用したアンビエント+エフェクトサウンド)を再生する他の簡単な方法を知っている場合は、他の手法にも切り替えます。
c++ - C++ でのオーディオ録音
C ++でオーディオの録音/再生/シークを行うための優れたクロスプラットフォームユーティリティは何ですか? ALUT(OpenAL)のルートを考えていたのですが、何か良い方法はありませんか?そうでない場合は、ALUT の優れたチュートリアル/サンプル コードを知っていますか?