問題タブ [accelerate-framework]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
objective-c - LAPACKを使用してAx=Bを解きます。ここで、x> = 0
私は現在、水への化学物質の添加を処理するiOSアプリに取り組んでいます。可能な限り最小の追加を見つけるために、Ax = Bを解いています。ここで、Aは6x6の行列で、Bは1つの列です。私が読んでいる限り、AccelerateFrameworkのLAPACKはこれを処理するための最良の方法です。DGESV_を使用して小さな追加で機能させることができましたが、大きな追加ではxに負の値がいくつかあります。負の量の化学物質を追加することはできないため、これは問題です。
だから私が知る必要があるのは、Ax = Bの最小解を見つけることを可能にする関数がLAPACKにあるかどうかです。ここで、xは常に0以上です。そうでない場合は、(自分で数学を行う以外に)別の解決策はありますか?
ありがとうございました
objective-c - novacaine で VBR オーディオを読み取る方法 (PCM ではなく)
novacaineの作成者は、オーディオ データがファイルから読み取られ、リング バッファーに供給されるサンプル コードを提供しました。ただし、ファイル リーダーが作成されると、出力は強制的に PCM になります。
私は許可することでノバカイン プロジェクトに貢献しようとしています。
- iPod ライブラリから読み取ります (オーディオ ファイル サービス ライブラリではなく、AVAssetReader 経由でのみアクセスできます)。
- PCM ではなく VBR パケットを読み書きします。
したがって、これは上記の同等の機能がどのように見えるかです(注:部品を参照)
コードを見ると、すべてが float で作成されているようです (オーディオ バッファ、出力形式など)。これには理由がありますか? (iOS オーディオの標準形式は、float ではなくSInt16 であることに注意してください)。たとえば、Novocaine::renderCallback 関数を参照してください。
このライブラリを VBR データの読み書きに対応させるために変更しなければならないことのリストは何ですか?
あ
ios - iOS基本画像処理抽出赤チャンネル
単純に、画像から色成分を抽出する必要があります。通常、Matlab では、赤の最初のマトリックスを選択して行われます。
ドキュメントが参照ベースであるアクセラレータフレームワークの領域では、グラフィックスコンテキストに解決せずにこれを行う簡単な方法を見つけることができません。
前もって感謝します!!
ios - 録音された音から既知のオーディオを除去し、デコンボリューションによって背景音のレベルを推定します
私は2つの信号を持っています。1つはスピーカーで再生されるオーディオデータを含んでいます。2 つ目は、スピーカーを同時に録音するマイク データが含まれています。
これまでに行ったこと: 相関を介して時間領域で信号を整列させます。デコンボリューションを達成するために、両方の信号の重複部分に fft を適用し、一方を他方で分割します。
結果のオーディオデータが役に立たないので、私は何を間違っていますか。
ここに私のコードがあります:
少し明確にするために編集します:@Sammio2のおかげで、デコンボリューションが私の問題を非常によく説明していることを知っています:
f*g=h
h は私の記録された信号で、
f、回復したい私の信号と
g、再生信号がさらに録音されたことはわかっていますが、スピーカーからマイクへの往復によって変更された可能性が最も高いです
gに加えて録音されたすべての音であるfを回復する方法が必要です。
重要: 最終的には、f の明確な信号は必要ありません。ラウドネスまたは存在レベルに関する情報だけが必要です。基本的に、記録された往復信号以外のノイズ レベル g.
必要な騒音レベルの情報を収集するにはどうすればよいですか?
これが私の問題を理解するのに役立つことを願っています。これまでありがとう!
ios - vDSP_convを使用してMATLABのxcorr関数を模倣する方法は?
私は現在、iOSアプリケーションで使用するためにMATLABアルゴリズムをCに変換しているところです。
私はMATLABのxcorr関数に苦労してきました。関連するMATLABコードは次のとおりです。
これは、MATLABのドキュメントによると
ラグ範囲[-maxlags:maxlags]にわたる相互相関シーケンスを返します。出力cの長さは2*maxlags+1です。
Apple Accelerate.Frameworkは、という名前の畳み込み/相関関数を提供しますvDSP_conv
が、と同じ出力を生成する方法でそれを使用する方法がわかりませんxcorr
。これは可能ですか?はいの場合、誰かが私を助けることができます。
よろしくお願いします、
アカシオ
iphone - vDSP 関数がネオンでスカラーまたは SIMD を実行するかどうかを確認する方法
現在、vDSP フレームワークのいくつかの関数、特に vDSP_conv を使用しています。関数がスカラー モードを呼び出しているかどうか、またはネオン プロセッサで SIMD が処理されているかどうかを確認する方法があるかどうか疑問に思っています。
関数のドキュメントには、満たす必要がある power-pc-architecture の基準がいくつか記載されています。そうしないと、スカラー モードが呼び出されます。これらの基準が iPhone にも適用されるかどうかも、関数がスカラー モードを呼び出すか、ネオンで適切に実行されるかを確認する方法もわかりません。
これを確認する方法はありますか?
ありがとう!
c++ - i686-apple-darwin11-llvm-g++-4.2 で Accelerate フレームワークを含めるには?
小さな C++ プログラムでAccelerate フレームワークを使用しようとしています。XCode も使用していません。単純な Makefile のみを使用しています。
次の行をコードに追加すると、コンパイラが文句を言います。
エラーは次のとおりです。
私が使用しているコンパイラはi686-apple-darwin11-llvm-g++-4.2で、これは gcc 4.2.1 であり、コンパイルに使用する (リンクしない) 行は次のとおりです。
これをコンパイルするときに追加のフラグを追加する必要がありますか? 「-framework Accelerate」を追加してみましたが、これはリンケージ プロセスにのみ含める必要があるため、何も変わりません (そうですか?)。
これらのエラー メッセージのいくつかをグーグル検索しましたが、何も見つかりませんでした。
助けていただければ幸いです。ありがとうございました!
PS: 私の OS X のバージョンは Lion 10.7.5 で、XCode は 4.4.1 です。
c++ - プロファイリングのタイミングが不安定
Accelerate Mac OS X フレームワークから cblas_dgemm 関数を何度も繰り返して、平均 MFLOPS/S レートを取得しようとしています。これは私が使用しているコードです (関数ポインター afp を介して cblas_dgemm を呼び出します):
タイマー ルーチンは次のとおりです。
コードは通常、2 つの 1000x1000 行列の乗算を実行します。私の問題は、このコードの連続したタイミングが非常に信頼できないことです。外側のループのタイミング制限を 5 秒に増やしても、最終的な速度は 20000 ~ 30000 mflops/s の間で変動します。私は、OS X 10.8.2 を搭載した 2011 Macbook Pro を使用しています。クアッド コア i5 と、このカーネル拡張機能を使用してハイパースレッディングをオフにし、ベンチマーク時にターミナル以外のアプリケーションを実行していません。より安定したタイミングを得る方法について何か提案はありますか?
iphone - フレームワークiOSの高速化-FFT入力
こんにちは私はwavファイルのスペクトルグラフを描画する必要があります。私はを使用しており、wavファイルを使用してAudioFileGetProperty
を取得することができますAudioData
この他の質問から。
フレームワークを加速するためにFFTを使用します。頻度の取得方法を教えてください。FFTの入力がどうあるべきかわかりません。私は現在SInt16
オーディオデータを持っています。
ios - AVCaptureAudioDataOutput データを vDSP / Accelerate.framework に渡す
マイク データで FFT を実行するアプリケーションを作成しようとしています。たとえば、入力で最も大きな周波数を調べることができます。
オーディオ入力を取得する方法はたくさんあります (RemoteIO AudioUnit、AudioQueue サービス、および AVFoundation) が、AVFoundation が最も単純なようです。私はこのセットアップを持っています:
(さらにエラーチェック、読みやすくするためにここでは省略)。
次に、次のAVCaptureAudioDataOutputSampleBufferDelegateメソッドを実装します。
次のステップがどうあるべきかわかりません。フォーマットは正確に何CMSampleBuffer
を記述していますか (また、もしあれば、それについてどのような仮定を立てることができますか)? vDSP_fft_zrip
追加の前処理を最小限に抑えて生のオーディオ データを取得するにはどうすればよいですか? (また、私が見た生データが正しいことを確認するために何をすることをお勧めしますか?)