問題タブ [openears]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - Openears フレームワークを使用した音声認識?
Operears: iPhone (iOS デバイス) 用の音声認識 (Speech to text) フレームワーク。iPhone デバイスに openears デモ アプリをインストールしました。これはうまく機能しますが、GO、CHANGE、MODEL などの単語のリストに対してのみです。リアルタイムの音声認識のために、音声認識をより一般的なものにすることはできますか。つまり、いくつかの単語に限定されません。ジェネリックである必要があります。
オープンイヤーズ: http://www.politepix.com/openears/
iphone - エミュレータ用のOpenEarsの構築中にシンボルエラーが重複しました
私はiPhoneアプリケーションで作業しており、OpenEars Frameworkを使用して、iPhoneで音声からテキストへの変換を開発しました。最後にアプリケーションを実行すると、次のようなエラーが発生しました。
iphone - OpenEars に新しい言語を追加する
私は最近、OpenEars音声認識の勉強を始めましたが、素晴らしいです! しかし、ロシア語、フランス語、ドイツ語など、他の言語の音声認識とディクテーションもサポートする必要があります。さまざまな音響モデルと言語モデルが利用できることがわかりました。
しかし、私は本当に理解できません-アプリケーションに追加の言語サポートを統合するために必要なことは十分ですか?
質問は、たとえばロシア語を Open Ears にうまく統合するには、どのような手順を踏む必要がありますか?
私が理解している限り、Open Ears デモの英語のすべての音響モデルと言語モデルは、フォルダーhub4wsj_sc_8kにあります。同じファイルがvoxforge 言語アーカイブにあります。そのため、デモでそれらを置き換えました。1 つ違いがあります。英語のデモでは、sendump
2 MB の大きなファイルもありましたが、これは voxforge 言語のアーカイブにはありません。Open Ears のデモでは、他に 2 つのファイルが使用されています。
- OpenEars1.言語モデル
- OpenEars1.dic
これらは私が置き換えました:
- msu_ru_nsh.lm.dmp
- msu_ru_nsh.dic
.dmp は .languagemodel に似ているためです。しかし、アプリケーションはエラーなしでクラッシュしています。
私は何を間違っていますか?ありがとうございました。
iphone - OpenEarsEventObserverDelegate メソッドは呼び出されません
私はSDKを使用しているため、ネットワークがない場合に自分の声を認識する音声認識アプリケーションを作成していますOpenEars
。私はそれのサンプル コードを取得し、同様のサンプル コードのアプリを作成しましたが、私のコードではopenearsEventDelegate
メソッドが呼び出されません。私はプロトコルを採用し<openEarsEventObserverDelegate>
、私のviewDidLoad
方法で設定しopenEarseventObserver.delegate=self
ました。
何か不足している場合はご案内ください。ありがとうございました。
iphone - openears 辞書に単語を追加する方法とその言語モデルと .gram ファイル
iPhoneプログラミングで音声認識と合成にopen ear sdkを使用していますが、それは辞書と.gramファイルであり、言語モデルファイルには8つの標準単語しか含まれておらず、アプリでより多くの単語が必要です。.gram と .language モデルと .dic ファイルに新しい単語を追加すると、アプリがクラッシュします。
これらのファイルに 20 単語を追加する必要があるため、openears に新しい単語を追加する方法を教えてください。
iphone - 音声コントロールを使用して iPhone でアプリを起動するには
音声コントロールを使用してアプリを起動したい iPhone アプリから始めています。IPhone で単語を話すと、アプリが起動するはずです。OpenEars フレームワークを使用しています。
ありがとう
ios - iOS でのフランス語の音声認識
フランス語の音声認識を使用して iOS アプリを開発しようとしていますが、今まで成功していません。openEars フレームワークを使用してみました。これは英語ではうまく機能しましたが、フランス語はサポートしていません。このリンクからの情報を使用しました。
誰かが解決策を知っていれば、それは素晴らしいでしょう。
ありがとう
ios - OpenEars のピッチを動的に (オンザフライで) 変更する
OpenEars API を使用してテキストを読み取る iOS アプリがあります。最新バージョン (1.2.5) を使用しています。単語が読まれている間 (「オンザフライ」) にピッチを変更する方法がわかりません。ピッチを制御するスライダーを作成しました。スライダーが変更されると、デリゲートが起動されます。デリゲート関数では、FliteController target_mean が変更されます。目的は、target_mean 値が変更されるとすぐにピッチを変更することでした。私のコードは次のとおりです。
何か案は?
ios - iOS キーワード スポッティング
アプリで 6 語のキーワード スポッティングを実装したいと考えています。Openears をダウンロードしましたが、認識精度が非常に悪いです (テーブルをタップするだけで、定義済みの 6 つの単語のいずれかが返されます)。OpenEars に代わるオープンソースの代替手段や、OpenEars の精度を高める方法はありますか? (私が使用している6つの単語は英語です)