問題タブ [openears]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 微調整で OpenEars を使用するにはどうすればよいですか?
調整のために音声認識が必要なため、私が作成しているtheosプロジェクトにOpenEarsを含めようとしています.脱獄したiDeviceの調整です。OpenEars フレームワークをプライベート フレームワークと同じフォルダーに配置することでリンクできました。現在、チュートリアル コードを機能させようとしています。これが私の現在のコードです:
これは正常にコンパイルされますが、実行すると次のエラー メッセージが表示され、デバイスがクラッシュします。リスニング ループが始まると、必要なリソースが不足しているため、クラッシュします。音響モデル バンドルを見つける際の問題は、このメソッドが使用できる方法でバンドルの名前がこのメソッドに与えられていないことが原因である可能性があります。たとえば、英語の音響モデルを使用し、そのバンドルをアプリ プロジェクトに追加した場合、このメソッドを呼び出すには、[AcousticModel pathToAcousticModel:@"AcousticModelEnglish"]
(または[AcousticModel pathToAcousticModel:@"AcousticModelSpanish"]
スペイン語のバンドルの場合)、最後に「.bundle」を追加せず、バンドル名が実際のバンドル名に表示されるとおりに綴られていることを確認します (バンドルは、このディストリビューションのフォルダー「Framework」で確認できます。
これで問題が解決しない場合は、音響モデル バンドルがアプリ プロジェクトのルート レベルとその mainBundle に正常にインポートされなかったことが原因である可能性が非常に高くなります。これは通常、「Framework」フォルダーが最初にドラッグされるはずだったときに、音響モデル バンドルがアプリ プロジェクトにドラッグされなかったか、ドラッグされたものの、「追加されたフォルダーのグループを作成する」設定を使用する代わりに発生したためです。 Xcode の [ファイルの追加] ダイアログで、[追加されたフォルダーのフォルダー参照を作成する] オプションが意図せず選択されました。これを修正するには、アプリから音響モデル バンドルまたは「フレームワーク」フォルダーを削除し、「追加されたフォルダーのグループを作成する」の正しい設定でアプリ プロジェクトに再度追加します。
syslog にも次のメッセージが表示されます。
これを機能させるための助けは大歓迎です。ありがとう!
ios - OpenEars の静的言語モデルと動的言語モデルに違いはありますか?
OpenEars を使用してゲームを作成しようとしています。動的言語モデル方式を使用しています。しかし、パフォーマンスは基準に達していません。認知度は非常に低いです。静的言語モデルを使用する利点はありますか?? 音声認識を改善する他の方法???
ios - 複数の言語をサポートする iOS アプリで Openears を使用する最良の方法は何ですか?
「音声からテキストへ」のアプリを開発しています。これには openears を使用しています。私はその言語モデルと dic ファイルを認識しています。
しかし、語彙全体の言語モデルを作成するのは良い考えですか? (英語の言語モデルのサイズは 125 MB)
多くの言語で「音声からテキストへ」を実装するにはどうすればよいですか。言語ごとに言語モデルを作成する必要がありますか? アプリに 10 個の言語モデルをインポートする場合、ビルド サイズはどうなりますか?
前もって感謝します。
ios - フランスのアコースティックモデルを使ってみる
OpenEars でフレンチ アコースティック モデルを使用しようとしています。Ramshadの答えは非常に興味深いものです。しかし、フランスの音響モデルをダウンロードしたのですが、使い方がわかりません...
これらのファイルでバンドルを作成し、プロジェクトに追加して、generateLanguageModelFromArray メソッドを呼び出します。しかし、生成された .dic ファイルを開くと、ふりがなが間違っているようです。話しかけようとしても、何も認識しません。
ログは次のとおりです。
誰かが私にもう少しよく説明してもらえますか?
ありがとう
ios - BlueTooth ヘッドセットを iOS および OpenEars のオーディオ録音キャプチャとして使用できない
基本的な音声認識を行う iOS アプリを構築しています。基本的に、このアプリは iOS デバイスに向かって話した単語の数をカウントします。このアプリは、iPhone に組み込まれている標準のマイクに向かって話すときにうまく機能します。ただし、ワイヤレス Bluetooth オーディオ デバイスを接続する場合、その Bluetooth デバイスを音声オーディオの録音方法として使用することはできません。以下のソフトウェアとデバイスを使用しています。
- 音声認識用の OpeanEars ライブラリを使用して iOS7.0/7.1 用に構築
- ZOMM ワイヤレス リーシュ ( http://www.zomm.com/ | http://www.amazon.com/ZOMM-Wireless-Bluetooth-Speakerphone-Black/dp/B003N3J6BU/ref=sr_1_1?ie= UTF8&qid=1409515088&sr=8-1 )
- 同じ動作をする他の Bluetooth デバイスを試しました (Bluedio 66i および Bluedio DF200)
- デフォルトのボイスメモアプリでオーディオをキャプチャできません
- 私たちが知る限り、これは単に標準の BlueTooth プロトコルを使用しているだけであり、Bluetooth デバイスがペアリングされると、録音/オーディオ キャプチャ用のデバイスとして自動的に受け入れられるはずです。
OpenEars によると、Bluetooth オーディオ デバイスは自動的にピックアップされるはずです ( http://www.politepix.com/forums/topic/enabling-bluetooth-support/ )。これを仮定するのは正しいですか?
VoiceMemo アプリ (iOS に同梱されている音声録音アプリ) を使用して、「制御」実験として Bluetooth デバイスをテストしました。
- ZOMM と iOS デバイスをペアリングする
- ボイスメモを開く
- VoiceMemo アプリ内から入力デバイスとして ZOMM を選択します
- 録音開始
- 録音を停止します - オーディオはキャプチャされませんでした
残念ながら、これは、私たちのアプリも標準の音声録音アプリも、オーディオを録音する手段として Bluetooth デバイスを使用できないことを意味します。いずれにせよ、単にデバイスが問題であると判断するのは困難です。
これが単なるハードウェアの問題なのか (iOS への音声録音をサポートする BT 対応のデバイスが必要なのか)、それともアプリがデバイスを記録可能。
また、ZOMM ヘッドセットの詳細:
ZOMM 仕様: Bluetooth ワイヤレス互換性: この ZOMM デバイスは、次の Bluetooth ワイヤレス プロトコルとプロファイルをサポートしています。ヘッドセットの役割 Bluetooth ワイヤレス相互運用性: この ZOMM デバイスは、次のような互換性のあるプロファイルと役割をサポートするすべての Bluetooth ワイヤレス製品と相互運用できるように設計されています。マスターとスレーブの役割 Bluetooth ハンズフリー プロファイル (HFP) v1.5 以前のヘッドセット (HS) の役割 Bluetooth ヘッドセット プロファイル (HS) v1.2 以前のヘッドセット (HS) の役割
この問題を解決し、iOS7.1 で OpenEars ライブラリと一緒に Bluetooth を使用するにはどうすればよいでしょうか?
ありがとう!フィリップ
ios - アプリで iOS 音声認識にアクセスする
現在、私は開いた耳を使用してフレーズを検出していますが、英語のすべての単語を認識してテキストフィールドに追加したいと思っていますが、かなりうまく機能しています。そのため、これにアプローチする方法について2つの考えがありました。
1) どうにかして英語辞書全体を OpenEars にロードします。(私はそれが良い考えだとは思わない。
2) キーボードを展開せずにネイティブの iOS 音声認識を有効にします。
iOS 8 のライブ認識が大好きなので、可能であれば 2 番目の方法に傾いています。これは問題なく動作します。
2 つの方法のいずれかを使用してすべての単語を認識するにはどうすればよいですか (または、知っている場合はより良い方法)?
ありがとうございました
javascript - Cordova/Phonegap OpenEars 音声認識
このプラグインhttps://github.com/karljacuncha/OpenEarsPluginを使用して、OpenEars プラグインを phonegap/cordova に含めようとしています。
私はReadmeに従いましたが、ファイルが見つからないというエラーが発生しました.これらのファイルはすべて見つかりません:(
ライブラリを統合する方法に関するヘルプ/提案はありますか?
アドバイスありがとうございます!
xcode - Xamarin OpenEars Native Binding デバイスでは機能しないが、シミュレーターでは機能する
xamarin iOS Binding プロジェクトで OpenEars v2.03 iOS フレームワーク プロジェクトの使用に取り組んでいます。私がこれまでに行ったことを説明させてください.XCode、Xamarin、およびこれらすべてのバインディングのことは初めてです。これは大きな問題になるので、息を止めてください…</p>
1) Xcode for Simulator で OpenEars フレームワーク プロジェクトをビルドします。Framework/OpenEars.framework/Versions/Current/から「OpenEars」ファイルをコピーし、名前を「<strong>libOpenEars-i386.a」に変更しました</p>
同様に、デバイスを Mac に接続し、ターゲットを iPhone に選択して、iPhone 4s デバイス用の同じライブラリを構築します。最後に、生成された OpenEars をコピーし、名前を「<strong>libOpenEars-armv7.a」</p> に変更しました。
2) lipoコマンドを使用して、以下のコマンドを使用して、2 つのファイル (libOpenEars-i386.a、libOpenEars-armv7.a) を 1 つのファイル「libOpenEars.a」にバンドルしました。
3) Xamarin Studio で Binding プロジェクトを作成し、libOpenEars.a を追加すると、自動的にlibOpenEars.linkwith.csが生成されます。以下は、次のコードです。
liker フラグ LinkerFlags = "-lstdc++ -lc++ -ObjC" および SmartLink=false を変更してみました。
4) 私の ApiDefinition ファイルには、OpenEars のすべてのインターフェイスが含まれています。ここでは、インターフェイスを 1 つだけ追加しました。
5) OpenEars.dll を iOS サンプル プロジェクトに参照しました。
6) バインディング ライブラリ自体に言語モデルと音響モデルを追加します。(動的な言語モデルの生成には必要ありませんが、このOpenEars Xamarin gitの古い OpenEars サンプル プロジェクトを使用しました。新しい DynamicLanguageModel ジェネレーターは使用しませんでしたが、最新の変更に合わせて例を変更しました)。
ビューコントローラー:
<strong>OpenEarsEventsObserverDelegate:
これは iOS シミュレーターでは完全に機能しますが、実際のデバイスでは実行されません。
デバイスで実行中にこのエラー メッセージが表示されました。すべてのインターフェイスで同じメッセージが表示されます。
デバイスのバインドに関連する何かが不足していますか?
make ファイルも使用して同じ .dll をビルドしようとしましたが、同じエラー メッセージが表示されました。
OpenEars フレームワークを構築する場合:
OpenEars.dll を生成するための MAKE ファイル
ここで完全な mtouchエラー ログを確認してください
$nm -arch armv7 libOpenEars.a を確認してください
OEEvent がシミュレーターに存在することを確認しました (i386)
出力
armv7にOEEventが存在することを確認しました
出力
何が欠けているのかわかりません。はい、文法の間違いがたくさんあります。これを読んでくれてありがとう。