問題タブ [openears]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - 強度が特定のデシベルに達した場合にのみ、音声入力からフレーズを認識します [iOS]
この質問が以前に対処されているかどうかを確認するために、このグループのトピックをよく閲覧しましたが、正確なものを見つけることができませんでした. したがって、これが古い帽子である場合は申し訳ありません。私の質問の初心者の性質も許してください。
強度が特定のデシベルに達した場合にのみ、iOS アプリに音声入力からフレーズを認識させるにはどうすればよいですか? 例: ユーザーが「こんにちは」と言うと、音声をキャプチャし、フレーズをチェックして、ユーザーが「こんにちは」と言ったのか、それとも何か他のことを言ったのかを確認する必要があります。おそらく、openearsがこれを解決するかもしれません。しかし、どうすれば声の強さを測定できますか? 音声入力は、「こんにちは」というフレーズが 110dB で発話された場合にのみ考慮する必要があります。そうでない場合は、無視する必要があります。これは Openears で実行できますか? あなたの提案で私を導いてください
ios - OpenEars + Rejecto による iOS キーワード スポッティング
キーワード スポッティング API を探していると、最も有望なのは OpenEars + Rejecto プラグインであることがわかりました。Up、Down、Left、Rightなどの非常に単純な辞書を認識する必要があります。こちらのサンプルプロジェクトを実行する手順に従いました.-
http://www.politepix.com/rejecto/
しかし、私が何を話しても、アプリは常に同じ単語を同じ順序で認識します。プロジェクトを構成する明らかな何かが欠けていると確信していますが、何がわからないのですか。サンプルのRejectoプロジェクトの実行に成功した人はいますか? または、キーワード スポッティング用のより良い SDK の方向性を教えてくれますか?
ios - iOS: OpenEers が機能しない
OpenEars 音声認識キットを使用しようとしていますが、iPhone 3GS では機能しません。チュートリアルで提供されているすべてのコード スニペットを書きましたが、話している間は何も起こりません。これが私のコードです:
ios - フレーズを検出する方法は?
私は自分のアプリで OpenEars 機能によるテキストへの音声を実装しています。また、Rejecto
プラグインを使用して認識を改善し、RapidEars
結果を高速化しています。目標は、フレーズと単一の単語を検出することです。たとえば、次のようになります。
ほとんどの場合、結果は問題ありませんが、別々の文字列オブジェクトからミックスされる場合があります。words
たとえば、配列 :を渡す@[@"ME AND YOU",@"YOU",@"ME"]
と、出力は : になります"YOU ME ME ME AND"
。フレーズの一部だけを認識させたくありません。アイデアはありますか?
ios - 高速認識のための非常に限られた辞書を備えた iOS アプリの音声制御
iOS アプリに基本的な音声コントロールを実装することを考えています。このアプリには、約 30 のエントリを含む辞書があり、各エントリは姓名です。ユーザーがアプリに話しかけると、アプリは 30 個までのリストから正しい名前を選択する必要があります。
よくわからないことが 1 つあります。名前のリストは、アプリの各ユーザーによって定義されます。したがって、すべてのユーザーは異なる名前のセットを持つことになります。
このレベルでカスタマイズ可能なオープン ソース ライブラリがあるかどうか疑問に思っていますか? 私の最大の懸念は、ユーザーに辞書を定義させることができないということです。
これをどのように行うことができるかについてのアイデアはありますか?
事前に感謝し、あいまいな質問を許してください:)
#### ### ### ###
更新: OpenEars ライブラリについては認識しています。限定されたユーザー定義の辞書を許可している場合、サイトで何も見つかりません。アプリの開発者がカスタム辞書を設定できることはわかりますが、アプリのエンド ユーザーがこれを実行できるかどうかはわかりません。助けてくれてありがとう!
ios - Open Ears API は、聞こえるすべての音は言葉であり、咳でさえもあると言います
アプリのごく一部に Open Ears を使用しようとしています。「聴ける」ようにしたいキーワードが 3 つまたは 4 つあります。「足し算」「引き算」などです。ここにあるサンプル アプリを使用しているだけです。 4 つのキーワードの 1 つではない単語ではなく、ここで「追加」などを行う場合に、アプリで特別なケースが必要です。現在、私は自分の言語を 4 つのキーワードのみに設定していますが、Open Ears API が何かを聞くたびに、4 つのキーワードから選択します。私が咳をすると、4 つの単語から最も近い単語を選択します。
常にキーワードの 1 つを選択せずに、特定の単語を聞くにはどうすればよいですか?
たくさんの単語、数百の単語があり、どの単語が話されているかを確認し、4 つのキーワードに特別なケースがあると考えていましたが、各単語を入力する必要はありません。Open ear にはデフォルトの言語が用意されていますか?
ios - [ハウツー]openears 複数のステートメント トゥ スピーチ
私はIO開発の初心者です。今、アプリで「テキスト読み上げ」機能を使用する必要があります。それを行うための OpenEars プラットフォームを見つけました。しかし、私のコードでは、1 つのクラスで 1 つのステートメントしか発話できません。Google で検索しましたが、OpenEars を使用して複数のステートメントを読み上げる方法が見つかりません。これが私のコードです:
oEEO は OpenEarsEventsObserver です
「Hello World Again」の言い方は?読んでくれてありがとう !
openears - Openears ios ライブラリ コールバックの utteranceID パラメータとは何ですか?
openears のコールバックは
仮説はテキスト自体であり、スコアは自己説明です。発話IDとは?
ありがとう!