個人プロジェクトのアプリに音声認識を追加する必要があります。
iOS 組み込みの音声認識フレームワークが必要です。高速で正確であり、連絡先の名前やその他の自分に関する情報も認識できるからです。
これまでのところ、iOS 8 での音声認識用のヘッダーを含むフレームワークを見つけたと思います: SAObjects.framework Github のヘッダーを取得し、Xcode プロジェクトに正常に追加しました。これまでに試したヘッダーは次のとおりです。
<SAObjects/SASRecognition.h>
<SAObjects/SASStartSpeechDictation.h>
<SAObjects/SASSpeechRecognized.h>
しかし、私は彼らと一緒に働く方法がわかりません。たとえば、これらは音声認識を起動できる 2 つの方法です。
SASStartSpeechDictation *object1 = [SASStartSpeechDictation startSpeechDictation];
SASSpeechRecognized *object2 = [SASSpeechRecognized speechRecognized];
ただし、デバッグすると、これらのオブジェクトのいずれにも文字列が見つかりません。したがって、明らかに何かが間違っています。たぶん、通知オブザーバーを設定する必要がありますか?
もう 1 つの解決策は、ディクテーションを (キーボードを使用して) 非表示のテキスト フィールド (キーボードを表示せずに) に開始することです。慣れている場合は、ジェイルブレイクされたデバイスのアクティベーター アクションと同様です。しかし、キーボードのディクテーションを開始できるメソッドや、それを見つけるためのアクティベーター アクションのソース コードは見つかりませんでした。
多分誰かがこれらのことを実験して、私に助けを与えることができますか?
この質問についてさらに情報が必要な場合は教えてください:)
どうもありがとう!