モバイルアプリ開発のプラットフォームとして Sencha 2.0 を使用する予定です。また、アプリで音声認識を使用する予定です。iOS および Android プラットフォーム間で適切に機能する音声認識 API はありますか?
1 に答える
私の知る限り、答えはノーです。
スマートフォンのほとんどの音声認識アプリは、サーバー上で音声処理を行います。Google は、Android 用 Speech Input API を介して組み込みの音声認識を提供しています。クライアント上のこの API は、ユーザーの音声を記録し、分析のために Google サーバーに送信して、認識されたテキストを返します。Google は、このサービスを Android アプリ向けに無料で提供しています。Google がChrome向けに提供している音声認識サービスをリバース エンジニアリングした人もいます。
現在、Apple の iOS には、同等の API が含まれていません。将来的には、サードパーティのアプリに Siri サーバーを活用するための API を公開することが期待されていますが、現在はそうではありません。そのため、iPhone 向けの音声対応アプリを構築するには、音声認識サービスを展開または契約する必要があります。Nuance、iSpeechなどは、モバイル アプリでの音声認識用の iOS SDK を提供しています。
StackOverflow の他のメンバーは、 PocketSphinxをクライアント ベースの音声認識エンジンとして使用することについて議論しましたが、私はその経験がありません。
Sencha や PhoneGap が音声認識用の共通 API を提供することは可能だと思いますが、iPhone 用の標準または無料の音声認識ソリューションがないため、これらのフレームワークがこの複雑な問題を解決できる可能性は低いと思われます。おそらく、Apple が SDK で Siri を公開すれば、クライアント フレームワークが iPhone と Android に共通のソリューションを提供する可能性があります。