Siriなどのソフトウェアは、音声コマンドを受け取り、それらの質問に適切に応答します(98%)。音声信号の入力ストリームを取得し、それらの質問に答えるためのソフトウェアを作成するときに、
入力を人間が読める言語に変換する必要がありますか?英語など?
自然界と同じように、私たちは非常に多くの異なる言語を持っていますが、私たちが話すとき、私たちは基本的に異なる音を立てます。それでおしまい。ただし、これらのノイズの変動を示すために、いわゆるアルファベットを作成しました。
それで、もう一度私の質問は、音声認識アルゴリズムを書くとき、それらのノイズ変動信号をデータベースと照合しますか、それとも最初にそれらのノイズ変動を英語に変換し、次にデータベースから何に答えるかを確認しますか?