Linuxに音声認識ライブラリが必要です。次に、CMU Sphinxを選択し、PythonでpocketSphinxを使用します。そのデモをテストします。この例は、私のコンピューターでは精度が低く、うまく機能します。
言語モデルが必要なことはわかっていて、ダウンロードしました。だから、私のpocketSphinxを設定する方法はその「lm」を使用します。つまり、その言語モデルを使用するようにそのデモファイルを修正する方法です。(および音響モデル。)
Linuxに音声認識ライブラリが必要です。次に、CMU Sphinxを選択し、PythonでpocketSphinxを使用します。そのデモをテストします。この例は、私のコンピューターでは精度が低く、うまく機能します。
言語モデルが必要なことはわかっていて、ダウンロードしました。だから、私のpocketSphinxを設定する方法はその「lm」を使用します。つまり、その言語モデルを使用するようにそのデモファイルを修正する方法です。(および音響モデル。)
言語モデルは、pocketsphinxgstreamerコンポーネントのプロパティを介して構成されます。それ以外の
gst.parse_launch('gconfaudiosrc ! audioconvert ! audioresample '
+ '! vader name=vad auto-threshold=true '
+ '! pocketsphinx name=asr ! fakesink')
使用する
gst.parse_launch('gconfaudiosrc ! audioconvert ! audioresample '
+ '! vader name=vad auto-threshold=true '
+ '! pocketsphinx lm=<your_file.lm> name=asr ! fakesink')
たとえば、pocketsphinxコンポーネントの他のプロパティを構成することもできます。gst-inspectを使用してリストを読み取ります。