0

Node.js クライアント ライブラリを使用してオーディオ ストリームで音声認識を実行するために、 Google の例と非常によく似たコードを使用しています。

API は音声を正しく解析していますが、応答を受け取るまで 30 ~ 45 秒待っています。デモがどれほどきびきびしているのかを考えると、これは正しくないようです。私の側で間違って設定しているものはありますか?

代わりにローカル ファイルに書き込んでみましたが、音声がはっきりと聞こえ、録音に問題がないようです。

あなたが与えることができるどんな助けにも感謝します!

import record from 'node-record-lpcm16';
import Speech from '@google-cloud/speech';


function streamToParser(){
  const speech = Speech();
  const request = {
    config: {
      encoding: 'LINEAR16',
      sampleRateHertz: 16000,
      languageCode: 'en-US',
    },
    interimResults: true,
  };

  const recognizeStream = speech.createRecognizeStream(request)
  .on('error', console.error)
  .on('data', (data) => {
    console.log(data.results)
  });

  record
  .start({
    sampleRate: 16000,
    threshold: .6,
    verbose: true,
    silence: '5.0'
  })
  .on('error', console.error)
  .pipe(recognizeStream)

  console.log('Google is listening...')
};



streamToParser();
4

1 に答える 1

1

それを理解しました-私はSpeech認証資格情報で構成していなかったので、私のリクエストは優先順位が付けられていなかったに違いありません. ここの指示に従って、それを修正した構成は次のとおりです。

const speech = Speech({
    projectId: 'my project ID from the Google Cloud dev console',
    keyFilename: 'path/to/keyfile.json', // that I generated/downloaded from the Google Cloud dev console
});

キーファイルを作成するには、「自分のサーバー上」セクションで概説されているjson手順に従います。

于 2017-06-11T23:25:12.430 に答える