1

私はinterim_resultsnode.jsで取得しようとしています

var params = {
audio: fs.createReadStream('./out.wav'),
content_type: 'audio/l16;rate=16000',
continuous: true,
interim_results: true,
word_confidence: true
};

でセッションを作成しspeech_to_text.createSession、関数を開始しようとしrecognizeます:

function recognize(params,session_id,cookie_session) {
setInterval(function(){ observe_results(session_id,cookie_session) }, 1000);
speech_to_text.recognize(params, function(err, transcript) {
    if (err) {
        console.log(err);
    }
    else {
        console.log("OK")
        console.log(JSON.stringify(transcript, null, 2));
        fs.writeFile('./transcript.txt', JSON.stringify(transcript), function(err) {if(err){return console.log('err')}});
    }
});}

しかし、私は最後の文字起こしのみを受け取り、interim_results. よろしくお願いいたします。

4

1 に答える 1

0

更新: 11/4 : v1.0 以降、watson-developer-cloudnpm モジュールは websockets をサポートします。

参照: node.js で blob を作成して websocket で使用するには?


元の回答:の代わりに
電話しています。recognizerecognizeLive

以下の例を参照してください。

var watson = require('watson-developer-cloud'),
  fs = require('fs');

var speechToText = watson.speech_to_text({
 password: '<password>',
 username: '<username>',
 version: 'v1'
});

var noop = function(){};

var observeResult = function(err, transcript) {
  if (err){
    console.log(err);
    return;
  }
  // print the transcript
  console.log(JSON.stringify(transcript, null, 2));
};

speechToText.createSession({}, function(err, session){
  if (err){
    console.log('error:', err);
    return;
  }

  var request = speechToText.recognizeLive({
    content_type: 'audio/l16;rate=44100',
    continuous: true,
    word_confidence: true,
    interim_results: true,
    session_id: session.session_id,
    cookie_session: session.cookie_session }, noop);

  // call observe result to get intermin results
  speechToText.observeResult({
    interim_results: true,
    session_id: session.session_id,
    cookie_session: session.cookie_session }, observeResult);

  // pipe the audio to the request
  // once the stream is consumed it will call request.end()
  fs.createReadStream('audio.wav').pipe(request);
});

と を交換usernameしてpassword、このオーディオを使用します。

今後の参考のためにglistを書きました。上記のオーディオを使用した場合の出力も含まれています。

于 2015-08-01T03:43:42.133 に答える