問題タブ [aws-transcribe]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - python tscribeモジュール - KeyError:編集されたコンテンツのエクスポート中の「信頼」
python tscribe モジュールを使用して編集済みコンテンツを Word docx にエクスポートしようとしているときに、KeyError: 'confidence' に直面しています。
コードは次のとおりです。
amazon-web-services - Boto3 に LanguageCode がないと、Aws Transribe が start_transcription_job を実行できない
に音声ファイルがありますS3
。
音声ファイルの言語がわかりません。したがってIdentifyLanguage
、 forを使用する必要がありますstart_transcription_job()
。
LanguageCode
音声ファイルの言語がわからないため、空白になります。
環境
Python 3.8 ランタイム、boto3 バージョン1.16.5
、botocore バージョン:1.19.5
を使用、Lambda レイヤーなし。
Transcribe ジョブのコードは次のとおりです。
次に、次のエラーが表示されます。
このエラーは、LanguageCode
andIdentifyLanguage
が無効なパラメーターであることを指定する必要があることを意味します。
音声ファイルが S3 に存在することを 100% 確認します。しかし、それなしLanguageCode
では機能せず、IdentifyLanguage
パラメーターは不明なパラメーターです
このコマンドを使用してローカルでテストするために SAM アプリケーションを使用しています。
そしてcdk deploy
、Aws Lambda コンソールにもチェックインして、同じようにテストしましたevents.json
が、それでも同じエラーが発生します
これは Lambda 実行環境だと思います。Lambda レイヤーは使用しませんでした。
私は Aws Transcribe からこのドキュメントを見ます:
https://docs.aws.amazon.com/transcribe/latest/dg/API_StartTranscriptionJob.html
および次のドキュメントboto3
:
LanguageCode
は必須ではなくIdentifyLanguage
、有効なパラメーターであることを明確に示します。
それで、私は何を見逃していますか?これについて何か考えはありますか?私は何をすべきか?
アップデート:
私は検索を続け、カップルの人にオンラインで尋ねました.SAMがboto3をコンテナーにパッケージ化できるようにするには、関数コンテナーを最初に構築する必要があると思います。
だから私がやっていることは、cdk synth
テンプレートファイルです:
それで:
それでも、同じエラーが発生しますが、スタックトレースも投稿します
ここで何が間違っているのか本当にわかりません。ここで github の問題も報告しますが、問題を再現できないようです。
主な質問/問題:
できないstart_transription_job
それなし
LanguageCode
と
IdentifyLanguage=True
考えられる原因と、この問題を解決するにはどうすればよいですか (音声ファイルの言語がわからない、LanguageCode を指定せずに音声ファイルの言語を特定したい) ?
amazon-web-services - 音声ファイルを S3 バケットにストリーミングまたはロードする最良の方法 (コンタクト センターの録音)
音声ファイルを処理する S3 バケットにクライアントに音声ファイルを送信させるための信頼できる最良の方法は何ですか (音声からテキストへの洞察を行う ML プロセス)?
ファイルは .wav / mp3 などのオーディオ形式である可能性があります。また、ファイルによってはサイズが大きくなる場合があります。
最高のアイデアを得るのが好きですか?(例: API Gateway / Lambda / S3 ?) 以前にこれを行ったことがある人からの連絡をお待ちしています。
コンテキストを提供するためのいくつかの質問と回答:
ユーザーはどのようにシステムとやり取りしますか? API ベースのアプローチとブラウザー ベースのアプローチを探しています。ブラウザベースのアプローチを機能させることはできますが、それが適切な技術的/アーキテクチャ的/スケーラブルなアプローチであるかどうかはわかりません
一括アップロード方法が必要ですか? はい。一括アップロード機能が必要で、一部の個々のファイルも同様に大きくなる可能性があります
人間によって制御されますか、それとも何らかの方法で自動的にアップロードしたいですか? 確かに自動的に欲しい
最終的には、音声ファイルとメタデータを取得して分析を実行し、API を介して分析結果をアプリに戻す SaaS ソリューションを構築しています。したがって、私たちが探しているアプローチは、このコンテキスト内で機能するものです
amazon-web-services - Amazon Transcribe - 音声の前処理を使用する必要がありますか? それとも Amazon が行っていますか?
現在、Amazon Transcribe サービスを試していますが、Amazon Transcribe に送信する前に音声ファイルを前処理する必要があるかどうか疑問に思っています。ドキュメントには何も見つからなかったので、前処理は適用されていないと思います。
たとえば、ローパス フィルターとハイパス フィルターを適用して、声を強調し、不要なノイズをカットすることができます。私はこれをしなければならないのか、それとも Amazon がすでに私のためにこれを行っているのか疑問に思っています。
私はすでに少し実験しましたが、フィルターを適用しても実際の改善は見られませんでしたが、それは私のオーディオがすでに十分に優れていることを意味する可能性もあります...それを行うたびにお金がかかるので、大規模な実験を行うことはできません...
誰かがこのサービスでの経験を共有できればうれしいです.
java - AWS トランスクリプト: ファイルからテキストへの変換でナンセンスが返される
これはAWS Transcribe S3 .wav file to textへの後続の質問です。ストリームを使用して、.wav ファイルの内容を読み取り、AWS に送信します。
正しい書き起こしを返す代わりに、「うん」のようなナンセンスな言葉が返ってきます。ステートメント。AWS はバイト ストリームを正しく解釈できないようですが、何が問題なのかわかりません。ファイルを何らかの方法でエンコードする必要があるかどうか、つまり、ファイルから生の .wav バイトを直接送信できないかどうか疑問に思っています。それとも、これが .wav 形式であることをサービスに伝える必要があるのでしょうか?
ここで何が問題なのですか?入力ファイルは有効な .wav 音声ファイルで、聞くとはっきりと聞こえます。
ここに私のJavaコードがあります:
これが私のプログラム出力です: