問題タブ [sox]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
audio - sox.exe-モノラルボーカルとステレオミュージックのミキシング
シーケンス、ミックス、マージ、乗算など、sox.exeのすべての結合方法を試しました。
モノラルボーカルトラックをステレオミュージックトラックとミックスして、モノラルトラックをミックスの中央に配置することができません。
オーディオファイルをミックスダウン/バウンスで同時に再生する方法のいずれかを使用すると、モノラルトラックが左チャンネルにスラップされます。私はそれをミックスにうまく配置したいのですが、それを機能させる方法がわかりません。
どんな助けでも大歓迎です。これはバッチスクリプトで使用されており、ユーザーの介入なしにその場で物事を指定するだけで機能するコマンドである必要があります。2つ以上のファイルがすべて一緒に再生され、ステレオとモノラルをそのまま維持し、1つのファイルを出力します。
mp3 - sox mp3 から wav へ。出力wavファイルが空です
soxを使用してmp3ファイルをwavファイルに変換しようとしています。ただし、出力ファイルは常に空です。
次のページにあるコマンドを試しました。
http://stefaanlippens.net/audio_conversion_cheat_sheet http://www.thegeekstuff.com/2009/05/sound-exchange-sox-15-examples-to-manipulate-audio-files/
出力ファイルが空なのはなぜですか? 他のオプションを見逃しましたか?
ありがとう
java - Play 2 フレームワーク アプリのバックエンド サーバー
ユーザーがファイルをアップロードして処理できる Web アプリケーションを計画しています。アプリケーションの詳細は私の質問には関係ありませんが、アプリケーションが mp3 オーディオ ファイルを処理すると仮定しましょう。アプリケーションをフロントエンドとバックエンドの 2 つの部分に分割します。
フロントエンド アプリケーションは、HTML ページをユーザーに提供する通常の Web アプリケーションです。通常、ユーザーは自分のファイルをアップロードし、html フォームに記入して、ファイルに対して実行したい操作を指定します。ファイルは最初に Amazon S3 などのストレージ施設にアップロードされ、後でバックエンド サーバーによって処理されます。私は Play 2.0.4 フレームワークを使用してフロントエンド アプリケーションを開発していますが、これは非常にうまくいっています。私はなんとかユーザー認証を実装し、ほとんどの UI を作成し、S3 へのファイルアップロードも実装しました。アプリケーションは現在、問題なく Heroku にデプロイされています。
私のバックエンド サーバーでは、もう一度 Play 2 フレームワークを使用することを検討しています。バックエンド サーバーは、フロントエンド サーバーから新しいジョブの作成に関する通知 (http 要求) を受け取ります。ジョブ仕様には、ストレージ内の元のユーザー ファイルへのリンクと、ジョブを説明する引数が含まれます。ジョブをキューに追加する必要があります。ここで最も重要な部分は、実際の処理ジョブをサードパーティ プログラムに委任することです。これは、SoXなどのコンパイル済みコマンド ライン ユーティリティであることが最も確実です。オーディオ処理の場合は、善良な人々が自分の選んだプログラミング言語を使用して作成します。私が知る限り、Java から外部プログラムを呼び出し、コマンド ライン引数を渡して結果を収集することが可能です。処理が完了すると、バックエンド サーバーは処理されたファイルをストレージにアップロードし、通知 (http 要求) をフロントエンド アプリケーションに送信します。フロントエンド アプリケーションは、処理されたファイルへのリンクを保存し、後でそれをユーザーに表示します。時間。コマンド ライン ユーティリティを使用できるようにするために、Typesafe スタック インストールを使用してバックエンド アプリケーションを Amazon EC2 インスタンスにデプロイします。
この基本計画に関する質問は次のとおりです。
- Play 2 はバックエンドの合理的な選択ですか、それとも別の方法を検討する必要がありますか? それらの 1 つが CGI であると思われます。ウィキペディアによると、これは「Web サーバー ソフトウェアが Web コンテンツの生成を実行可能ファイルに委任するための標準的な方法です」。残念ながら、私はその経験がありません。
- Play でジョブ キューを実装しても問題はないのでしょうか?
- コマンド ライン ユーティリティを EC2 にインストールして Play から呼び出すことはできますか?
- Typesafe スタックを EC2 にインストールする際に問題が発生することは予想できますか? この投稿では、私が何をしようとしているのかを簡単に説明しています https://www.assembla.com/spaces/bufferine/wiki/Typesafe_stack_on_Amazon_EC2
- 将来的にアプリケーションが成長すると仮定すると、EC2 上の複数のインスタンス間でジョブをどのように分割できますか? フロントエンドとバックエンドの間に別のジョブ バランシング アプリケーションを作成する必要がありますか?
アドバイスをいただければ幸いです。ありがとう!
注: 私は Scala 言語に慣れていないため、Play 2 フレームワークには Java API を使用しています。
ffmpeg - サンプル数を変更せずに、MOV または WAV の wav、aiff、または mov オーディオ サンプル レートを変更する
オーディオを高速化するための非常に正確な方法が必要です。私は、デジタル シネマ パッケージを作成するためのオープンソース ツールである OpenDCP 用の映画を、劇場で上映するために準備しています。私のソース ファイルは通常、23.976fps で 48.000kHz オーディオの QuickTime MOV ファイルです。オーディオが別の 48.000kHz WAV になっていることがあります。(FWIW、ソースのビデオ フレーム レートは、実際には 24/100.1 フレーム/秒であり、これは 10 進数の繰り返しです。)
DCP 規格は 24.000fps および 48.000kHz のプログラムに基づいているため、ソースのオーディオとビデオを高速化する必要があります。画像処理ワークフローには、本質的に MOV を TIF シーケンス (フレームごとのフレーム) に変換することが含まれます。これは 24.000 fps であると想定されるため、QT ビデオ メディア ハンドラーの内部に関与する必要はありません。
しかし、それに合わせてオーディオを高速化するのは難しいことがわかっています。ほとんどのオーディオ プログラムは、リタイミングされたイメージ フレームに合わせてオーディオ サンプルの数を取得できません。Audacity の速度が 0.1% 増加すると、サンプル数が正しくなくなります。私が見つけた唯一の方法は、Apple Cinema Tools を使用して 23.976fps/48.000kHz MOV を 24.000fps/48.048kHz に適合させ (これは Quicktime ヘッダーを変更することによって行います)、次に Quicktime Player を使用してオーディオをエクスポートすることです。そのファイルを 48.000kHz でリサンプリングします。これは正確なフレームです。
私の質問は次のとおりです。ffmpegまたはsoxに、MOVまたはWAVまたはAIFFのオーディオを正確に高速化する設定はありますか? クロス プラットフォーム ソリューションが欲しいので、MacOS だけの Cinema Tools に依存していません。
私はこれがたくさんの背景であることを知っています。明確な質問をお気軽に!
ruby - SoX − Sound eXchange は heroku で動作しますか?
heroku でテスト アプリをホストする必要があります。SoXを使用してファイルを分割し、分割ファイルを保存します(一時的にのみ)。
この状況でrubys Dir.mktmpdirを使用することはできますか?
または、#{RAILS_ROOT}/tmp/myfile_#{Process.pid}を使用する必要がありますか?
そして、これは SoX で機能しますか?
どんな助けでも本当に感謝しています
sox - sox: A-law から PCM
A-law Wave ファイルを PCM に変換するにはどうすればよいですか? sox ですでにいくつかのオプションを試しましたが、出力は常に A-law のままです。参考までに、変換しようとしているファイルの完全な仕様を次に示します。
前もって感謝します、
ヨリス
ffmpeg - .wav ファイルで pocketphinx_continuous を使用する
ユーザーがリモート システムから小さなコマンド セットを読み上げ、それらをサーバー上で実行できるようにするアプリケーションを作成しようとしています。pocketphinx を使用して音声テキストを解析します。マイクを使用してローカルで実行すると、単語をどのようにスラーしても、 pocketphinx_continuous は完全に機能します。しかし、オーディオ ファイルをインポートし、ffmpeg を使用してオーディオを単一チャンネルの 16 ビット PCM ファイルにダウンサンプリングすると、問題なく最初の単語が解析されます。次に、他のすべてをスキップして、として扱います。問題はファイル形式にあり、ポケットフィンクスの構成にあると確信しています。
ffmpeg -y -i Sound\AddSheet.wav -ac 1 -f s16le -acodec pcm_s16le -ar 16k AddTmp.wav
バッチ ファイルでコマンド ラインを使用
する。
私が得る出力の下部は次のとおりです。
ファイル内のオーディオではありません。ファイルで話されている言葉は「ADD SPREADSHEET」で、.wav ファイルが介在しなくても同じマイクから完全に機能します。
sox を使用して、オーディオの音量を上げ、バックグラウンド ノイズを減らしてみました。
最終結果に目立った影響はありません。
出力を見ると、fsg_search.c が開始ノードとして ADD を検出し、残りは無音になっていることがわかります。これについて助けてください。
audio - オーディオ ツール sox を使用して、ステレオ録音が実際にモノラルかどうかを判断するにはどうすればよいですか?
完全にモノラル録音のように聞こえるステレオ ファイル (2 チャンネル WAV) があります。sox
ファイルを実行して、2 つのチャネルが同じかどうかを出力する方法はありますか?
または、この種の波形比較を行って、サウンド ファイルのチャンネル間の違いを「類似度数」に集約する別のコマンド ライン ツールはありますか?
split - SoXでWavファイルを2つに分割しようとしています
1 つの .wav ファイルを 2 つの部分に分割しようとしていますが、ここで数秒間無音になります。私が見つけたドキュメントに基づいて、次のように動作するはずです。
「testfile.wav」は音声録音で、途中4秒程度の無音を入れてテストしています。期待される結果は、これを実行すると「tester001.wav」と「tester002.wav」が得られることです。代わりに、元のファイルの最初の部分 (無音部分まで) である "tester.wav" という 1 つのファイルを取得します。どうやって継続させて、無音の後の部分から新しいファイルを作るのだろうと思っています。
私はこれを見つけました:soxはStackOverflowでファイルを分割できませんが、その質問に対する受け入れられた答えは私にとってそれを変えませんでした(4秒のギャップがあるため、秒を3.0に変更しても同じ結果が得られました。それでも変わりませんでした2 番目の音声ファイルをください。)
どんな助けでも大歓迎です!