問題タブ [pydub]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python-2.7 - Pydub と Aplay: 詳細な出力を抑制しますか?
aplay の出力を抑制しようとしていますが、成功しません。stdout で印刷ステートメントを抑制する方法は知っていますが、同じ結果を pydub モジュールでアーカイブする方法がわかりませんでした。たとえば、このコードでサウンドを再生すると
生成された出力 (赤で!) は
avplay バージョン 9.18-6:9.18-0ubuntu0.14.04.1、Copyright (c) 2003-2014 gcc 4.8 を使用して 2015 年 3 月 16 日 13:19:10 にビルドされた Libav 開発者 (Ubuntu 4.8.2-19ubuntu1) 入力 #0、wav 、「/tmp/tmp5DUj0a.wav」から:
デュレーション: 00:00:01.32、ビットレート: 1411 kb/s ストリーム #0.0: オーディオ: pcm_s16le、44100 Hz、2 チャンネル、s16、1411 kb/s
より多くのオーディオを連結すると、重要な情報が失われやすくなります。この種の出力を遮断する方法はありますか?
ありがとう。
python - クラスに強制する方法は?
私はこのクラスを作りました:
私が直面している問題は、いくつかのAudioSegmentCustom
変数を作成するときです。それらを「追加」すると、add
操作は元の親タイプを返します =AudioSegment
したがって、次のコードは機能しません。
私が得るから:
...オブジェクトから始めたとしても、「唯一の」オブジェクトAudioSegmentCustom
で終わります。AudioSegment
新しく作成されたオブジェクトのタイプを「強制」する方法は何ですか?
必要な場合に備えて:
python - pydubを使用して、無音を削除せずに、無音の終わりにオーディオファイルを分割するにはどうすればよいですか?
助けを求めている Python 初心者。
pydub の無音モジュールを使用して、オーディオ ファイルのチャンクを分割してエクスポートしています。この質問に対するトップの回答にある方法を使用しています。
ただし、現時点では、サイレンスはチャンクに含まれていません。最後に残してほしい。私がしなければならない変更は pydub.silence 関数に対するものだと思いますが、どのような変更を加える必要があるのか わかりません。これが今の split_on_silence です:
助けてくれてありがとう。
〜エリック。
python - Pydub - split_on_silence を最小長/ファイルサイズと組み合わせる
私は 2 つのスクリプトを持っています。そのうちの 1 つは特定の長さのオーディオを分割し、もう 1 つは無音部分があるたびにオーディオを分割します。無音でオーディオを分割することはできますか? 5分以上の無音で分割されたビデオのチャンクが必要です。
無音を無視してスクリプトを分割する:
長さを無視する分割スクリプト:
python-3.x - Pydubオーディオエクスポートは最初に無音ですか?
私は 30 分の mp3 でオーディオを取得し、それを unix タイムスタンプ付きの 2 番目の長さのファイルにスライスする Python スクリプトを作成しました。ソース オーディオ ファイルは、192kbps、441000Hz、ステレオ mp3 ファイルです。
ラジオ局 (私が働いている場所) からオーディオをアーカイブし、指定された開始時間と終了時間にわたってユーザーに配信できるサービスには、そのようにしたいと考えています。メンテナンスのためにサーバーを 1 時間シャットダウンし (そうしないようにしていますが、実際にシャットダウンしてしまいます)、その間、オーディオを 30 分のチャンクで保存した別のコンピューターを使用して録音しました。通常、このアーカイブ サーバーは 2 番目に長いチャンク自体を問題なく保存します。
30 分の入力オーディオ ファイル、出力チャンクを保存するディレクトリ、およびファイルの開始時刻を UNIX タイムスタンプとして指定すると、変換を行う関数は次のようになります。
私の問題は、このスクリプトによって変換されたすべての 2 番目のファイルが 1 秒よりも長く、先頭に平均 70 ミリ秒の無音があるように見えることです。アーカイバ サーバーからファイルをダウンロードすると、すべてのファイルが連結されて表示されるため、ひどくグリッチに聞こえます。
誰かが私を助けることができますか?このエラーがどこから来ているのかわかりません。
興味がある場合は、私の完全なスクリプト:
python - pydub AudioSegment から numpy 配列を作成するには?
次の質問を認識しています: numpy 配列を使用して pydub AudioSegment を作成する方法は?
私の質問は正反対です。pydub AudioSegment がある場合、それを numpy 配列に変換するにはどうすればよいですか?
scipy フィルターなどを使用したいと思います。AudioSegment の生データの内部構造がどのようなものかは、私にはよくわかりません。
python - Pythonを使用してオーディオデータ配列のサンプル数を減らす方法
そのサンプルに存在するすべてのフレームで、次のようなオーディオ サンプルの振幅をプロットしています。
その過程で、サウンド AudioSegment の長さがサウンド raw_data と異なることに気付きました。なぜですか?
また、test.mp3 のデュレーションが長くなると、x 軸の目盛りが数百万になるので、低いサンプル レートでデータをプロットするにはどうすればよいか、つまりデータ配列のサンプル数を減らすにはどうすればよいか疑問に思っていましたか?
これが私の最初の考えです: オーディオ データ配列の最初の 10 または 20 サンプルの平均を計算し、それらを 1 つのポイントとして表して、サンプル数を減らすことができるようにします。ただし、これにより、情報の損失やパフォーマンスの問題が発生する可能性があります。
Pythonにはこれを行う別の方法がありますか??