問題タブ [fluidsynth]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
macos - OS X で fluidsynth を使用して MIDI ファイルを WAV に変換する
OS XでファイルMIDI
をファイルに変換しようとしています。WAV
これまでのところ、私はこれを持っています:
これによりoutput_sound
ファイルが作成されますが、そのファイルは WAV ではありませんsint16
。次の出力が得られることを考えると、フォーマットされているようです。
をターミナルで (またはスクリプト可能な方法で) ファイルに変換する簡単な方法はありoutput_sound
ますか?WAV
python - pyfluidsynth + pyaudio demo の実行、alsa と jack に多くの問題
ここでデモをフォローしています。私はPythonを介してオーディオを作成することに非常に慣れていないため、考慮すべきエラー、間違っている可能性のある単純なことをデバッグする方法がわかりません。
これが私のpythonエラーです:
私はpyaudio、fluidsynth、pyfluidsynthを正常にインストールしており、違いがあればubuntu 12.10を実行しています。
fluidsynth - 最初から特定の cc コマンドを指定して fluidsynth の再生を開始するにはどうすればよいですか?
fluidsynth
ターミナルから実行すると
その後、コントロール変更コマンドをリアルタイムで書き込んで、再生を変更することができます。例えば、
CC#7 メッセージ (チャンネル音量) を値 0 でチャンネル 1 に送信します。これは、チャンネル 1 の音量が 0 に設定されていることを意味します。
ここで、 を呼び出すときにこれらの cc コマンドの束を指定したいと思います。fluidsynth
つまり、再生が開始される前にチャンネルの音量が設定されます (つまり、目的のミックスをオーディオ ファイルに出力できるということです。これが私の最終目標です)。
fluidsynth
マニュアルを読むと、次のオプションが見つかります。
fluidsynth
コントロールチェンジイベントは、マニュアルのさらに下にあるMIDIメッセージの下にリストされており、シェルコマンドの下にリストされているため、これが私が使いたいものだと推測しています。ただし、このマニュアルでは、ここで詳しく説明することはあまりありません (このオプションについて述べられているのは、引用された一節だけです。例も何もありません)。UNIX の構成ファイルを調べてみましたが、何も解決できませんでした。
と呼ばれるファイルを作成しようとしましたがconfig
、次のように一連の cc コマンドで埋めました。
そして、それをロードしようとしています
しかし、このアプローチは何もしません (fluidsynth もエラーを報告しません)。
python - Python と Mingus で複数の楽器を設定するには?
次の例では、A と B に setados インストゥルメントがありますが、A と B の両方が設定される最後のオブジェクトのみを使用しており、まるで書き換えているかのようです。
A と B のツールを同じスクリプトで別の計測器に設定するにはどうすればよいですか?
python - キーを押している限りノートを再生する方法 (Fluidsynth)?
私は現在Raspberry Piプロジェクトに取り組んでおり、ボタンを押す限り(gpioに接続されている)ノートを再生する可能性を探しています。私はpyFluidsynthを使用して動作させましたが、ボタンを押している限りノートを保持しているノートです。それは非常に速く繰り返されますが、聞こえないように遅くなります。
私が知らないコントロールはありますか?私はノートオンとノートオフを使用しているだけですが、「ノートホールド」のようなものはありますか?
ありがとう!
python - Telnet と Python を使用した Fluidsynth: 音が出ない
私は、Raspian を実行している Raspberry Pi B で Fluidsynth を使用してきました (Fluidsynth は最新バージョンでは実行されないため、少なくとも 2014 年 4 月以降は完全に最新のイメージではありません)。
実行して Fluidsynth を起動しますfluidsynth -a alsa -g 1 -s -o "shell.port=9800" /path/to/FluidR3_GM.sf2
のようなコマンドで Fluidsynth 独自のシェルを使用して、期待されるオーディオ出力を取得noteon 1 54 100
できます。また、次を使用して、別のコマンド ラインから telnet サーバーを使用して再生するオーディオを取得することもできます。
telnet localhost 9800
noteon
次に、生成されたサブシェルに標準コマンドを入力します。
ただし、私の最終的な目標は、これらの telnet コマンドを Python から送信することです。
エラーを返さない次のコードを試しました。
しかし、これでは何の音も出せません。
この時点で、私は壁にぶつかりました。なぜ python ステートメントは機能しないのに、コマンド シェルのステートメントは機能するのかわかりません。彼らはまったく同じことをしているのではないでしょうか? telnet プロトコルの微妙な点が欠けていますか?
python - PythonでMIDIからスピーカーから出てくる実際のオーディオ(サウンド合成)に到達する最も簡単な方法は何ですか?
プリロードされた多数の「.mid」ファイルからサウンドを作成する必要があるアプリの作業を開始しています。
Python と Kivy を使用してアプリを作成しています。これらのツールを使用して既にアプリを作成しており、私が知っている唯一のコードです。私が作成した別のアプリは、サウンドをまったく使用しません。
当然のことながら、私が書いたコードがクロスプラットフォームで動作することを確認したいと思っています.
今は、MIDI ノートから実際のサウンドを作成できることを証明しようとしているだけです。
FluidSynth と Mingus を使用して、同様の質問に対する別の回答から提案されたこのコードを使用しました。
しかし、何も聞こえず、次のエラーが発生します。
このエラーが発生する理由、修正方法、およびこれが最も簡単な方法ですか、それとも正しい方法ですか?
python - Fluidsynth エラー: 「名前 'ctypes' が定義されていません」
作業中のゲームで FluidSynth を使用しようとしていますが、Fluidsynth を正しく動作させることができないようです。インポートしようとするたびに、次のようになります。
Ctypesエラーを取り除くためにいくつかのインポートコマンドを実行できることを読みましたが、試してみると次のようになります:
win32 アプリケーション エラーは通常、コンピューターのプロセッサ用に設計されていないアプリを実行しようとすると発生することは承知していますが、libfluidsynth.dll をダウンロードしたソースには、Windows 32 用であると記載されていました
。Windows 7 を使用しています。 64 ビット、および Python 2.6。
また、32 ビット コンピューターに Python をダウンロードし、pyFluidSynth パッケージと FluidSynth DLL 自体もダウンロードしましたが、FluidSynth ライブラリなどが見つからないというメッセージが表示されました。