問題タブ [mikmidi]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - MIDI イベントのタイムスタンプを正確に設定するにはどうすればよいですか?
MIDI ファイルを解析してから、MIKMIDIを使用して MIDI イベントを接続されたシンセサイザーに送信していますが、イベントのタイムスタンプをより具体的なミリ秒ではなく整数秒に丸めています。時間を正確に計算するのに助けが必要です。ありがとう。// 以前に定義されたクラス Note { var symbol:String var octave:Int var midiValue:Int var duration:Float }
MidiDevice playNoteOn の定義
このタイムスタンプを、MIDISend() または MIKMIDI を使用して送信できる正確なタイムスタンプに変更するにはどうすればよいですか?
ios - iOS でサウンド フォントを使用して MIDI をエクスポートする
サウンドフォントが割り当てられた MIDI シーケンスを .wav ファイルとしてエクスポートできますか? もしそうなら、誰かが私を正しい方向に向けることができますか?
私は現在MIKMIDIを使用していますが、これまでのところ、それを行う例には遭遇していません。
ios - MIKMIDI サウンドフォントのプリセット選択
Swiftで次のことを成功させました:
- MIKMIDIシーケンサーを作成しました
- シーケンサーにトラックを追加しました
- そのトラックの組み込みシンセサイザーにサウンドフォントをロードしました
- トラックに MIDI イベントを追加
- シーケンサーでのトリガー再生
マルチティンバーサウンドフォントでプリセットを選択することはできますか? シーケンサー トラックによって参照される MIKMIDISynthesizer インスタンスの availableInstruments プロパティを調べると、空の配列がログ コンソールに報告されます。コードは次のとおりです。
ios - AudioUnitRender および ExtAudioFileWrite error -50 in Swift: MIDI をオーディオ ファイルに変換しようとしています
Swift で MIDI ファイルをオーディオ ファイル (.m4a) に変換しようとしています。
現在、MIDI ファイルをシーケンスおよび再生するためのツールとしてMIKMIDIを使用していますが、再生をファイルに保存する機能は含まれていません。MIKMID の作成者は、ここでこれを行うプロセスの概要を説明しています。出力をキャプチャしてオーディオ ファイルに保存するために、この例に従って、MIKMIDI グラフの RemoteIO ノードを Swift の GeneralIO ノードに置き換えてみました。AudioUnitRender と ExtAudioFileWrite を使用して出力をファイルに保存しようとすると、どちらもエラー -50 (kAudio_ParamError) を返します。
エラー -50 の原因と、それを解決して MIDI (オフライン) を .m4a ファイルにレンダリングするにはどうすればよいですか?
更新: mNumberChannels とチャンネルを = 1 に変更することで、ExtAudioFileWrite エラー -50 を解決しました。これで、ノイズのある 1 秒のオーディオ ファイルが得られます。AudioUnitRender は依然としてエラー -50 を返します。
ios - MIKMIDI NRPN コマンド作成
MIKMIDI を使用して、組み合わせた NRPN コマンドを送信します。このスタイルの NRPN を送信しようとしています
B9H 63H 40H || B9H 62H 64H || B9H 06H 7FH (hex)
これは
B9 99 64 || B9 98 100 || B9 06 127 (dec)
私はこの方法で作成しようとしています
しかし、それは nil ポインターを返します。
私は何を間違っていますか?
ios - AudioKit マイク入力 + MIDI 出力
AudioKitを使用してマイク入力を収集し、同時にMIKMIDIを使用してステレオ スピーカーを介して MIDI ファイルからノートを再生することは可能ですか?
それぞれを単独でうまく実行できることがわかりました。AudioKit からマイク周波数を収集し、MIKMIDI を使用して MIDI ファイルからノートを再生できますが、それらを一緒に使用すると、MIDI ノートは「内部ハードウェア スピーカー」で再生されます (実際の名前はよくわかりません? DOS ゲーム)、ステレオ スピーカーではなく、音の振幅が極端に小さい。
AudioKitの使い方
これは文字通り、マイクの周波数を取得するために使用する唯一のコードです。その頻度データを使用する他のコードがありますが、それは無関係です。ポイントは、このコードをコメントアウトすると、MIKMIDI 部分が期待どおりに機能し、ステレオ スピーカーから再生されることです。