問題タブ [synthesizer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - ピアノを描く
ソフトウェア シンセサイザー (またはキーボード) の作業を開始しました。Jfugue API が利用できるため、Java を使用することにしました。キーボード ユーザー インターフェイスの実際のキー (ノート) を作成する方法を見つけようとしていますが、行き詰まっています。黒と白の長方形のボタンをパネルにドラッグ アンド ドロップしてインターフェイスを作成しようとしましたが、うまくいきません。誰かが私を正しい方向に向けることができますか?
ruby - プログラムで VST(i) プラグインと対話してオーディオを合成するにはどうすればよいですか?
たとえば、Tweakbenchの VSTi Triforceを見てみましょう。市販の VST ホストにロードすると、ホストは (おそらく MIDI) 信号を VSTi に送信できます。次に、VSTi はその信号を処理し、VSTi 内のソフトウェア インストゥルメントによって作成された合成オーディオを出力します。
たとえば、A4 (MIDI ノートだと思います) を VSTi に送信すると、中央の C の上に A が合成されます。オーディオ データが VST ホストに返され、スピーカーで再生するか、保存することができます。 .wav またはその他のオーディオ ファイル形式に変換します。
私がTriforceを持っていて、合成する A4 ノートを送信し、それをシステム上のファイルに自動的に保存することによって VSTi と対話できる、選択した言語でプログラムを作成しようとしているとしましょう。
最終的には、1 トラックの MIDI ファイル全体を解析し (この目的で既に利用可能な確立された安定したライブラリを使用して)、それを VSTi に送信してオーディオ ファイルに「レンダリング」/合成できるようにしたいと考えています。
これについてどうすればいいですか? また、コア フレームワークを構築するに はどの言語を使用する必要がありますか?
最終的には、Ruby ベースのプロジェクトで使用されるため、特定の Ruby リソースへのポインターも同様に役立ちます。
ただし、基本的に VSTi の API がどのように機能するかを理解しようとしています。(この質問は、VST出力をファイルに保存することしかできず、それらを再生することはできず、スコープがかなり小さいVSTホストを最初に構築するという質問に非常に関連していることに気付きました)
objective-c - Objective-Cはプロパティ名をオーバーライドして合成します
synthesize
プロパティ名をオーバーライドしてディレクティブの目的を理解しようとしています。次のように定義されたインターフェイスがあるとします。
そして、実装ファイルには、次のものがあります。
私が理解していることから、「dummyLabel」はインスタンス変数「_dummyLabel」の単なるエイリアスです。self._dummyLabelとself.dummyLabelに違いはありますか?
objective-c - Objective-C でプロパティの概要を設定する
Objective-C プログラミングを始めたときに苦労したことの 1 つは、プロパティの操作方法を理解することです。私はおそらく、慣れ親しんだスクリプト言語とは対照的に、適切なコーディング言語を使用することに慣れていないので、ヘッダー ファイルと実装ファイルでの宣言は、多少混乱します。
私が文字列を持っているとしましょう。その文字列にテキストを追加したいと思います。これを適切に機能させるには、ヘッダー ファイルで何を宣言し、実装ファイルで何を行うのですか? @property と @synthesize とは何ですか?
c# - boolsを使用して複数のスレッドを同期するのは安全ですか?
サウンドを生成する複数のスレッドと、サウンドをミキシングしてサウンドカードに送信する1つのスレッドを持つオーディオアプリケーションを作成しています。シグナルやスレッドセーフキューなど、スレッドを「正しい」方法で同期するいくつかの方法を試しましたが、すべて遅すぎました。そこで、各プロデューサーにブール値を使用して、キューがいっぱいかどうかを示します。非常にうまく機能しているようですが(32スレッドで5ミリ秒の遅延)、この方法で安全に実行できますか?
プロデューサーは次のようになります。
コンシューマーは次のようになります(Naudioによって別のスレッドから呼び出されます)。
iphone - iOS 用のシンプルな埋め込み可能な MidiSynth?
Android 用のギター ダイアグラム アプリを iOS に移植しています。Android には MIDI シンセサイザー (sonivox) が組み込まれているため、MIDI ファイルを生成して Android に再生を処理させることができます。
iOSでこれを行う方法はありますか?または、iOS 用の非常に軽量な組み込み可能なシンセはありますか?
iphone - @dynamic を使用する一般的なケースは何ですか?
@synthesize と @dynamic の違いについては以前の投稿があります。
@dynamic の普段の使い方という観点から、dynamic についてもっと知りたいです。
通常、NSManagedObject と一緒に @dynamic を使用します。
@dynamic の理解によると、実際にはコンパイル時に getter/setter は生成されないため、独自の getter/setter を実装する必要があります。
私の質問は、この NSManagedObject の場合、スーパークラス NSManagedObject のゲッター/セッターの大まかな実装は何ですか?
上記の場合を除いて、 @dynamic を使用する他のケースはいくつありますか?
ありがとう、
ios - iOSオーディオシンセのどこから始めればよいですか?
これは非常に幅広いトピックであることは知っていますが、デモや自分のテストに悩まされており、問題を正しく攻撃しているかどうかはわかりません。ですから、私がどこから始めるべきかについてのリードをいただければ幸いです。
目標は、ユーザーの設定に従って、アプリにいくつかの合成音を生成させることです。(これは唯一のアプリ機能ではありません。ここではコルグを再現していませんが、シンセはその一部です。)ユーザーはウェーブ、リバーブなどの一般的なシンセ設定を設定し、ノートが再生されるタイミングを選択します。おそらくピッチとベロシティモディファイアを使用します。
私はオーディオユニットとRemoteIOで少し遊んだことがありますが、私が何をしているのかほとんど理解していません。そのうさぎの穴をはるかに下る前に、私が正しい球場にいるかどうかを知りたいと思います。オーディオシンセが低レベルになることはわかっていますが、使用できる高レベルのライブラリがいくつかあることを期待しています。
どこから始めればよいのか、そしてどのiOSテクノロジーについてもっと読むべきかについての指針があれば、私に知らせてください。
ありがとう!
編集:質問をよりよく要約させてください。
iOS用にすでに構築されているシンセライブラリはありますか?(商用またはオープンソース-検索数が多いものは見つかりませんでしたが、見落としている可能性があります。)
バッファーの生成を容易にするのに役立つ高レベルのAPIはありますか?
すでにバッファーを生成できると仮定すると、RemoteIO Audio UnitよりもiOSオーディオデバイスにそれらのバッファーを送信するためのより良い/簡単な方法はありますか?
audio - サウンドプログラミングのプロジェクトをやりたいのですが、どこから始めたらいいのかわかりません
私の高校では、基本的に学期ごとに自分で科目を学ぶクラスを受講することができます。「サウンドプログラミング」について学びたいと思っていたのですが、それが何なのかわからないことに気づきました。たとえば、シンセサイザーのしくみ、 VSTiの書き方、コンピューターサイエンスでのサウンドのしくみなどに興味があります。これは実行可能な主題ですか?これにまったく慣れていない人のための良いチュートリアルはありますか?ヒントや提案をいただければ幸いです。
編集:これは私が興味を持っているようなものです。