体の動きを音に変換するインタラクティブな画面をプログラムしたいのですが、ProcessingとMax-mspのどちらを使用すべきかわかりません。
あなたは何を提案しますか?
体の動きを音に変換するインタラクティブな画面をプログラムしたいのですが、ProcessingとMax-mspのどちらを使用すべきかわかりません。
あなたは何を提案しますか?
それはあなたのセットアップに大きく依存します。
Kinectを使用して2Dフレーム差分または3Dトラッキングを実行でき、MSPはオーディオ合成/処理に最適です。コードにライブでパッチを適用するため、通常の処理/ Javaサイクル(コードの記述、コンパイル、テスト、デバッグ、繰り返し)よりもプロトタイプの作成がはるかに高速になります。Maxに慣れている場合は、それをお勧めします。
それ以外の場合は、Processingを使用して追跡を行うことができますが、レスポンシブオーディオアプリケーションのProcessingはお勧めしません。実行する必要のある処理(ビデオとオーディオ)の量によっては、Javaのガベージコレクターが、予期しないときに浮浪オブジェクトのスイープを開始し、オーディオの遅延やクリックを引き起こす可能性があります。マックスは速いです。
おそらくProcessingとMaxの間でOSCプロトコルを使用して、2つを組み合わせることができますが、それは主にセットアップとスキルに依存します。
オブジェクトの配線よりもコードの記述に慣れている場合でも、MaxでJavaまたはJavascriptを使用できます。
シンプルであるほど良いと思います。プロジェクトの出力は健全であるため、Maxが最善の策だと思います。
HTH
Max/MSP/Jitter と Web カメラだけで行けます。イメージをオーディオに変換する基本的な方法は、動きの量 (QoM) を決定し、それを使用して合成パラメーターを制御することです。この記事から始めることをお勧めします。働く。
世の中にはオープンソースのものがたくさんあるので、これには MAX/MSP を使用しました。
Synapse で Kinect を使用しました。Synapse パッケージは、マッピング パラメーターとして直接使用できるすべてのボディ情報 (座標) を提供する最大パッチも提供します。