「ライブコーディングフレームワーク」を構築したいと考えています。
「ライブコーディングフレームワーク」の意味を説明する必要があります。そのために、ライブ コーディングと従来のコーディングを比較します。
一般的に言えば、従来のプログラミングでは、コードを記述し、場合によってはそれをコンパイルしてから、実行可能ファイルを起動するか、ある種のインタープリターでスクリプトを開きます。アプリケーションを変更する場合は、このプロセスを繰り返す必要があります。ライブ コーディング フレームワークにより、アプリケーションの実行中にコードを更新し、必要に応じて再読み込みできます。おそらく、コードを含むファイルが変更されるたびに、またはその他のアクションによって、この再読み込みが発生します。コードの変更は、実行中のアプリケーションに反映されます。プログラムを閉じて、再コンパイルして再起動する必要はありません。
この場合、アプリケーションは更新/描画ループを持つウィンドウ化されたアプリであり、ほとんどの場合、グラフィックスには OpenGL を使用し、サウンド処理にはオーディオ ライブラリ ( SuperCollider? ) を使用し、理想的にはネットワーク ライブラリを使用します。
もちろん、好みの言語はありますが、この種のアーキテクチャに適した言語があるかどうかは定かではありません。理想的には、Python、Lua、Ruby、またはその他の高レベル言語を使用します。ただ、最近友人から可能性としてClojureが提案されたので、私も検討中です。
この種のフレームワークにどの言語が適しているかだけでなく、一般的にどの言語機能がこのようなフレームワークを可能にするかを知りたい.