- 多くの変数があり、その多くは制御できないプロセスから最大のパフォーマンスを得たいと思っています。
- 何千もの実験を実行できないので、何百もの実験を実行できればいいのですが
- 多くの制御可能なパラメータを変更する
- パフォーマンスを示す多くのパラメータに関するデータを収集する
- 私が制御できなかったパラメータについては、可能な限り「正しい」
- 私が制御できるものの「最良の」値をいじめ、最初からやり直します
これはデータマイニングと呼ばれるように感じます。ここでは、すぐには関連していないように見えますが、ある程度の努力の後に相関関係を示している大量のデータを調べています。
それで...私はどこでこの種のもののアルゴリズム、概念、理論を見始めますか?検索を目的とした関連用語でさえも役立つでしょう。
背景:私はウルトラマラソンサイクリングをしたり、各ライドのログを記録したりするのが好きです。より多くのデータを保持したいのですが、何百回ものライドの後、自分のパフォーマンスに関する情報を引き出すことができます。
ただし、ルート、環境(温度、圧力、ハム、太陽負荷、風、降水量など)、燃料、姿勢、重量、水負荷など、すべてが異なります。いくつかのことを制御できます。しかし、同じルートを20回実行して新しい燃料レジームをテストするのは気のめいることであり、私がやりたいすべての実験を実行するには何年もかかります。ただし、これらすべてを記録することはできます(自転車FTWのテレメトリ)。