関数 F、[bool] = F(DATASET, tresh1, tresh2) があります。これは、DATASET といくつかのパラメーターを入力として受け取ります。 "、それ以外の場合は 0。もちろん、答えは値 tresh1 e tresh2 によって異なります。
利用可能な 100 個の DATASET があり、どれが適切でどれがそうでないかを知っているとします。関数 F を「トレーニング」したいと思います。つまり、F(DATASET, tresh1_, tresh2_) がすべての (またはほとんどの) DATASET に対して「良い」と「偽」を返すように、値 tresh1_ と tresh2_ のカップルを教えます。そうでなければ。
F(DATASET_, tresh1_, tresh2_) は、DATASET_ が新しいもの (以前の 100 とは異なる) である場合、DATASET_ が本当に「良い」場合は true を返すことを期待しています。
この問題をクラスタリングの問題として見ることができました。トレーニング セット内のすべての DATASET に対して、ランダムな tresh1 と tresh2 を選択し、F が正しい値を返すことを確認する値とそうでない値をマークします。したがって、tresh1 と tresh2 の値が「良好」な領域を選択します。それは良い方法ですか?より良いものはありますか?
一般的に、「パラメータのキャリブレーションの問題」のように思えます。それを解決するための古典的なテクニックはありますか?