まあ、私は本当に混乱しています。
文字列に含まれる回数を数えて、機能の単純な順序、つまりすべての文字といくつかの記号があります。
結果としての私の選択は次のとおりです
numberOf_a
numberOf_b
...
numberOf_Z
numberOf_.
numberOf_,
65個の値のテストサンプルがあり、MLPは46個の値を正しく取得できます。
ここで、ランダムな順序で特徴の順序を偶然に見つけ、同じデータでトレーニングし、同じ値を評価すると、異なる数の正しい予測、たとえば49が得られます。
結果は一貫しています(同じ順序でも同じ精度が得られます)が、精度はランダムな順序間で変化します。
問題は、これが起こることになっているのかということです。これが理論によってどのように裏付けられているのかわかりません。私はここで何か大きなものが欠けていますか?
PS。WEKAのMLPの実装を使用しています