問題領域の観点から、バックプロパゲーションによってトレーニングされた人工ニューラルネットワークを進化的アルゴリズムと比較します。
進化的アルゴリズムは、ランダム化されたビームサーチを展開します。つまり、進化的オペレーターは、適合性によってテストおよび比較される候補を開発します。これらの演算子は通常非決定論的であり、局所最適点でスタックする問題を克服するために、パラメーター空間で近接している候補と遠くにある候補の両方を見つけることができるように設計できます。
ただし、EAアプローチの成功は、開発するモデルに大きく依存します。これは、高い表現の可能性(過剰適合する可能性があります)と一般性(モデルがターゲット関数を表現できない可能性がある)の間のトレードオフです。
ニューラルネットワークは通常多層であるため、パラメーター空間は凸状ではなく、局所最適点が含まれているため、最急降下アルゴリズムがスタックする可能性があります。最急降下は決定論的アルゴリズムであり、近接を検索します。そのため、ニューラルネットワークは通常ランダムに初期化され、複数のモデルをトレーニングする必要があります。
さらに、ニューラルネットワークの各隠れノードが超平面を定義していることを知っているので、問題にうまく適合するようにニューラルネットワークを設計できます。ニューラルネットワークの過剰適合を防ぐためのいくつかの手法があります。
全体として、ニューラルネットワークは高速にトレーニングされ、わずかな費用で妥当な結果が得られる可能性があります(いくつかのパラメーターを試してみてください)。理論的には、十分に大きいニューラルネットワークはすべてのターゲット関数を近似することができ、反対側では過剰適合しやすくなります。進化的アルゴリズムでは、良好な結果を得るには多くの設計上の選択を行う必要がありますが、おそらく最も難しいのは、どのモデルを最適化するかです。しかし、EAは(定義した方法で)非常に複雑な問題空間を検索し、すぐに良い結果を得ることができます。問題(ターゲット機能)が時間の経過とともに変化している場合でも、AEは成功し続けることができます。
Tom Mitchellの機械学習ブック:
http ://www.cs.cmu.edu/~tom/mlbook.html