バックプロパゲーション アルゴリズムを使用してニューラル ネットワークをトレーニングしています。これは全体的なエラーのグラフです。
(私はこの式で全体的なエラーを計算しています: http://www.colinfahey.com/neural_network_with_back_propagation_learning/neural_network_with_back_propagation_learning_en.html パート 6.3: 全体的なトレーニングエラー)
私は Power Trendline を使用しました。計算後、epoches = 13000 => 全体的なエラー = 0.2 であることがわかりました。
これ高すぎない?
このチャートは正常ですか?トレーニング プロセスに時間がかかりすぎるようです. 私は何をすべきか?もっと速い方法はありませんか?
編集: 私のニューラル ネットワークには、200 個のニューロンを持つ隠れ層があります。入力層と出力層には 10 ~ 12 個のニューロンがあります。私の問題は、キャラクターのクラスタリングです。(教師付きトレーニングにより、ペルシャ語の文字をいくつかのクラスターにクラスター化します)