ミニバッチ勾配降下法を使用したディープ FF ニューラル ネットワークのトレーニング プロセスを考えてみましょう。私が理解している限り、トレーニングの各エポックで、ミニバッチのランダムなセットが異なります。次に、すべてのミニ バッチを反復処理して NN パラメーターの勾配を計算すると、反復ごとにランダムな勾配が得られるため、コスト関数を最小化するモデル パラメーターのランダムな方向が得られます。トレーニング アルゴリズムのハイパーパラメーターを修正し、トレーニング プロセスを何度も開始したとします。その後、モデル パラメーターの変更が異なるため、互いに完全に異なるモデルになってしまうとします。
1) そのようなランダム ベースのトレーニング アルゴリズムを使用する場合は常にそうですか?
2) そうである場合、以前のトレーニングと検証中に見つかった最高のハイパーパラメーターを使用して NN をもう一度トレーニングすると、最高のモデルが再び得られるという保証はどこにありますか?
3) 常に最良のモデルを生成するようなハイパーパラメータを見つけることは可能ですか?