Andrew Ng 教授の講義または thisの助けを借りて、図 31 アルゴリズムを使用してニューラル ネットワークを実装しています。
順伝播と逆伝播はよく理解できたと思いますが、反復ごとに重み (シータ) を更新することと混同しています。
Q1. 重み (シータ) マトリックス - シータ 1、シータ 2 をいつ、どのように更新しますか?
Q2. ビッグデルタとは何ですか?[解決済み、@xhudik に感謝]
Q3. +1 を追加する必要がありますか (入力層と非表示層のバイアス ユニット?)