バックプロパゲーションのウィキペディアのページには、次の主張があります。
勾配を計算するためのバックプロパゲーション アルゴリズムは何度も再発見されており、逆累積モードでの自動微分と呼ばれるより一般的な手法の特殊なケースです。
誰かがこれについて説明して、素人の言葉で言えますか? 差別化されている機能は何ですか?「特例」とは?使用されるのは随伴値自体ですか、それとも最終的な勾配ですか?
更新:これを書いてから、これがDeep Learning bookのセクション 6.5.9でカバーされていることがわかりました。https://www.deeplearningbook.org/を参照してください。また、Haber と Ruthotto による「深層ニューラル ネットワークの安定したアーキテクチャ」というテーマについては、この論文が有益であることがわかりました。