私の知識によると
1 ニューロンと 1 層 -> パーセプトロンとして知られる
2 個以上のニューロン、1 層、1 入力 --> 直線 y = w*x + w0 の方程式として
2 つ以上のニューロン、1 つの層、複数の入力インスタンス --> 超平面
これらのニューロン活性化の出力にシグモイド機能を追加し、これらを別のパーセプトロンまたは複数のニューロンに結合すると、超平面の非線形結合が得られます。
CNN が単純なディープ ニューラル ネットワークではなく CNN と呼ばれるようになった理由は、画像の任意の部分に存在する可能性があるローカル近傍の重みを学習することです。そのため、ニューロンの活性化の間に重みを共有するプロセスがあります。
- 1 つのレイヤーに N 個の異なる 20x20 グレースケール画像と 5 つの隠れユニットがあるとします。
- 完全に接続されたディープ ニューラル ネットワークを実装する場合は、最初の隠れ層で 400x5 の重み行列 (したがって 2000 個のパラメーター) を学習してみてください。出力として、N 個の画像ごとに 5 次元のベクトルが得られます。
- しかし、cnn 構造では、これらの 20x20 画像で適切なパッチ サイズを決定し、4x4 としましょう。5 つの異なる 4x4 の重みを学習します。つまり、80 個のパラメーターです。そして、この最初の隠れ層の出力として、各 N 画像に対して 5 つの異なる 17x17 画像が得られます。別の見方をすると、最初のレイヤーの出力は、N 個の画像ごとに 1445 次元のベクトルです。したがって、学習するパラメーターは少なくなりますが、出力として学習する次元が増えます。
ですから、あなたの質問を見ると、
レイヤーが 1 つしかなく、その 1 つのレイヤーの後に分類/回帰が行われた場合、DBN とは呼ばれません。しかし、「畳み込み」と「ニューラル ネットワーク」の概念があるため、CNN と呼ぶこともできます。そしてもちろん、単一のレイヤーでは「逆伝播」はありません。
複数のレイヤーが存在する場合、バックプロパゲーションが必要です。概念は、中間層で確認できる「実際の/期待される出力」を持たずに、エラーを逆伝播できるようにすることです。回帰/分類がある最後のレイヤーのグラウンド トゥルースしかありません。したがって、あなたの質問を正しく理解していれば、ここでのバックプロップはディープ ネットワーク カテゴリに分類されます。
「CNN は DBN と同じパターンに従わない」とは言えません。それらは確かに重み共有機能を備えたDBNであるためです。
これがあなたの質問に答えることを願っています。さらに、ここで DBN と DNN の違いを指摘しておくとよいと思います。
別の Web サイトからの引用 ( https://www.quora.com/Deep-Learning/What-are-the-difference-and-relevance-between-DNN-and-DBN )
「ディープ ビリーフ ネットワークは、教師なしデータに基づいて信念 (インスタンス間の確率論的関係) を構築し、教師ありデータが提示されたときにそれらの関係を問題に適用します。
基本的に、学習するデータが多い教師なしで学習し、問題で使用します。
ディープ ニューラル ネットワークは、単に大規模な多層ニューラル ネットワークです。」</p>