機械学習におけるパーセプトロンのアルゴリズムについて研究しています。これまでパーセプトロンについて以下のことを理解していました。
1)It's a supervised learning technique
2)It tries to create a hyper plane that linearly separates the class
labels ,which is when the perceptron converges
3)if the predicted output and the obtained output from the algorithm
doesnot match it adjusts it's weight vector and bias.
しかし、パーセプトロンが収束しないと重みベクトルがどうなるか理解できませんでした。
アルゴリズムは重みベクトルを更新し続けますか?