6

MATLAB で「確率的勾配降下」を実装しようとしています。私はアルゴリズムに正確に従いましたが、予測/フィッティング関数に対して非常に大きな w (係数) を取得しています。アルゴリズムに誤りがありますか?

アルゴリズム: ここに画像の説明を入力

x = 0:0.1:2*pi      // X-axis
    n = size(x,2);      
    r = -0.2+(0.4).*rand(n,1);  //generating random noise to be added to the sin(x) function

    t=zeros(1,n);
    y=zeros(1,n);



    for i=1:n
        t(i)=sin(x(i))+r(i);          // adding the noise
        y(i)=sin(x(i));               // the function without noise
    end

    f = round(1+rand(20,1)*n);        //generating random indexes

    h = x(f);                         //choosing random x points
    k = t(f);                         //chossing random y points

    m=size(h,2);                     // length of the h vector

    scatter(h,k,'Red');              // drawing the training points (with noise)
    %scatter(x,t,2);
    hold on;
    plot(x,sin(x));                 // plotting the Sin function


    w = [0.3 1 0.5];                    // starting point of w
    a=0.05;                         // learning rate "alpha"

// ---------------- ALGORITHM ---------------------//
    for i=1:20
        v = [1 h(i) h(i).^2];                      // X vector
        e = ((w*v') - k(i)).*v;            // prediction - observation
        w = w - a*e;                       // updating w
    end

    hold on;

    l = 0:1:6;
    g = w(1)+w(2)*l+w(3)*(l.^2);
    plot(l,g,'Yellow');                      // drawing the prediction function
4

2 に答える 2

8

学習率が大きすぎると、SGD が発散する可能性があります。
学習率はゼロに収束するはずです。

于 2011-02-26T16:21:29.833 に答える
2

通常、w の値が大きすぎる場合は、過剰適合があります。私はあなたのコードを注意深く見ていませんでした。しかし、あなたのコードに欠けているのは、トレーニングのオーバーフィッティングを防ぐ適切な正則化用語だと思います。ここもまた:

e = ((w*v') - k(i)).*v;

ここの v は予測値の勾配ではありませんね。アルゴリズムによると、それを交換する必要があります。これを行った後、どのようになるか見てみましょう。

于 2011-02-26T07:01:31.330 に答える