3

Adam の疑似コードによると:

ここに画像の説明を入力

私はいくつかのコードを書きました:

from matplotlib import pyplot as plt
import numpy as np
# np.random.seed(42)
num = 100

x = np.arange(num).tolist()
# The following 3 sets of g_list stand for 3 types of gradient changes:
# g_list = np.random.normal(0,1,num)  # gradient direction changes frequently in positive and negtive 
# g_list = x  # gradient direction always positive and gradient value becomes larger gradually
g_list = [10 for _ in range(num)]  # gradient direction always positive and gradient value always the same

m = 0
v = 0
beta_m = 0.9
beta_v = 0.999
m_list = []
v_list = []

for i in range(1,num+1):
    g = g_list[i-1]
    m = beta_m*m + (1 - beta_m)*g
    m = m/(1-beta_m**i)
    v = beta_v*v + (1 - beta_v)*(g**2)
    v = v/(1-beta_v**i)
    m_list.append(m)
    v_list.append(np.sqrt(v))

mv = np.array(m_list)/(np.array(v_list) +0.001)
print("==>> mv: ", mv)
plt.plot(x, g_list, x, mv)

コードを実行すると、次のプロットが得られます。

ここに画像の説明を入力

私にとっては、勾配の方向が常に正で、勾配の値が一定の場合、学習率の係数 (つまり mv) は 1 に近いはずですが、mv私が得た 100 番目はほぼゼロに近い 3.40488818e-70 です。

コードの一部を変更すると:

    # m = m/(1-beta_m**i)
    if i == 1:
      m = m/(1-beta_m**i)
    # v = v/(1-beta_v**i)
    if i == 1:
       v = v/(1-beta_v**i)

私が得る結果はこれです:

ここに画像の説明を入力

これは私の直感とより一致しています。

上記の私のコードが正しいかどうか誰かに教えてもらえますか?もし正しいなら、上記のようなものを得るためにあなたの直感に合っていますか?

4

1 に答える 1

2

コードの実装はほぼ完了していますが、実装とアルゴリズムの間で注意すべき違いの 1 つはm/(1-beta_m**i)、変数 でバイアス補正項を誤って累積していることですmm_hatバイアス補正用に別の変数を割り当てる必要があります。

同じことが にも当てはまりますv: バイアス補正値を のような別の変数に割り当てますv_hat

これを行うと、 と の累積にバイアス補正が含まれmなくなりvます。

コードは同じままでかまいませんが、リストの追加とともにバイアス補正値の計算を変更します。これを実行すると、目的の結果が得られます。

for i in range(1,num+1):
    g = g_list[i-1]

    # calculate m and v
    m = beta_m*m + (1 - beta_m)*g
    v = beta_v*v + (1 - beta_v)*(g**2)

    # assign bias corrected values to m_hat and v_hat respectively
    m_hat = m/(1-beta_m**i)
    v_hat = v/(1-beta_v**i)

    # append to lists
    m_list.append(m_hat)
    v_list.append(np.sqrt(v_hat))
于 2022-02-19T22:05:29.603 に答える