問題:
Calculate the mean and standard deviation of a tightly clustered set of 1000 initial conditions as a function of iteration number. The bunch of initial conditions should be Gaussian distributed about x = 0.3 with a standard deviation of 10-3
私が書いたコード:
from numpy import *
def IterateMap(x,r,n):
for i in xrange(n):
x = r * x * (1.0 - x)
return x
output = "data"
nIterations = 1000
r = 4.0
x0 = 0.3
delta = 0.00005
L = []
for i in xrange(nIterations):
x = x0
x = IterateMap(x,r,1)
L[i] = x
x0 = x0 + delta
A = array(L)
print 'mean: ', mean(A)
したがって、私のコードがすべきことは、x の初期値 (x0) を取得し、IterateMap 関数を呼び出し、x の新しい値を返し、それをリスト (L) に配置してから、x0 を新しい値に変更することです。プロセスは 1000 回続きます。「リスト割り当てインデックスが範囲外です」というエラーが表示されます。また、私は問題を正しくフォローしていると思いますか?