0

LSTM ニューラル ネットワークを使用して株式市場を予測するコードを完成させました。ニューラル ネットワークからのデータの送受信に問題があります。私はミニバッチを持っています。各ミニバッチには、入力価格と出力理想の 2 つの配列があります。入力価格の下では、「n」ティックがあることを意味し、出力理想の下では、シフト=-100 の長い期間を持つ確率的インジケーターを意味します。つまり、NN は「確率論的」ニューラル ネットワークになります。

さて、1000 ティック データの履歴があります。構成: ミニバッチ = 1、入力 = 1 (上記では「n」ティックと呼びました)、出力 = 1。

[0; からニューラル ネットワークをトレーニングするとすぐに、1000) ティックはニューラル ネットワーク [0, 900) でのみ提供されます。これは、インジケーター データがオーバーしたためです。最後のティックの予測を取得するには? 間隔 [900, 1000) を無視して、すぐに最後の (1000 番目) ティックを適用しますか??

ミニバッチの配列は、次の形式で計算します。

for(i=0, i<minibatch_size, i=i+1) input[i] = if (i>0) tick[i]-tick[i-1]; else 0; ideal[0] = indicator[batch_size-1];

NN は入力層と出力層の tanh を使用しました。

入力を 100 まで、または出力を 100 まで増やす必要がありますか?? これを回避する方法は?

imgur.comで画像を見る

4

0 に答える 0