20

私は最近、さまざまな目的でニューラルネットワークに取り組んでいます。私は、数字認識、XOR、およびその他のさまざまなeasy/helloworldのアプリケーションで大きな成功を収めてきました。

時系列推定の領域に取り組みたいと思います。現在、このトピックに関するすべてのIEEE / ACMペーパーを(無料で)読むための大学のアカウントを持っていません。また、時系列の予測にANNを使用して詳細を説明している多くのリソースを見つけることもできません。

時系列データを介した予測にANNを使用することに関して、誰かが何か提案やリソースを推奨できるかどうか知りたいですか?

NNをトレーニングするには、すぐにいくつかのタイムステップを挿入し、期待される出力が次のタイムステップになると想定します(例:n-5、n-4、n-3、n-2、n-1の入力タイムステップNで結果が出力されるはずです。...そして、いくつかのタイムステップを下にスライドして、すべてをやり直します。

誰かがこれを確認したりコメントしたりできますか?私はそれをお願い申し上げます!

4

3 に答える 3

22

k基本的な考え方は、ネットワークが一連の最後の値(T n-k ... T n-1 )を使用して現在の値(T n)を予測するようにトレーニングされる「スライディングウィンドウ」アプローチだと思います。。

ただし、これを行う方法はたくさんあります。例えば:

  • そのウィンドウの大きさはどれくらいですか?
  • データを何らかの方法で前処理する必要がありますか(たとえば、外れ値を削除するため)?
  • どのネットワーク構成(たとえば、非表示ノードの数、レイヤーの数)とアルゴリズムを使用する必要がありますか?

多くの場合、人々は試行錯誤によって特定のデータから学ぶための最良の方法を考え出すことになります。

このようなものについては、公的にアクセス可能な論文がかなりの数あります。これらから始めて、Google Scholarを介してそれらを引用している引用と論文を見てください。そうすれば、たくさん読む必要があります。

于 2010-11-20T12:43:18.353 に答える
2

リカレントニューラルネットワーク(RNN)と呼ばれる一種のニューラルネットワークがあります。これらのモデルを使用する利点の1つは、入力例のスライディングウィンドウを定義する必要がないことです。長短期記憶(LSTM)として知られるRNNの変形は次のことができます。以前のタイムスタンプの多くのインスタンスを考慮に入れる可能性があり、「ゲートを忘れる」を使用して、以前のタイムスタンプからの以前の結果を記憶することを許可または禁止します。

于 2015-12-28T20:56:56.750 に答える
1

技術的には、これはあなたの数字認識と同じです-それは何かを認識し、それが何であったかを返します...

さて、これで入力は前のステップ(T -5 ... T -1)になり、出力は予測されたステップ(T 0、T 1 ...)になります。

ANN自体の仕組みは同じです。機能検出のためにすべてのレイヤーを教え、物事の再構築を修正して、実際に何が起こっているように見えるようにする必要があります。

(私が何を意味するかについてのいくつかのより多くの情報:tech talk

于 2010-11-21T09:49:39.183 に答える