問題タブ [torch]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
142 参照

lua - Torch チュートリアル: 1_data.lua の「trainData.data[{ {},i,{},{} }]:mean()」の意味

トーチのチュートリアルで、次の行を見つけました。

インデックス作成 { {},i,{},{} } が何をしているのか説明できる人はいますか? 推測はできましたが、正確なメカニズムを知りたかったのです。

前もって感謝します。

0 投票する
2 に答える
6902 参照

image - torch (lua) で中間層の画像を視覚化する

conv-nets モデルでは、フィルターを視覚化する方法を知っています。 itorch.image(model:get(1).weight) を実行できます。

しかし、畳み込み後の出力画像を効率的に視覚化するにはどうすればよいでしょうか? 特にディープ ニューラル ネットワークの 2 番目または 3 番目のレイヤーにある画像は?

ありがとう。

0 投票する
1 に答える
537 参照

c - この C コード (lua ライブラリ、Torch から) はどのようにコンパイル/動作しますか?

https://github.com/torch/nn/blob/master/generic/Tanh.cを参照してください。

例えば、

まず、最初の行を解釈する方法がわかりません。

ここでの議論は何ですか?Tanh_updateOutput は何を参照していますか? 「nn_」には特別な意味がありますか?

次に、「TH_TENSOR_APPLY2」と「THTensor_(...)」の両方が使用されていますが、それらがどこで定義されているかわかりません。このファイルに他のインクルードはありませんか?

0 投票する
1 に答える
237 参照

lua - torch7 を使用した混同行列の再現率と精度の計算

教師付きのチュートリアルを使用しており、再現率と精度を計算したいと考えています。チュートリアルでそれらを計算する方法はありますか?

0 投票する
0 に答える
78 参照

lua - Torch.gesv B は 2 次元である必要があります

オックスフォードの機械学習コースを受講し始めたばかりで、lua と torch は初めてです。

トーチで単純な線形方程式の問題を解こうとしています。問題は AX = B のようなものです

ただし、B は単なる 1 次元テンソル (ベクトル) であるため、これを行うことはできません。B がベクトルの場合はよくあることだと思います。B を 2 次元テンソルに複製するのは無駄です。

そして私は得るでしょう:

助言がありますか?

0 投票する
1 に答える
356 参照

lua - Grid search for hyper-paramerters in torch / lua

I am new in torch/lua and am trying evaluate some different optimization algorithms and different parameters for each of them.

Algo: optim.sgd optim.lbfgs

Parameters:

  • learning_rate: {1e-1, 1e-2, 1e-3}
  • weight_decay: {1e-1, 1e-2}

So what I am trying to achieve is try every combination of the hyper-parameters and get the optimal parameter set for each of the algorithm.

So is there something like:

#xA;

as in http://scikit-learn.org/stable/modules/grid_search.html available in torch to deal with it?

Any suggestions would be nice!

0 投票する
2 に答える
7184 参照

indexing - Torch では、整数ラベルのリストから 1-hot tensor を作成するにはどうすればよいですか?

MNIST データ セットなどから、整数クラス ラベルのバイト テンソルがあります。

1-hot ベクトルのテンソルを作成するためにどのように使用しますか?

ループでこれを実行できることはわかっていますが、1 行で取得できる巧妙な Torch インデックスがあるかどうか疑問に思っています。

0 投票する
0 に答える
343 参照

neural-network - Neural Network Reinforcement Learning Requiring Next-State Propagation For Backpropagation

I am attempting to construct a neural network incorporating convolution and LSTM (using the Torch library) to be trained by Q-learning or Advantage-learning, both of which require propagating state T+1 through the network before updating the weights for state T.

Having to do an extra propagation would cut performance and that's bad, but not too bad; However, the problem is that there is all kinds of state bound up in this. First of all, the Torch implementation of backpropagation has some efficiency shortcuts that rely on the back propagation happening immediately after the forward propagation, which an additional propagation would mess up. I could possibly get around this by having a secondary cloned network sharing the weight values, but we come to the second problem.

Every forward propagation involving LSTMs is stateful. How can I update the weights at T+1 when propagating network(T+1) may have changed the contents of the LSTMs? I have tried to look at the discussion of TD weight updates as done in TD-Gammon, but it's obtuse to me and that's for feedforward anyway, not recurrent.

How can I update the weights of a network at T without having to advance the network to T+1, or how do I advance the network to T+1 and then go back and adjust the weights as if it were still T?