conv-nets モデルでは、フィルターを視覚化する方法を知っています。 itorch.image(model:get(1).weight) を実行できます。
しかし、畳み込み後の出力画像を効率的に視覚化するにはどうすればよいでしょうか? 特にディープ ニューラル ネットワークの 2 番目または 3 番目のレイヤーにある画像は?
ありがとう。
conv-nets モデルでは、フィルターを視覚化する方法を知っています。 itorch.image(model:get(1).weight) を実行できます。
しかし、畳み込み後の出力画像を効率的に視覚化するにはどうすればよいでしょうか? 特にディープ ニューラル ネットワークの 2 番目または 3 番目のレイヤーにある画像は?
ありがとう。
重みと同様に、次を使用できます。
itorch.image(model:get(1).output)
重みを視覚化するには:
-- visualizing weights
n = nn.SpatialConvolution(1,64,16,16)
itorch.image(n.weight)
機能マップを視覚化するには:
-- initialize a simple conv layer
n = nn.SpatialConvolution(1,16,12,12)
-- push lena through net :)
res = n:forward(image.rgb2y(image.lena()))
-- res here is a 16x501x501 volume. We view it now as 16 separate sheets of size 1x501x501 using the :view function
res = res:view(res:size(1), 1, res:size(2), res:size(3))
itorch.image(res)
詳細: https://github.com/torch/tutorials/blob/master/1_get_started.ipynb