問題タブ [pycaffe]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
0 に答える
127 参照

python-2.7 - pycaffe で現在のソルバー パラメータを取得する

caffe python インターフェイスで作業しているときに、SGDsolver オブジェクトなどから現在のパラメータを取得することは可能ですか? lr_policy に応じて時間の経過とともに更新される学習率をトレースして出力したいと思います。ありがとうございました!

0 投票する
2 に答える
3392 参照

svm - Caffe を使用して CNN 特徴を抽出し、SVM を使用してトレーニングします

caffe を使用して特徴を抽出し、SVM を使用してそれらの特徴をトレーニングしたいと考えています。このリンクを確認しました: http://caffe.berkeleyvision.org/gathered/examples/feature_extraction.html。このリンクは、caffenet を使用して特徴を抽出する方法を提供します。しかし、ここでは Lenet アーキテクチャを使用したいと考えています。Lenet の次のコマンド行を変更できません。

また、特徴を抽出した後、SVM を使用してこれらの特徴をトレーニングする方法を教えてください。これにはpythonを使用したいと思います。例: このコードから機能を取得した場合:

では、独自のクラスを定義して、SVM を使用してこれらの機能をトレーニングするにはどうすればよいでしょうか?

0 投票する
2 に答える
529 参照

linux - Caffe の CPU コア使用量を制限しますか?

Caffe の CPU コア使用率を制限する方法はありますか? 私の例では、Xeon E5-2699 を使用しており、Caffe を 9 コアの使用に制限したいので、CPU の 50% を使用します。トレーニングのほとんどは GPU で行われますが、それまでの間、他の開発に取り組みたいと考えています。これを行う簡単な方法はありますか?CentOS の実行

0 投票する
2 に答える
620 参照

caffe - Caffe の多次元ラベル データ

NYU depth v2 データセットを使用して、単一の画像から深度を推定できる CNN を実装する予定です。チュートリアルを進めると、Caffe で分類問題を処理する CNN を簡単に実装できることがわかりました。Caffe が、多次元のグラウンド トゥルース (深度画像など) と回帰 (深度推定) を含むタスクに適しているかどうかに興味があります。

私が達成したいのは、深度画像を推定できる CNN をトレーニングするためのグラウンド トゥルースとして深度画像を使用することです。ラベルを単一チャネルの画像データとしてロードする必要があります。

私の問題に関連するシェルハマーによるこの回答しか見つけることができませんでしたhttps://groups.google.com/d/msg/caffe-users/JXmZrz4cCMU/mBTU1__ohg4J

入力用と深度データ用の 2 つのトップ レイヤーをグラウンド トゥルースとして定義する必要があることを理解しています。次に、損失レイヤー (EucledianLoss など) を使用して損失を計算します。以下にモデルを追加しました。

このモデルは意図したとおりに機能しますか? そうでない場合、Caffe でそれを行う他の方法はありますか?

0 投票する
1 に答える
579 参照

python - すべてのシステムユーザーに caffe をインストールする方法は?

ホームディレクトリにanacondaを使用してcaffeをインストールしましたが、動作します。ここで、他のシステム ユーザーも caffe を使用して、python ラッパーを使用して実行できるようにしたいと考えています。したがって、最初にanacondaをインストールし/opt/anaconda、このフォルダーをPATH変数に追加しました(ファイル/etc/bash.bashrcで行ったのと同様の方法で)。.bashrc次に、自分の caffe ディレクトリを にコピー/opt/caffeし、 の PYTHONPATH 変数に適切なパスを追加しました/etc/bash.bashrc

その結果、別のユーザーが python を実行した場合、彼は anaconda バージョンを正しく使用します。また、実行できますがimport caffe、実行すると、python ラッパーが protobuf ライブラリを見つけられないため、エラーが発生します。

私だけでなく、すべてのユーザーに対してすべての要件がインストールされていると思います。のコピーを使用して他のユーザーが caffe を実行できるようにするにはどうすればよい/opt/caffeですか?

前もって感謝します

0 投票する
1 に答える
2149 参照

python - Caffe での画像分類は常に同じクラスを返します

カフェでの画像分類に問題があります。作成したデータの分類に imagenet モデル (caffe チュートリアルから) を使用していますが、常に同じ分類結果 (同じクラス、つまりクラス 3) が得られます。これが私が進める方法です:

Windows には Caffe を使用し、インターフェイスとして Python を使用しています

(1) データを収集します。私のサンプル画像 (トレーニングとテスト) は、サイズが 5x5x3 (RGB) uint8 の画像であるため、そのピクセル値は 0 ~ 255 に達します。
(2) imagenet が必要とするサイズ (256x256x3) にサイズを変更します。そのため、matlab のサイズ変更機能 (最近傍補間) を使用します。
(3) LevelDB と image_mean を作成します。
(4) ネットワークをトレーニングします (3000 回の反復)。imagenet 定義で変更する唯一のパラメーターは、平均画像と LevelDB へのパスです。得られる結果は次のとおりです。

(5) Python で次のコードを実行して、単一の画像を分類します。

どの入力画像を使用しても、分類結果として常にクラス「3」が得られます。これが私がトレーニング/分類するサンプル画像です: 誰かが何が悪いのか考えてくれたらとても嬉しいです? 前もって感謝します!
ここに画像の説明を入力

0 投票する
1 に答える
782 参照

neural-network - PyCaffe を使用した全結合多層パーセプトロン

私は Caffe を初めて使用し、そのワークフローは以前に遭遇したものとは大きく異なります。、sklearn 、 (C++) を使用したことがあり、Caffe が提供するいくつかの追加機能があるため、Caffe を使用したいと考えています。しかし、ワークフローを調整するのは難しいようです。

PyCaffe を使用して、シンプルで完全に接続された MLP から始めたいと思います。N次元の入力ベクトルをフィードし、それらに対してマルチラベル分類を行いたいです。私はトレーニングデータを持っています。すべての Caffe の例は、画像 (正方行列入力) 用に記述されているようです。
また、多くの構成ファイルを使用するのではなく、プログラムでネットワークを構成することも好みます。たとえば、Keras には を使用してレイヤーを順番に積み重ねる方法がありましたadd()

Caffe で Python のみを使用して簡単なネットワークを構築することは可能ですか?

0 投票する
1 に答える
1088 参照

neural-network - deploy.prototxt を使用した Caffe でバッチ サイズが機能しない

分類プロセスを少し速くしようとしています。deploy.prototxt の最初の input_dim を増やすことを考えましたが、うまくいかないようです。各画像を 1 つずつ分類するよりも少し遅くなります。

deploy.prototxt

pythonネットの初期化

パイソン分類

詳細は省きましたが、重要なことは説明する必要があります。32、64、...、1024 など、さまざまなバッチ サイズを試しましたが、すべてほぼ同じでした。だから私の質問は、誰かが私が間違っていること、または何を変更する必要があるかを知っているかどうかです。手伝ってくれてありがとう!

編集:
いくつかのタイミング結果、平均時間は、処理された画像 (1044) で割った合計時間です。

バッチサイズ: 1

2016-05-04 10:51:20,721 - 検出器 - 情報 - データ形状: (1, 1, 120, 160)
2016-05-04 10:51:35,149 -メイン- 情報 - GPU タイミング:
2016-05-04 10:51:35,149 -メイン- 情報 - 処理された画像: 1044
2016-05-04 10:51:35,149 -メイン- 情報 - 合計時間: 14.43 秒
2016-05-04 10:51:35,149 -メイン- 情報 -平均時間: 13.82ms
2016-05-04 10:51:35,149 -メイン- 情報 - ロード時間: 8.31 秒
2016-05-04 10:51:35,149 -メイン- 情報 - 平均ロード時間: 7.96ms
2016-05-04 10:51:35,149 -メイン- 情報 - 分類時間: 5.99 秒
2016-05-04 10:51:35,149 -メイン- 情報 - 平均分類時間: 5.74ms

バッチサイズ: 32

2016-05-04 10:52:30,773 - 検出器 - 情報 - データ形状: (32, 1, 120, 160)
2016-05-04 10:52:45,135 -メイン- 情報 - GPU タイミング:
2016-05-04 10:52:45,135 -メイン- 情報 - 処理された画像: 1044
2016-05-04 10:52:45,135 -メイン- 情報 - 合計時間: 14.36 秒
2016-05-04 10:52:45,136 -メイン- 情報 -平均時間: 13.76ms
2016-05-04 10:52:45,136 -メイン- 情報 - ロード時間: 7.13 秒
2016-05-04 10:52:45,136 -メイン- 情報 - 平均ロード時間: 6.83ms
2016-05-04 10:52:45,136 -メイン- 情報 - 分類時間: 7.13 秒
2016-05-04 10:52:45,136 -メイン- 情報 - 平均分類時間: 6.83ms

バッチサイズ: 128

2016-05-04 10:53:17,478 - 検出器 - 情報 - データ形状: (128, 1, 120, 160)
2016-05-04 10:53:31,299 -メイン- 情報 - GPU タイミング:
2016-05-04 10:53:31,299 -メイン- 情報 - 処理された画像: 1044
2016-05-04 10:53:31,299 -メイン- 情報 - 合計時間: 13.82 秒
2016-05-04 10:53:31,299 -メイン- 情報 -平均時間: 13.24ms
2016-05-04 10:53:31,299 -メイン- 情報 - ロード時間: 7.06 秒
2016-05-04 10:53:31,299 -メイン- 情報 - 平均ロード時間: 6.77ms
2016-05-04 10:53:31,299 -メイン- 情報 - 分類時間: 6.66 秒
2016-05-04 10:53:31,299 -メイン- 情報 - 平均分類時間: 6.38ms

バッチサイズ: 1024

2016-05-04 10:54:11,546 - 検出器 - 情報 - データ形状: (1024, 1, 120, 160)
2016-05-04 10:54:25,316 -メイン- 情報 - GPU タイミング:
2016-05-04 10:54:25,316 -メイン- 情報 - 処理された画像: 1044
2016-05-04 10:54:25,316 -メイン- 情報 - 合計時間: 13.77 秒
2016-05-04 10:54:25,316 -メイン- 情報 -平均時間: 13.19ms
2016-05-04 10:54:25,316 -メイン- 情報 - ロード時間: 7.04 秒
2016-05-04 10:54:25,316 -メイン- 情報 - 平均ロード時間: 6.75ms
2016-05-04 10:54:25,316 -メイン- 情報 - 分類時間: 6.63 秒
2016-05-04 10:54:25,316 -メイン- 情報 - 平均分類時間: 6.35ms