問題タブ [neupy]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
105 参照

python - Oja ルールで memmap を使用して RAM をクラッシュさせる

サイズ 400x156300 のデータセットで oja のルールを使用しています。RAMがクラッシュするようです。何が原因なのかわかりません。助けてください。私は12GBのRAMを持っています。memmap を使用しようとしましたが、それでもクラッシュします!!

また、提起された問題: https://github.com/itdxer/neupy/issues/27。パッケージ開発が活発かどうかわかりません。

RAM のクラッシュとは、RAM の使用率が 100% を超え、コンピューターが応答しなくなることを意味します。

0 投票する
1 に答える
690 参照

python - 880 行目、load_eof で dill を使用してロードしようとすると EOFError EOFError が発生する

私はPythonと機械学習にかなり慣れていません。neupy ライブラリを使用して、ニューラル ネットワークを正常に作成しています。ただし、まともなネットワークができたので、それを保存したいと思います。ドキュメントには、これを行うために dill ライブラリを使用する方法が示されています。ネットワークはファイルに正しく書き込みますが、使用するファイルをロードしません。コードが正しく実装された後にスクリプトを分離する必要があるため、コードが繰り返されます。指定されたとおりにコードをコピーしました(http://neupy.com/docs/storage.html

私のコードは次のとおりです。

生成されるエラーは次のとおりです。

私が選択した変数表記が原因で、複数回ループして問題が発生している可能性はありますか? または、保存するものが多すぎる可能性がありますか?

0 投票する
1 に答える
3070 参照

python - Python、確率的ニューラル ネットワーク (PNN) が常にゼロを予測するのはなぜですか?

Linux CentOS 7 マシンで Python 2.7.5 を使用しています。二項分類問題を解決するために、データセットに確率的ニューラル ネットワーク (PNN)を適用しようとしています。

次の Python パッケージを使用しています: numpy、sklearn、neupy.algorithms。iris dataset に使用されるこの例に従おうとしています。

問題は、私のPNN が常にゼロ値(ゼロとして分類される要素) を予測することであり、その理由がわかりません...

これが私のデータセット ("dataset_file.csv") です。34 の特徴と 1 つのラベル ターゲットがあります (最後の列、0 または 1 の可能性があります)。

そして、ここに私のPythonコードがあります:

値が 0 の予測しか得られない理由を知っている人はいますか? この問題を解決するための提案をしてもらえますか?

ありがとう!

編集:これは正規化されたデータセットです(列で正規化されています):

0 投票する
0 に答える
142 参照

neural-network - Neupy カスタムアクティベーション機能

Neupy の MNIST の例に基づいて、カスタム アクティベーション レイヤー ベースを作成しようとしています。ただし、カスタム レイヤーをネットワークに適用すると、トレーニングが停止します。私のカスタム関数では、ReLU 関数と Softmax 関数の両方で、浮動小数点値から固定小数点値への入力値を作成したいと考えています。したがって、浮動小数点値を固定小数点値に変更するのに役立つ関数呼び出し「float_limit」を作成します。私の最初のアイデアは、float_limit 関数内で int() 関数を使用することです。ただし、int() はテンソル変数に使用できないため、型エラーが表示されます。そこで、int() 関数を T.floor() に変更します。これは、int() と同じ作業を行うことができます。float_limit() を適用した後、ReLU 関数は正常に動作します。しかし、softmax 関数を適用すると、ネットワークはトレーニングを停止します。どうすればこの問題を解決できますか?

これは私のコードです: