問題タブ [hyperparameters]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
1705 参照

r - rキャレットでのランダム検索

trainControl()私は最近、キャレットのFunktionでランダム検索オプションに出くわしました。キャレットはどのようにパラメーターを生成しますか? また、ある種のユーザー固有の入力 (パラメーターがサンプリングされる分布など) を提供する方法はありますか? ウェブサイトで、私はこの引用だけを見つけました:

キャレットに含まれる組み込みモデルには、ランダムな調整パラメーターの組み合わせを生成するコードが含まれています

たとえば、mxnetキャレットとランダム検索を試しました。

このコードを使用して、キャレットは第 1 層のニューロン数と他のパラメーター (学習率、運動量、ドロップアウト、繰り返し) の妥当な値をサンプリングしましたが、第 2/第 3 層をゼロに一定に保ちます。[25, 150] などの均一な分布で 3 つのレイヤーすべてをサンプリングするようにキャレットに指示する方法はありますか?

0 投票する
2 に答える
8901 参照

python - Pyspark - ParamGridBuilder で作成されたモデルのすべてのパラメーターを取得する

Kaggle コンペティションに PySpark 2.0 を使用しています。RandomForestさまざまなパラメータに応じたモデル ( ) の動作を知りたいです。ParamGridBuilder()単一のパラメーターに異なる値を指定してから、パラメーターのセット全体のデカルト積を実行することができます (私は推測します)。DataFramemyが既に定義されていると仮定します。

これで、手作りの関数で簡単な情報を取得できるようになりました。

今、私はいくつかのことが欲しいです:

  • 最良のモデルのパラメータは? この投稿は、次の質問に対する部分的な回答です: How to extract model hyper-parameters from spark.ml in PySpark?
  • すべてのモデルのパラメータは?
  • 各モデルの結果 (再現率、精度など) は? 各モデルの精度を含むリストが表示される(ように見える)ことだけがわかりましprint(model.validationMetrics)たが、どのモデルを参照すればよいかわかりません。

これらの情報をすべて取得できれば、グラフや棒グラフを表示したり、Panda やsklearn.

0 投票する
1 に答える
178 参照

java - H2O の GridSearch API

H2OGridSearchの Scala 内で APIを使用しようとしています。R と Python で何をすべきかを示すこのドキュメントを見つけましたが、Java のドキュメントは実際に最適なモデルを取得する前に停止します。誰か最後の数行教えてくれませんか?与えられた IE では、どのようにして最適なハイパーパラメータの組み合わせまたは最適なモデルを取得できますか?Grid<MP>

編集

これまでのコードは次のようになります (これは Scala にありますが、明らかに H2O 内の Java コードを呼び出しています)。

重要な問題は、最後の 2 行の書き方がわからないことです。

だから、掘り下げた後、私は好きではないこの解決策を思いついたが、それはうまくいく

0 投票する
0 に答える
146 参照

libsvm - SVM のグリッド検索はいつ行うべきですか?

3D 医用画像セグメンテーションに LibSVM を使用しています。15 例の患者のデータセットがあります。すべての患者のケースから、ランダムに 1000 個のボクセルをサンプルとして選択します。15回の学習テストがあるように、患者のケースにはLeave-one-out交差検証を使用します。

学習テストの各手順では、グリッド検索法を使用して、最適なハイパーパラメーター C とガンマを見つけます。ただし、グリッド検索には処理時間が非常にかかるため、トレーニングとテストを行うためにより多くのサンプルを使用することはできません。

私の質問は、最適なハイパーパラメーターを見つけるためにいつグリッド検索を行うべきですか?

機能の組み合わせを変更した後、グリッド検索をやり直すだけでよいと、友人から言われました。しかし、私はそれについて安全だとは感じていません。15 回の学習テストでも、トレーニング サンプルの 1/14 部分の違いだけで、最良の C とガンマのさまざまなペアが得られるからです。

一方、オーバーフィッティングについて考えると、訓練データセットから取得した最適なハイパーパラメータを正確に使用する必要があるかどうか疑問に思っています。時間のかかるグリッド検索をやり直すのではなく、以前と少し異なる実験で取得したハイパーパラメータを使用できますか?

0 投票する
1 に答える
1070 参照

python-2.7 - python scikit-learn grid-searchメソッドを実行すると無効なパラメータエラーが発生する

scikit-learn の GridSearchCV() メソッドを使用して、決定木分類子で最適なハイパーパラメーターを見つける方法を学習しようとしています。

問題は、パラメーターのオプションを 1 つだけ指定していれば問題ないことです。次のように問題ありません。

結果:

しかし、別のパラメーターのオプションをミックスに追加すると、次のように「無効なパラメーター」エラーが表示されます。

結果:

0 投票する
1 に答える
405 参照

r - グリッド検索結果からエポックハイパーパラメータを決定する方法

ハイパー パラメーターの 1 つとしてエポックを使用して、グリッド検索を実行しました。最適なモデルを選択した後、この特定のモデルに選択されたエポックをどのように判断できますか?

以下はモデルの概要です モデルの詳細: ==============

0 投票する
0 に答える
632 参照

optimization - scikit を使用した Nested Leave One Subject Out (LOSO) 相互検証

ネストされたクロス検証の実装に苦労しています。

私はこの質問を読みましたが、何か違うことをしようとしています: sklearn で StratifiedShuffleSplit を使用したネストされたクロス検証

私のデータ: 26 の科目 (クラスごとに 13) x 6670 の機能があります。特徴削減アルゴリズム (Boruta について聞いたことがあるかもしれません) を使用して、データの次元を削減しました。ここから問題が始まります。LOSO を外部パーティショニング スキーマとして定義しました。したがって、26 の cv フォールドのそれぞれについて、特徴削減のために 24 の被験者を使用しました。これにより、各 cv フォールドで異なる数の機能が発生します。ここで、cv フォールドごとに、ハイパーパラメーターの最適化 (rbf カーネルを使用した SVM) に同じ 24 のサブジェクトを使用したいと考えています。

これは私がしたことです:

ただし、次のエラー メッセージが表示されました:インデックス 25 はサイズ 25 の範囲外です

どんな助けでも本当に感謝します