問題タブ [xgboost]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python-2.7 - 64 ビット msys が失敗する Python に xgboost をインストールする
anaconda python を使用して xgboost をインストールしたいと考えています。このプロセスでは、xgboost をインストールしようとしています。xgboost を「作成」しようとすると、次のエラーが発生します。
他のスタック オーバーフローの投稿から、私が使用している 64 ビットのアナコンダには 32 ビットの gcc を使用できないことがわかりました。ただし、mingw-w64 をインストールすると、mingw-w64 ではなく mingw32 のみに g++ があることがわかりました。mingw-w64 パッケージでは、g++ およびその他のアプリケーション + フォルダーは mingw32 のみに存在し、64 には存在しません。mingw-64 の場合、バッチ ファイルとインターネット ショートカットのみが存在します。
何が問題なのか、または mingw-64 をダウンロードできる適切な場所を教えてください。
前もって感謝します。
python - xgboost predict メソッドは、すべての行に対して同じ予測値を返します
Python で xgboost 分類子を作成しました。
train は、10 万行と 50 個の機能を列として持つ pandas データフレームです。対象はパンダシリーズ
ただし、トレーニング後、この分類器を使用して値を予測すると、結果配列全体が同じ数値になります。なぜこれが起こっているのでしょうか?
データの明確化: ~50 の数値的特徴と数値目標
RandomForestRegressor
同じデータを使用して sklearn からも試してみましたが、現実的な予測が得られます。おそらく xgboost 実装の正当なバグでしょうか?
r - xgboost カバーはどのように計算されますか?
RパッケージのCover
列が関数でどのように計算されるかを誰かが説明できますか?xgboost
xgb.model.dt.tree
ドキュメントでは、Coverは「分割によって影響を受ける観測の数を測定するためのメトリックです」と記載されています。
xgboost
この関数のドキュメントに記載されている次のコードを実行するとCover
、ツリー 0 のノード 0 は 1628.2500 になります。
列車のデータセットには 6513 の観測があるのでCover
、ツリー 0 のノード 0 がこの数の 4 分の 1 (1628.25) である理由を誰か説明できますか?
また、Cover
ツリー 1 のノード 1 は 788.852 です。この数値はどのように計算されますか?
どんな助けでも大歓迎です。ありがとう。
tree - XGBoost - 学習率
XGBoost を使用して実験を行っています。反復回数を 1000 に設定すると、妥当な結果が得られます。
私が何か違うことをしようとしたよりも:
1000回の反復を実行する代わりに、100回の反復を実行したいと思います。これを10回繰り返します(合計でも1000回の反復)。この 10 ステップの間に、target_learn = target_learn - target_fitted (前のステップから) をセットアップしました。
そして、target_fitted = target_fitted + 予測よりも
Target_fitted 予測は、すべてのデータセットに対するテスト セットのクロス検証によって得られます。
異なる結果が得られました - 非常に精度が悪いです。
200回実行された5回の反復のみを実行するよりもはるかに...さらに悪い..
私がこれをやろうとしている理由は、反復中に学習マトリックスを変更したいからです (少し繰り返し何かをしようとしています)。
結果が異なる理由は何ですか...各ステップの最初の反復は何か違うように思われるので、モデルでこの反復を何度も行っているため、精度が低下しています...
他のパラメータは同じです..
または多分私は何かを完全に見逃しています..?どうも
r - Rを使用したXGBoost、nthreadは無視されますか?
R自体がシングルスレッドであることは知っていますが、XGboostにはパラメーターnthreadがあり、xgboostが処理に使用するスレッドの数を制御する必要があると思われます。ただし、どのように設定しても、使用されているコアは 1 つだけです。
並行して実行するために何をする必要がありますか?
python - xgboost ML モデルの get_fscore() は何をしますか?
数値の計算方法を知っている人はいますか? ドキュメントには、この機能は「各機能の機能重要度を取得する」と記載されていますが、結果をどのように解釈するかについての説明はありません。
xgboost - 「rank:pairwise」を使用した XGboost の出力は何ですか?
XGBoost の Python 実装を使用します。目的の 1 つはrank:pairwise
、ペアワイズ損失を最小限に抑えることです ( Documentation )。ただし、出力の範囲については何も述べていません。-10~10の間の数字が見えますが、原則として-inf~infでいいのでしょうか?
r - R: 並列バックエンドを使用する場合、caret は PSOCKcluster のマスター ノードを使用しません
並列バックエンドを使用して、ハイパーパラメーターのグリッドでモデルcaret
をトレーニングしようとしています。xgboost
Give Me Some Creditcaret
データを使用して、のハイパーパラメータ グリッド検索用の並列バックエンドを設定するコードを次に示します。
上のすべてのコアがhosts
トレーニングに使用されていることを確認しましたが、master
ノードではプロセスが使用されていません。これは予想される動作ですか?この動作を変更し、処理のためにマスター ノードのコアを活用する方法はありますか?
r - Rでxgboostパッケージを使用してマルチクラス分類の出力を解釈するには?
私は XGBOOST のパッケージを初めて使用します。複数クラスの分類問題に使用したいと考えています。
現在、30 個のクラス (またはラベル) があり、それらを整数 (0 ~ 29) に変換しました。次に、データ セットに対して XGBOOST パッケージの xgboost() メソッドを実行します。モデルを構築したら、predict() メソッドを使用して新しいテスト データを予測します。最後に、最終出力として数値のベクトルを取得しました。ところで、すべての数字は 0 から 1 の間です。
では、出力をどのように解釈できますか? その確率ですか?しかし、どのクラスに関連付けるべきかをどのように知ることができますか?
ありがとう
classification - xgboost パッケージを使用した分類モデル
xgboost モデルの有効な引数として、文字を因子変数 (例: "A" "B" "C") に変換し、さらに数値因子変数 (例: "0" "1" "2") に変換しました。数値因子を因子変数に戻すには、どの関数を使用できますか? 分類モデルで使用する必要があります。