問題タブ [xgboost]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - xgboost: AttributeError: 'DMatrix' オブジェクトに属性 'handle' がありません
その部分は他のデータセットでかなりうまく機能したため、問題は本当に奇妙です。
完全なコード:
最後の行により、以下のエラーが発生します (完全な出力が提供されます)。
ここで何が問題なのですか?それを修正する方法がわかりません
UPD1: 実際、これは kaggle の問題です: https://www.kaggle.com/insaff/bnp-paribas-cardif-claims-management/xgboost
r - R で xgboost の num_classes を理解する
xgboost の num_classes を正しく設定する方法を理解するのに苦労しています。
アイリスデータを使用した例があります
これはエラーを返します
num_class を 2 に変更すると、同じエラーが発生します。num_class を 4 に増やすと、モデルは実行されますが、600 の予測確率が返されます。これは、4 つのクラスに対して意味があります。
エラーを起こしているのか、xgboost の仕組みを理解できていないのかわかりません。どんな助けでも大歓迎です。
machine-learning - スパースバイナリ行列によるバイナリ分類
私の犯罪分類データセットには、 などの指標機能がありますhas_rifle
。
仕事は、データポイントが犯罪者かどうかを訓練して予測することです。メトリックは加重平均絶対誤差であり、その人物が犯罪者であり、モデルが犯罪者ではないと予測した場合、重みは のように大きくなり5
ます。人が犯罪者ではなく、モデルが犯罪者であると予測した場合、体重は1
です。それ以外の場合、モデルは weight で正しく予測し0
ます。
classif:multinom
でメソッドを使用mlr
しR
、しきい値を に調整しました1/6
。結果はそれほど良くありません。Adaboost
少し良いです。どちらも完璧ではありませんが。
スパース{0,1}
行列を使用したこの種のバイナリ分類問題で通常使用される方法はどれですか? また、加重平均絶対誤差メトリックによって測定されたパフォーマンスを改善するにはどうすればよいでしょうか?
python - clang: error: : errorunsupported オプション '-fopenmp' on Mac OSX El Capitan building XGBoost
次の手順に従って、Python 用のXGBoostパッケージをビルドしようとしています。
OpenMP 対応コンパイラを使用して XGBoost をインストールするための完全なソリューションを次に示します。によって openmp をサポートする gcc-5.xx を入手し
brew install gcc --without-multilib
ます。(brew は OS X の apt-get の事実上の標準です。したがって、HPC を個別にインストールすることはお勧めしませんが、動作するはずです。):
このエラーは、コマンドで正確に発生しますmake -j4
。
前に検索して、すべてを台無しにすることを恐れて別のgccをインストールする部分を除いて、これら2つのソリューション( 1および2 )を試しましたが、役に立ちませんでした。
以下はmake
設定ファイルです。疑わしいものは何もありません。
python - xgboost とその sklearn の統合 feature_importances_ error
XGBoost
とそのsklearn
ラッパーを使用しています。
印刷しようとfeature_importances_
すると、次のエラーが表示されます。
ValueError: 基数 10 の int() の無効なリテラル
コードを掘り下げると、feature_importances_
プロパティが元のブースターから(空の params で)get_fscore
メソッドを呼び出していることがわかりました。このメソッドは、次のような形の辞書を明示的に返します。
そのため、キーに変換をfeature_importances_
適用することを考慮すると、エラー メッセージの根拠が明らかになります。int
したがって、ここでの私の質問は 2 つあります。
1-これはバグなので、報告する必要がありますか (または、修正してプルをリクエストする必要がありますか)?
2-get_fscore
関数とそのfmap
パラメーターに欠けているものはありますか?
python - 64 ビット mingw g++ を使用して xgboost をビルドすると失敗する
64 ビット Windows 10 で Anaconda Python 3.x 用に xgboost をコンパイルしたいので、こちらの手順に従いました - https://xgboost.readthedocs.org/en/latest/build.html#building-on-windowsおよびhere - xgboost を python の下にインストールし、64 ビットの msys が失敗します。64 ビットの mingw g++ を使用して、mingw64.mk を使用して「make -j4」を実行すると、次のエラー メッセージが表示されました。
何が起こっているのか、どうすれば解決できるのか教えてください。
どうもありがとう。