5

以前は、相関する機能を使用shapして重回帰の機能の重要性を判断していました。

import numpy as np
import pandas as pd  
from sklearn.linear_model import LinearRegression
from sklearn.datasets import load_boston
import shap


boston = load_boston()
regr = pd.DataFrame(boston.data)
regr.columns = boston.feature_names
regr['MEDV'] = boston.target

X = regr.drop('MEDV', axis = 1)
Y = regr['MEDV']

fit = LinearRegression().fit(X, Y)

explainer = shap.LinearExplainer(fit, X, feature_dependence = 'independent')
# I used 'independent' because the result is consistent with the ordinary 
# shapely values where `correlated' is not

shap_values = explainer.shap_values(X)

shap.summary_plot(shap_values, X, plot_type = 'bar')

ここに画像の説明を入力

shapシャープ値を取得するためのチャートを提供します。利用可能な統計もありますか?正確なシャープ値に興味があります。Github リポジトリとドキュメントを読みましたが、このトピックに関して何も見つかりませんでした。

4

1 に答える 1