以前は、相関する機能を使用shap
して重回帰の機能の重要性を判断していました。
import numpy as np
import pandas as pd
from sklearn.linear_model import LinearRegression
from sklearn.datasets import load_boston
import shap
boston = load_boston()
regr = pd.DataFrame(boston.data)
regr.columns = boston.feature_names
regr['MEDV'] = boston.target
X = regr.drop('MEDV', axis = 1)
Y = regr['MEDV']
fit = LinearRegression().fit(X, Y)
explainer = shap.LinearExplainer(fit, X, feature_dependence = 'independent')
# I used 'independent' because the result is consistent with the ordinary
# shapely values where `correlated' is not
shap_values = explainer.shap_values(X)
shap.summary_plot(shap_values, X, plot_type = 'bar')
shap
シャープ値を取得するためのチャートを提供します。利用可能な統計もありますか?正確なシャープ値に興味があります。Github リポジトリとドキュメントを読みましたが、このトピックに関して何も見つかりませんでした。