二元分类中的特征重要性并仅提取其中一类的SHAP值

假设我们有一个二元分类问题,我们有两个类别 1 和 0 作为我们的目标。我的目标是使用树分类器来预测给定特征的 1 和 0。此外,我可以使用 SHAP 值对预测 1 和 0 的特征重要性进行排名。到现在为止一切都很好!

现在假设我想知道仅预测 1 的特征的重要性,那里推荐的方法是什么?我可以将我的数据分成两部分(名义上:)df_tot = df_zeros + df_onesdf_ones在我的分类器中使用,然后为此提取 SHAP 值,但是这样做目标将只有 1,因此模型并没有真正学会分类任何东西。所以我想知道如何解决这样的问题?

回答

让我们准备一些二进制分类数据:

from seaborn import load_dataset
from sklearn.model_selection import train_test_split
from lightgbm import LGBMClassifier
import shap

titanic = load_dataset("titanic")
X = titanic.drop(["survived","alive","adult_male","who",'deck'],1)
y = titanic["survived"]

features = X.columns
cat_features = []
for cat in X.select_dtypes(exclude="number"):
    cat_features.append(cat)
#   think about meaningful ordering instead
    X[cat] = X[cat].astype("category").cat.codes.astype("category")

X_train, X_val, y_train, y_val = train_test_split(X,y,train_size=.8, random_state=42)

clf = LGBMClassifier(max_depth=3, n_estimators=1000, objective="binary")
clf.fit(X_train,y_train, eval_set=(X_val,y_val), early_stopping_rounds=100, verbose=100) 

要回答您的问题,要在每个类的基础上提取 shap 值,可以按类标签对它们进行子集化:

explainer = shap.TreeExplainer(clf)
shap_values = explainer.shap_values(X_train)
sv = np.array(shap_values)
y = clf.predict(X_train).astype("bool")
# shap values for survival
sv_survive = sv[:,y,:]
# shap values for dying
sv_die = sv[:,~y,:]

然而,一个更有趣的问题是你可以用这些值做什么。

一般来说,可以通过查看summary_plot(针对整个数据集)获得有价值的见解:

shap.summary_plot(shap_values[1], X_train.astype("float"))

解读(全球):

  • 性别、pclass 和年龄是决定结果的最有影响的特征
  • 身为男性、较不富裕且年龄较大,生存机会减少

全球最具影响力的前 3 个特征可以提取如下:

idx = np.abs(sv[1,:,:]).mean(0).argsort()
features[idx[:-4:-1]]
# Index(['sex', 'pclass', 'age'], dtype='object')

如果您想在每个班级的基础上进行分析,您可以单独为幸存者 ( sv[1,y,:])执行此操作:

# top3 features for probability of survival
idx = sv[1,y,:].mean(0).argsort()
features[idx[:-4:-1]]
# Index(['sex', 'pclass', 'age'], dtype='object')

对于那些没有幸存下来的人(sv[0,~y,:])也是如此:

# top3 features for probability of dieing
idx = sv[0,~y,:].mean(0).argsort()
features[idx[:3]]
# Index(['alone', 'embark_town', 'parch'], dtype='object')

请注意,我们在这里使用平均 shap 值,并表示我们对幸存者的最大值和非幸存者的最小值感兴趣(最低值,接近 0,也可能意味着根本没有恒定的单向影响)。在 abs 上使用 mean 也可能有意义,但无论方向如何,解释都将是最有影响力的。

要做出有根据的选择,无论是偏爱腹肌手段还是腹肌手段,都必须了解以下事实:

  • shap 值可以是正值也可以是负值
  • shap 值是对称的,并且增加/减少一类的概率会以相同的量减少/增加另一类的概率(由于 p? = 1 - p?)

证明:

#shap values
sv = np.array(shap_values)
#base values
ev = np.array(explainer.expected_value)
sv_died, sv_survived = sv[:,0,:] # + constant
print(sv_died, sv_survived, sep="n")
# [-0.73585563  1.24520748  0.70440429 -0.15443337 -0.01855845 -0.08430467  0.02916375 -0.04846619  0.         -0.01035171]
# [ 0.73585563 -1.24520748 -0.70440429  0.15443337  0.01855845  0.08430467 -0.02916375  0.04846619  0.          0.01035171]

很可能你会发现性别和年龄对幸存者和其他幸存者都起着最有影响的作用;因此,与其分析每个类别最有影响力的特征,不如看看是什么让两个性别和年龄相同的乘客幸存下来而另一个没有(提示:在数据集中找到这样的案例,提供一个作为背景,以及分析另一个类别的 shap 值,或者尝试分析一个类别与另一个类别作为背景)。

您可以使用dependence_plot(在全局或每个类的基础上)进行进一步分析:

shap.dependence_plot("sex", shap_values[1], X_train)

解读(全球):

  • 男性的存活概率较低(shap 值较低)
  • pclass(富裕)是未来最有影响力的因素:更高pclass(少富裕)女性和减少的生存机会,反之亦然男性

以上是二元分类中的特征重要性并仅提取其中一类的SHAP值的全部内容。
THE END
分享
二维码
< <上一篇
下一篇>>