Skip to content

アプリケーション内で をクリックすると、お使いのDataRobotバージョンに関する全プラットフォームドキュメントにアクセスできます。

SHAPリファレンス

SHAP(SHapley Additive exPlanations)は、精度と説明可能性のジレンマに対処するために使用されるオープンソースのアルゴリズムです。 SHAPは、ノーベル賞を受賞した経済学者Lloyd Shapleyによる協力ゲーム理論のフレームワークであるShapley値に基づきます。 The values are a unified measure of feature importance and are used to interpret predictions from machine learning models. SHAP values not only tell us about the importance of a feature, but also about the direction of the relationship (positive or negative).

The SHAP values of a feature sum up to the difference between the prediction for the instance and the expected prediction (averaged across the dataset). If we consider a model that makes predictions based on several input features, the SHAP value for each feature would represent the average marginal contribution of that feature across all possible feature combinations.

To understand the origination of the project:

Lloyd Shapleyはこう尋ねました。各メンバーがさまざまな貢献をした協力チーム間で支払いをどのように分割すべきでしょうか。

Shapley値は次のような答えを提供します。

  • メンバーXのShapley値はメンバーが取得するクレジットの量です。
  • 各サブチームにおいて、メンバーXがサブチームに参加すると、どれだけの限界価値が追加されるでしょうか。Shapley値は、この限界価値の加重平均です。
  • 支払い総額は、メンバーのShapley値の合計です。

Scott Lundbergは、SHAP Pythonパッケージの主な作者であり、予測を説明するプログラミング手法を提供しています。

モデル予測のクレジットを特徴量で分割することが可能です!

特徴量の各値がゲームの「プレーヤー」であると想定すると、予測は支払いになります。 SHAPは、「支払い」を特徴量間で公平に配分する方法を説明します。

SHAPは、以下を開発したSHAPオープンソースパッケージのおかげで人気が高まっています。

  • フリーアンサンブル法のための高速正確アルゴリズム「TreeExplainer」。
  • ディープラーニングモデル用の高速近似アルゴリズム「DeepExplainer」。
  • Several model-agnostic algorithms to estimate Shapley values for any model (including "KernelExplainer" and "PermutationExplainer").

SHAPの以下の主要なプロパティは、DataRobot機械学習に特に適しています。

  • ローカル精度:特徴量の属性の合計は、DataRobotが「説明」するモデルの出力に等しくなります。
  • 欠損:すでに欠損している特徴量のインパクトはありません。
  • 一貫性:特徴量のモデルへの有用性が大きくなるようにモデルを変更しても、その特徴量に割り当てられているSHAP属性が減少することはありません。 (たとえば、モデルAは特徴量Xを使用します。 次に、特徴量Xをより多く使用する新しいモデルBを作成します(おそらく、その特徴量の係数を2倍にし、他はすべては同じに保持して)。 SHAPの品質の一貫性により、モデルBの特徴量XのSHAP有用性は、少なくともモデルAの特徴量Xの場合と同じくらい高くなります。)

追加の資料を以下に示します。

SHAPは、モデルの説明可能性に次のように貢献します。

  • 特徴量のインパクト:SHAPは、モデルの決定を促進している特徴量を高レベルで示します。 SHAPがない場合、結果はサンプルサイズの影響を受けやすく、サンプルが非常に大きい場合を除き、再計算すると変化する可能性があります。 ディープダイブを参照してください。

  • 予測の説明:すべての列の結果を生成するのに適さない特定のタイプのデータがあります。 これは、銀行や保険など規制の厳しい業界では特に問題になります。 SHAPは、特定の予測が平均と異なる予測において各特徴量の責任の割合を説明します。 たとえば、Xドルで販売されると予測された不動産レコードがある場合、SHAP予測の説明は、各特徴量がその価格にどれだけ貢献しているかを示します。

  • 特徴量ごとの作用:

    • For Workbench, Feature Effects always uses Permutation Feature Impact.
    • For DataRobot Classic, SHAP does not change the Feature Effects results. 予測、実測値、および部分依存プロットは、SHAPをまったく使用しません。 ただし、左側の棒グラフは、通常のPermutationベースの特徴量のインパクトではなく、SHAPベースの特徴量のインパクトの順に並べられています。

備考

SHAPベースの特徴量のインパクトまたは予測の説明を可視化された形で取得するには、モデル構築前に高度なオプションのSHAP値をサポートするモデルのみを含めるを有効にする必要があります。

特徴量のインパクト

特徴量のインパクトは、モデルによって使用される各特徴量(j)に有用性を割り当てます。

SHAPベース

モデルといくつかの観測値(トレーニングデータで最大5000行)が提供された場合、各特徴量jに対する特徴量のインパクトは次のように計算されます。

     abs(shap_values for feature j)のサンプル平均

上位の特徴量のインパクトが100%になるように値を正規化します。

Permutationベース

モデルといくつかの観測値(既定では2500、最大100,000)が提供された場合、実際のデータに基づいてモデルの指標を計算します。 各列jに対して以下の処理を行います。

  • jの値にPermutationを実行します。
  • Permutationが行われたデータで指標を計算します。
  • 有用性 = metric_actual - metric_perm

(オプション)最大の結果値で正規化します。

予測の説明

SHAP予測の説明は加法性です。 SHAP値の合計は、次の値と完全に等しくなります。

    [prediction - average(prediction)]

DataRobot Classic only (Workbench is SHAP-only) When selecting between XEMP and SHAP, consider your need for accuracy versus interpretability and performance. XEMPでは、すべてのブループリントがオートパイロットに含まれているので、結果の精度はわずかに高くなる可能性があります。 しかし、SHAPはすべての主要なブループリントをサポートするので、これはすべてのケースに当てはまるわけではなく、精度が同じであることがあります。 SHAPは、より高い解釈性とパフォーマンスを提供します。

  • 結果は直感的です。
  • SHAPはすべての機能に対して計算されます
  • 多くの場合、結果は5〜20倍速く返されます。
  • SHAPは加法性
  • オープンソースの特性は透明性を提供します

予測の説明における加法性

場合によっては、SHAP値が予測に加算されないことがあります。 これはSHAP値が直接モデル出力の単位において加法性であり、いくつかの理由で予測の単位とは異なる場合があるからです。

  • ほとんどの二値分類問題では、SHAP値は確率空間とは異なるスケール[0,1]に対応します。 これは、これらのアルゴリズムが(最も一般的にはロジスティック関数prob = logistic(y)のような非線形関数を使用して)直接出力yを常に0と1の間の値にマッピングすることに起因します。 (専門用語では、モデルの「リンク関数」はlogit(p)で、logistic(y)の逆です。) この一般的な状況では、SHAP値は、最終確率空間ではなく、リンク前の「マージンスペース」で加算されます。 これはsum(shap_values) = logit(prob) - logit(prob_0)を意味します。ここでprob_0はモデルの予測のトレーニング平均です。

  • 歪んだターゲットを含む連続値問題は自然対数log()を同様のリンク関数として使用する場合があります。

  • モデルは(リンクの前に適用される)オフセットおよび(リンクの後に適用される)エクスポージャーを指定している場合があります。

  • モデルは、その予測を「制限」または「監査」します(それらを負以外の値に強制するなど)。

次の疑似コードは、これらのケースで加法性を検証するために使用できます。

# shap_values = output from SHAP prediction explanations
# If you obtained the base_value from the UI prediction distribution chart, first transform it by the link.
base_value = api_shap_base_value or link_function(ui_shap_base_value)
pred = base_value + sum(shap_values)
if offset is not None:
    pred += offset
if link_function == 'log':
    pred = exp(pred)
elif link_function == 'logit:
    pred = exp(pred) / (1 + exp(pred))
if exposure is not None:
    pred *= exposure
pred = predictions_capping(pred)
# at this point, pred matches the prediction output from the model 

どのモデルにどの説明子が使用されますか?

SHAPをサポートするブループリント内では、各モデリング頂点は、モデルタイプに最も適したSHAP explainerを使用します。

  • ツリーベースのモデル(XGBoost、LightGBM、Random Forest、決定木):TreeExplainer
  • Kerasディープラーニングモデル:DeepExplainer
  • 線形モデル:LinearExplainer

If a blueprint contains more than one modeling task, the SHAP values are combined additively to yield the SHAP values for the overall blueprint. If a blueprint does not work with the type-specific explainers listed above, then SHAP explanations are provided by the model-agnostic PermutationExplainer.

SHAP互換性行列

SHAPでのブループリントのサポートについては、以下を参照してください。

ブループリント 連続値 二値分類 OTV 予測サーバー
線形モデル
XGBoost
LightGBM
Keras
Random Forest x x x x
浅いランダムフォレスト
頻度コスト/強度 N/A N/A
スタック/ブーストされたブループリント
校正ありのブループリント
アンサンブル x x x x
sklearn GBM x x
DataRobotスコアリングコードモデル x x x x

どのモデルにどの説明子が使用されますか?

SHAPをサポートするブループリント内で、各モデリング頂点は、最も一般的なSHAP Explainerを使用します。 以下のモデルタイプに適しています。

  • ツリーベースのモデル(XGBoost、LightGBM、Random Forest、決定木):TreeExplainer
  • Kerasディープラーニングモデル:DeepExplainer
  • 線形モデル:LinearExplainer

ブループリントに複数のモデリングタスクが含まれている場合、SHAP値は次のようになります。 加算的に組み合わせて、全体的なブループリントのSHAP値を生成します。

その他の資料

以下の公開情報には、オープンソースのSHAPに関する追加情報が記載されます。


更新しました May 2, 2024