Skip to content

アプリケーション内で をクリックすると、お使いのDataRobotバージョンに関する全プラットフォームドキュメントにアクセスできます。

バイアスと公平性に関するリソース

バイアスと公平性機能のツールは、モデルにバイアスがないかどうかをテストします。これにより、モデルがデプロイされる前(または後)にバイアスを特定し、モデルの意思決定が組織に悪影響を及ぼす前に対策を講じることができます。より詳細な概要については、こちらをご覧ください。

バイアスと公平性機能を実行するワークフローは次のとおりです。

  • 保護された特徴量を1つ以上選択し、公平性指標を選ぶ
  • インサイトを利用して、保護された特徴量に関してモデルにバイアスがあるかどうかを判断する
  • 実稼働モデルにバイアスがないかどうか監視する

バイアスと公平性機能による操作の各ステップで使用できるツールについては、以降のセクションで説明します。公平性の指標と用語については、バイアスと公平性のリファレンスに記載されています。

トピック 説明...
設定
高度なオプション モデル構築の前に(またはモデル構築後にリーダーボードから)公平性指標を設定します。
モデルのインサイト
クラスごとのバイアス モデルにバイアスがかかっているか、かかっている場合は、どの程度、誰に対してバイアスがかかっているかを特定します。
クラス間のデータの相違 モデルにバイアスがかかっている理由と、そのバイアスをトレーニングデータのどこから学習したかを示します。
クラス別の精度 保護された特徴量の各クラスセグメントについて、モデルの精度を測定します。
バイアスと精度 予測精度と公平性のトレードオフを表示します。
デプロイ
公平性の監視 データセット内の保護された特徴量が事前に定義された公平性条件を満たさない場合、モデルがそれをリアルタイムで認識できるようにテストを設定します。
クラスごとのバイアス 各クラスの公平性のしきい値とスコアを使用して、特定のクラスでモデルの予測動作にバイアスが発生しているかどうかを判断します。
時間経過に伴う公平性 保護された特徴量の公平性スコアの分布が時間と共にどのように変化しているかを示します。
リファレンス
バイアスと公平性の概要 バイアスと公平性の簡単な概要および定義を、さらに詳しい資料へのリンクとともに示します。
バイアスと公平性のリファレンス 公平性を計算し、モデルの予測動作のバイアスを特定するために使用される方法を理解します。

更新しました April 19, 2022
Back to top