Skip to content

アプリケーション内で をクリックすると、お使いのDataRobotバージョンに関する全プラットフォームドキュメントにアクセスできます。

バイアスと公平性の概要

DataRobotでは、バイアスはさまざまな母集団(またはグループ)におけるモデル予測の差を表します。一方、公平性とはモデルのバイアスを表す指標です。 具体的には、二値分類モデルの公平性を計算し、モデルの予測動作のバイアスを特定する方法を提供します。

モデリングにおける公平性指標は、データ内のグループごとにモデルの動作がどのように異なるかを示します。 それらのグループは、人々のグループを指定する場合、人種、性別、年齢、退役軍人の地位など、保護された、つまりセンシティブな特性によって識別されることがあります。

AIシステムにおけるバイアスの最大の原因は、トレーニングに使用したデータです。 そのデータには、過去のバイアスのパターンが結果に組み込まれている可能性があります。 また、バイアスは過去のプロセスそのものではなく、データの収集やサンプリングの方法において事実が誤って伝わることで生じる場合もあります。

DataRobotでバイアス軽減を有効にするための設定やツールへのリンクは、インデックスをご覧ください。

その他のリソース


更新しました December 21, 2022