バイアスと公平性の概要¶
DataRobotでは、バイアスはさまざまな母集団(またはグループ)におけるモデル予測の差を表します。一方、公平性とはモデルのバイアスを表す指標です。 具体的には、二値分類モデルの公平性を計算し、モデルの予測動作のバイアスを特定する方法を提供します。
モデリングにおける公平性指標は、データ内のグループごとにモデルの動作がどのように異なるかを示します。 それらのグループは、人々のグループを指定する場合、人種、性別、年齢、退役軍人の地位など、保護された、つまりセンシティブな特性によって識別されることがあります。
AIシステムにおけるバイアスの最大の原因は、トレーニングに使用したデータです。 そのデータには、過去のバイアスのパターンが結果に組み込まれている可能性があります。 また、バイアスは過去のプロセスそのものではなく、データの収集やサンプリングの方法において事実が誤って伝わることで生じる場合もあります。
DataRobotでバイアス軽減を有効にするための設定やツールへのリンクは、インデックスをご覧ください。
その他のリソース¶
-
ブログ記事:信頼できるAIの一条件 — バイアスと公平性のリソースページで詳細をご覧いただけます。
-
Amazon Web Servicesとの提携による3部作の第1部:How to Build & Govern Trusted AI System
-
ポッドキャスト:Moving Past Artificial Intelligence To Augmented Intelligence