Skip to content

アプリケーション内で をクリックすると、お使いのDataRobotバージョンに関する全プラットフォームドキュメントにアクセスできます。

分位点回帰分析

本機能の提供について

Quantile regression analysis is off by default. この機能を有効にする方法については、DataRobotの担当者または管理者にお問い合わせください。

機能フラグ:分位指標を有効化

一部のプロジェクトでは、ターゲット特徴量の傾向(平均値または中央値など)の予測は最大の関心事ではありません。 Some projects are more interested in predicting a conditional value (a quantile), such as an insurer that wants to be 95% confident that the loss will not exceed a specific amount.

指標と分位点レベルを設定するには:

  1. 連続値プロジェクトを開始します。 EDA1が完了したら、高度なオプションを表示をクリックし、その他を選択します。

  2. [最適化指標]ドロップダウンから、分位点損失(または加重分位点損失)指標を選択します。

  3. 分位点レベルの値を0.01から0.99の範囲で設定します(許容値は10分の1または100分の1のみである必要があります)。

  4. モデリングモードを選択し、開始をクリックします。 オートパイロットまたはリポジトリから利用できる分位点数ごとのモデルを以下に示します。

    • 分位点回帰
    • Statsmodelによる分位点回帰
    • Keras
    • Gradient Boosted Trees

    DataRobot returns a message if it determines there is not enough data to provide a meaningful value. If this happens, consider adding more data or lowering the quantile level. If the available data is limited but DataRobot can continue training, you'll see a Quantile Target Sparcity report in the data quality assessment. Too little data can result in unreliable results.

  5. When building completes, you can see the value quantile parameter quantile value that was used to build the model in Advanced Tuning. To experiment with different values, set the quantile parameter and press Begin Tuning. Note that when you tune the quantile this way, it applies only to this model and does not impact the optimization level set for the entire project.

備考

分位点損失を使用する場合、一部のインサイトが異常に見えることや、インサイトを別の方法で解釈する必要があります。 たとえば、リフトチャートと残差は、標準の回帰プロジェクトの場合と同じように解釈すべきではありません。

分位点回帰指標

以下に、分位点損失の指標について説明します。

表示 完全な名前 説明 プロジェクトタイプ
分位損失 分位損失 「ピンボールロス」とも呼ばれる分位点損失は、選択した分位点数のレベルに応じて、過大評価と過小評価に非対称的にペナルティを課します。 連続値(時系列外)

「ピンボールロス」とも呼ばれる分位点損失は、分位点数最適化回帰モデルのパフォーマンスを比較するために使用できる指標です。 たとえば、yを真の結果、ŷを予測として、単一の観測値の分位点損失関数は次のように定義されます。

ここで qは、0.01~0.99のユーザー指定の値で、損失関数が最適化される分位点レベルを示します。 分位点損失の指標を選択すると、プロジェクトの損失を評価する分位点レベル(q)を選択するスライダーが使用可能になります。

この意味を以下に示します。

  • q=0.5の場合、分位点損失は、中央値に最適化された平均絶対誤差と同じです。
  • q > 0.5の場合、アルゴリズムは事実上、過小評価よりも過大評価を優先しています。アンダーシュートする予測では、損失はより急になります。
  • q < 0.5の場合、その逆が当てはまります。アルゴリズムは、欠損が低い推定値と比較して、欠損が高い推定値にペナルティを課します。

更新しました December 21, 2022
Back to top