Skip to content

アプリケーション内で をクリックすると、お使いのDataRobotバージョンに関する全プラットフォームドキュメントにアクセスできます。

外部モデル用のカスタムモデルプロキシ

本機能の提供について:セルフマネージドのみ

外部モデル用のカスタムモデルプロキシは、セルフマネージドAIプラットフォームでのみ利用可能で、デフォルトではオフになっています。 この機能を有効にする方法については、DataRobotの担当者または管理者にお問い合わせください。

機能フラグ:プロキシモデルを有効にする

プレビュー版の機能です。外部でホストされているモデルのプロキシとして、カスタムモデルを作成できます。 プロキシモデルを作成するには、次の操作を行います。

  1. (Optional) Add runtime parameters to the custom model through the model metadata (model-metadata.yaml).

  2. カスタムモデルファイル(custom.py)を使用して、カスタムモデルにプロキシコードを追加します。

  3. カスタムモデルワークショップでプロキシモデルを作成します。

プロキシコードを追加

外部モデル用のプロキシとして作成するカスタムモデルでは、custom.pyファイルにプロキシモデルと外部でホストされたモデルを接続するためのカスタムコードを含める必要があります。このコードがプロキシコードです。 カスタムモデルコードの記述に関する詳細については、 カスタムモデルアセンブリのドキュメントを参照してください。

custom.pyファイル内のプロキシコードは、次のことを行う必要があります。

  • Import the necessary modules and, optionally, the runtime parameters from model-metadata.yaml.

  • HTTPS接続または外部モデルで必要とされるネットワークプロトコルを介して、カスタムモデルを外部モデルに接続します。

  • 予測をリクエストし、必要に応じて予測データを変換します。

To simplify the reuse of proxy code, you can add runtime parameters through your model metadata in the model-metadata.yaml file:

model-metadata.yaml
name: runtime-parameter-example
type: inference
targetType: regression
runtimeParameterDefinitions:
- fieldName: endpoint
  type: string
  description: The name of the endpoint.
- fieldName: API_KEY
  type: credential
  description: The HTTP basic credential containing the endpoint's API key in the password field (the username field is ignored). 

モデルメタデータでランタイムパラメーターを定義した場合、それらをcustom.pyファイルにインポートしてプロキシコードで使用できます。 これらのパラメーターをインポートした後、それらをプロキシコードの変数に割り当てることができます。 これにより、外部モデルに接続して予測データを取得する予測リクエストを作成できます。 次の例では、custom.pyファイルの基本構造の概要を説明します。

custom.py
# Import modules required to make a prediction request.
import json
import ssl
import urllib.request
import pandas as pd
# Import SimpleNamespace to create an object to store runtime parameter variables.
from types import SimpleNamespace
# Import RuntimeParameters to use the runtime parameters set in the model metadata.
from datarobot_drum import RuntimeParameters

# Override the default load_model hook to read the runtime parameters.
def load_model(code_dir):
    # Assign runtime parameters to variables.
    api_key = RuntimeParameters.get("API_KEY")["password"]
    endpoint = RuntimeParameters.get("endpoint")

    # Create scoring endpoint URL.
    url = f"https://{endpoint}.example.com/score"

    # Return an object containing the variables necessary to make a prediction request.
    return SimpleNamespace(**locals())

# Write proxy code to request and convert scoring data from the external model.
def score(data, model, **kwargs):
    # Call make_remote_prediction_request.
    # Convert prediction data as necessary.

def make_remote_prediction_request(payload, url, api_key):
    # Connect to the scoring endpoint URL.
    # Request predictions from the external model. 

プロキシモデルの作成

外部モデルのプロキシとしてカスタムモデルを作成するには、新しいプロキシモデルをカスタムモデルワークショップに追加します。 プロキシモデルには、外部モデルに接続するために作成したプロキシコードが含まれており、DataRobotの外部インフラストラクチャで実行されているモデルで コンプライアンスドキュメントチャレンジャー分析カスタムモデルテストなどの機能を使用できます。

カスタムモデルワークショップを介してプロキシモデルを追加するには:

  1. モデルレジストリ > カスタムモデルワークショップをクリックします。

  2. モデルタブで、+新しいモデルを追加をクリックします。

  3. カスタム推論モデルを追加ダイアログボックスで、プロキシを選択してから、モデル情報を追加します。

    フィールド 説明
    モデル名 カスタムモデルに名前を付けます。
    ターゲットタイプ/ターゲット名 ターゲットタイプ(二値分類連続値多クラス分類異常検知、または非構造化)を選択して、ターゲット特徴量の名前を入力します。
    正のクラスのラベル/負のクラスのラベル これらのフィールドは、二値分類モデルに対してのみ表示されます。 正のクラスのラベルとして使用する値と負のクラスのラベルとして使用する値を指定します。
    多クラス分類モデルの場合、これらのフィールドは、.csvまたは.txtの形式でターゲットクラスを入力またはアップロードするフィールドで置き換えられます。
  4. オプションフィールドを表示をクリックし、必要に応じて、予測しきい値、モデルの構築に使用したコーディング言語、および説明を入力します。

  5. フィールドに入力したら、カスタムモデルを追加をクリックします。

  6. アセンブルタブの右側のモデル環境で、右側の基本環境ドロップダウンメニューをクリックして環境を選択し、モデル環境を選択します。 モデル環境は、カスタムモデルのテストデプロイに使用されます。

    備考

    基本環境プルダウンメニューにはドロップインモデル環境(存在する場合)と、作成可能なカスタム環境が含まれています。

  7. 左側のモデルでファイルをドラッグアンドドロップするか参照して、プロキシモデルのコンテンツを追加します。 または、リモート統合リポジトリを選択します。

    ローカルファイルを参照をクリックすると、ローカルフォルダーを追加するオプションが表示されます。 ローカルフォルダーは、モデル自体ではなく、モデルに必要な依存ファイルおよび追加のアセット用です。 モデルファイルがフォルダーに含まれている場合でも、ファイルがルートレベルに存在しない限り、DataRobotからモデルファイルにアクセスすることはできません。 ルートにあるファイルは、フォルダー内の依存関係を指定することができます。

    備考

    また、モデル要件とstart_server.shファイルをモデルのフォルダーにアップロードする必要があります(モデルと ドロップイン環境を組み合わせる場合を除く)。

  8. アセンブルタブで、リソース設定の横にある編集アイコン()をクリックして、プロキシモデルに必要なネットワークアクセスをアクティブ化します。

  9. モデルメタデータでランタイムパラメーターを提供する場合、環境を構築し、新しいバージョンを作成すると、ランタイムパラメーターアセンブルタブでパラメーターを設定できます。

  10. 最後に、 カスタムモデルを登録して、 コンプライアンスドキュメントの生成に使用できるプロキシモデルを作成できます。 その後、プロキシモデルをデプロイして、外部モデルで チャレンジャー分析を設定し、 カスタムモデルテストを実行できます。


更新しました April 8, 2024