カスタム推論モデルのデプロイ¶
カスタムモデルワークショップを使用して、カスタム推論モデルを作成すると、カスタムモデル環境にデプロイできます。
備考
テストをしないでカスタム推論モデルを環境にデプロイすることもできますが、DataRobotでは、デプロイの前にテストに合格をすることが強く推奨されます。
カスタム推論モデルをデプロイするには:
-
モデルレジストリ > カスタムモデルワークショップ > モデルに移動し、デプロイするモデルを選択します。
-
アセンブルタブで、画面の中央にあるデプロイリンクをクリックします。
備考
モデルがテストされていない場合は、今すぐテストするまたはテストせずにパッケージをデプロイするように求められます。 モデルによる予測が可能であることをテストしてから、デプロイすることをお勧めします。
モデルをアップロードすると、デプロイ情報ページが表示されます。 カスタムモデルのほとんどの情報は自動的に指定されます。
-
モデルヘッダーの下に、機能検定データが表示されます。 このデータはモデルのトレーニングデータの一部で、モデルパフォーマンスの評価に使用されます。
予測の作成¶
カスタム推論モデルをデプロイしたら、DataRobotによって管理されている専用の予測サーバーへのAPI呼び出しを使用して予測できます。 予測APIの使用の詳細については、予測のドキュメントを参照してください。
Training dataset considerations
When making predictions through a deployed model, the prediction dataset is handled as follows:
-
Without training data, only the target feature is removed from the prediction dataset.
-
With training data, any features not in the training dataset are removed from the prediction dataset.
デプロイログ¶
カスタムモデルをデプロイすると、このタイプのデプロイに一意のログレポートが生成されるため、DataRobot内からカスタムコードをデバッグし、予測リクエストの失敗のトラブルシューティングを行うことができます。
デプロイされたモデルのログを表示するには、デプロイに移動し、アクションメニューを開いて、ログを表示を選択します。
次の2種類のログにアクセスできます。
-
ランタイムログは失敗した予測リクエストのトラブルシューティングに使用できます(予測タブまたはAPIからアクセス)。 このログは、デプロイされたカスタムモデルを実行しているDockerコンテナから出力され、最大1MBのデータが含まれます。 予測リクエストを行った後、ログは5分間キャッシュされます。 更新をクリックすると、ログを再リクエストできます。
-
デプロイログは、デプロイ中にカスタムモデルが失敗した場合に自動的に出力されます。 ログは、デプロイの一部として恒久的に保存されます。
備考
DataRobotは、カスタムモデルが実行されるDockerコンテナ内からのログのみを提供します。 したがって、カスタムモデルのデプロイに失敗した場合や、予測リクエストの実行に失敗した場合、ログが利用できなくなることがあります。 この理由は、Dockerコンテナの外部で障害が発生したためです。
検索バーを使用して、ログ内の特定の参照を検索できます。 ログをダウンロードをクリックすると、ログのローカルコピーを保存できます。