Skip to content

アプリケーション内で をクリックすると、お使いのDataRobotバージョンに関する全プラットフォームドキュメントにアクセスできます。

AIプラットフォームリリース

このページでは、新たにリリースされ、DataRobotのSaaS型シングル/マルチテナントAIプラットフォームで利用できる機能についてのお知らせと、追加情報へのリンクを掲載しています。

3月にリリースされたSaaS機能のお知らせ

2024年3月27日

最新のデプロイでは、DataRobotのAIプラットフォームは、以下に示す新規GAおよびプレビュー機能を提供しました。 From the release center, you can also access Self-Managed AI Platform release notes.

注目の新機能

多クラスモデリングと混同行列

多クラスエクスペリメントがワークベンチのプレビュー機能として可能になりました。

ビデオ:多クラスモデリング

When building experiments, DataRobot determines the type based on the number of values for a given target feature. If more than two, the experiment is handled as either multiclass or regression (for numeric targets). Special handling by DataRobot allows:

  • Changing a regression experiment to multiclass.
  • Using aggregation, with configurable settings, to support more than 1000 classes.

Once a model is built, a multiclass confusion matrix helps to visualize where the model is, perhaps, mislabeling one class as another.

プレビュー機能のドキュメントをご覧ください。

デフォルトではオンの機能フラグ:無制限の多クラス

March features

次の表は、新機能の一覧です。

目的別にグループ化された機能
名前 一般提供 プレビュー
データ
Parquetファイルの取込みをサポート
ラングリングレシピのパブリッシュ時にスマートダウンサンプリングを実行
モデリング
多クラスモデリングと混同行列
OTVエクスペリメントにおける10GBまでのデータセットのアップロード、モデリング、インサイト生成
予測とMLOps
日本語テキストの特徴量ドリフトでのトークン化を改善
カスタムモデルのトレーニングデータ割り当てを変更
NVIDIA GPUでNeMo Guardrailsを使用した生成AI ✔*
DataRobotのサーバーレス予測環境でのリアルタイム予測
ホストされたカスタム指標をカスタムジョブから作成
予測リクエストでの列フィルターの無効化
Notebooks
Codespacesでのノートブックファイルシステムの管理
アプリ
カスタムアプリケーションの共有
レジストリでのカスタムアプリケーションの管理
API
datarobot-mlopsパッケージの新しいインポートパス
* プレミアム機能

一般提供

Parquetファイルの取込みをサポート

AIカタログ、トレーニングデータセット、予測データセットにおいて、Parquetファイルの取込みが一般提供機能になりました。 サポートされるParquetファイルタイプは以下のとおりです。

  • 単一のParquetファイル
  • zip圧縮された単一のParquetファイル
  • 複数のParquetファイル(別々のデータセットとして登録)
  • zip圧縮された複数のParquetファイル(DataRobotで単一のデータセットを作成するためにマージ)

ラングリングレシピのパブリッシュ時にスマートダウンサンプリングを実行

After building a wrangling recipe in Workbench, enable smart downsampling in the publishing settings to reduce the size of your output dataset and optimize model training. Smart downsampling is a data science technique that reduces the time it takes to fit a model without sacrificing accuracy, as well as account for class imbalance by stratifying the sample by class.

OTVエクスペリメントにおける10GBまでのデータセットのアップロード、モデリング、インサイト生成

OTV(時間外検定)エクスペリメントのスケーラビリティとユーザーエクスペリエンスを向上させるため、大規模データセットにスケーリングを導入しました。 When using out-of-time validation as the partitioning method, DataRobot no longer needs to downsample for datasets as large as 10GB. Instead, a multistage Autopilot process supports the greatly expanded input allowance.

日本語テキストの特徴量ドリフトでのトークン化を改善

データドリフトタブの特徴量の詳細チャートのテキストトークン化が日本語のテキスト特徴量向けに改善され、MeCabでのトークン化による単語グラムベースのデータドリフト分析が実装されました。 さらに、日本語のテキスト特徴量で、デフォルトのストップワードフィルターが改善されました。

カスタムモデルのトレーニングデータ割り当てを変更

2024年4月より、カスタムモデルレベルでトレーニングデータを割り当てる非推奨の方法に代わり、(2023年3月リリースでの発表どおり)カスタムモデルのバージョンにトレーニングデータが割り当てられます。 This means that the “per custom model version” method becomes the default, and the “per custom model” method is removed. In preparation, you can review the manual conversion instructions in the Add training data to a custom model documentation:

The automatic conversion of any remaining custom models using the “per custom model” method will occur automatically when the deprecation period ends, assigning the training data at the custom model version level. For most users, no action is required; however, if you have any remaining automation relying on unconverted custom models using the “per custom model” assignment method, you should update them to support the “per custom model version” method to avoid any gaps in functionality.

For a summary of the assignment method changes, you can view the Custom model training data assignment update documentation.

カスタムアプリケーションの共有

カスタムアプリケーションをDataRobotユーザーだけでなくDataRobot以外のユーザーとも共有できるため、作成したカスタムアプリケーションの利用範囲が広がります。 Access sharing functionality from the actions menu in the Apps workshop. To share a custom app with non-DataRobot users, you must toggle on Enable external sharing and specify the email domains and addresses that are permitted access to the app. DataRobot provides a link to share with these users after configuring the sharing settings.

Codespacesでのノートブックファイルシステムの管理

Now generally available, DataRobot Workbench includes codespaces to enhance the code-first experience, especially when working with DataRobot Notebooks. Codespaceは、リポジトリまたはフォルダーファイルツリー構造に似ており、任意の数のファイルやネストされたフォルダーを含めることができます。 Codespace内では、複数のノートブックファイルやノートブック以外のファイルを同時に開いたり、表示したり、編集したりすることができます。 同じコンテナセッションで複数のノートブックを実行することもできます(各ノートブックは独自のカーネルで実行します)。

For Managed AI Platform users, DataRobot provides backup functionality and retention policies for codespaces. DataRobot takes snapshots of the codespace volume on session shutdown and on codespace deletion and will retain the contents for 30 days in the event you want to restore the codespace data.

プレビュー

NVIDIA GPUでNeMo Guardrailsを使用した生成AI

DataRobotでNVIDIAを使用して、パフォーマンスの高速化を実現し、最高のオープンソースモデルとガードレールを活用することで、エンドツーエンドの生成AI (GenAI) 機能をすばやく構築できます。 The DataRobot integration with NVIDIA creates an inference software stack that provides full, end-to-end Generative AI capability, ensuring performance, governance, and safety through significant functionality out of the box.

When you create a custom Generative AI model in the NextGen DataRobot Model workshop, you can select an [NVIDIA] Triton Inference Server (vLLM backend) base environment. DataRobot has natively built in the NVIDIA Triton Inference Server to provide extra acceleration for all of your GPU-based models as you build and deploy them onto NVIDIA devices.

Then, navigating to the custom model's resources settings, you can select a resource bundle from the range of NVIDIA devices available as build environments in DataRobot.

In addition, DataRobot also provides a powerful interface to create custom metrics through an integration with NeMo Guardrails. The integration with NeMo provides powerful rails to ensure your model stays on topic, using interventions to block prompts and completions if they violate the "on topic" principles provided by NeMo.

プレビュー機能のドキュメントをご覧ください。

Feature flags OFF by default: The NVIDIA and NeMo Guardrails integrations are premium features. この機能を有効にする方法については、DataRobotの担当者または管理者にお問い合わせください。

DataRobotのサーバーレス予測環境でのリアルタイム予測

DataRobotでサーバーレス予測環境を作成し、変更可能なコンピューティングインスタンス設定により、Kubernetesでスケーラブルなリアルタイム予測を行います。 To create a DataRobot serverless prediction environment for real-time predictions in Kubernetes, when you add a prediction environment, set the Platform to DataRobot Serverless:

When you deploy a model to a DataRobot serverless prediction environment, you can configure the compute instance settings in Advanced Predictions Configuration:

プレビュー機能のドキュメントをご覧ください。

デフォルトではオフの機能フラグ: K8s予測環境でリアルタイム(インタラクティブ)予測を有効にする、K8s予測環境でリアルタイムのGenAI予測を有効にする

ホストされたカスタム指標をカスタムジョブから作成

When you create a new custom job in the Registry, you can create new hosted custom metrics or add metrics from the gallery. In the NextGen interface, click Registry > Jobs and then click + Add new (or the button when the custom job panel is open) to select one of the following custom metric types:

Custom job type 説明
汎用カスタムジョブを追加 Add a custom job to implement automation (for example, custom tests) for models and deployments.
新しく作成 Add a custom job for a new hosted custom metric, defining the custom metric settings and associating the metric with a deployment.
テンプレートから新規作成 Add a custom job for a custom metric from a template provided by DataRobot, associating the metric with a deployment and setting a baseline.

After you create a custom metric job on the Registry > Jobs tab, on the custom metric job's Assemble tab, you can access the Connected deployments panel. Click + Connect to deployment, define a custom metric name, and then select a deployment ID to link the metric to a deployment:

プレビュー機能のドキュメントをご覧ください。

デフォルトではオフの機能フラグ: ホストされたカスタム指標を有効にする、カスタムジョブを有効にする、Notebooksでカスタム環境を有効にする

予測リクエストでの列フィルターの無効化

カスタムモデルをアセンブルする際、カスタムモデルによる予測での列フィルターを有効および無効にすることができます。 The filtering setting you select is applied in the same way during custom model testing and deployment. By default, the target column is filtered out of prediction requests and, if training data is assigned, any additional columns not present in the training dataset are filtered out of any scoring requests sent to the model. Alternatively, if the prediction dataset is missing columns, an error message appears to notify you of the missing features.

You can disable this column filtering when you assemble a custom model. In the Model workshop, open a custom model to the Assemble tab, and, in the Settings section, under Column filtering, clear Exclude target column from requests (or, if training data is assigned, clear Exclude target and extra columns not in training data):

プレビュー機能のドキュメントをご覧ください。

デフォルトではオフの機能フラグ: カスタムモデルの予測で特徴量のフィルターを有効にする

レジストリでのカスタムアプリケーションの管理

プレビュー機能です。NextGenレジストリの「アプリケーション」ページには、ユーザーが利用できる構築済みのカスタムアプリケーションとアプリケーションソースがすべて表示されます。 You can now create application sources, which contain the files, environment, and runtime parameters for custom applications you want to build. You can now build custom applications directly from these sources. You can also use the Applications page to manage applications by sharing or deleting them.

プレビュー機能のドキュメントをご覧ください。

Feature flag OFF by default: Enable Custom Applications Workshop

API

datarobot-mlopsパッケージの新しいインポートパス

Pythonパッケージmlops.datarobot-mlopsおよびdatarobot-mlops-connected-clientで、インポートパスがimport datarobot.mlops.mlopsからimport datarobot_mlops.mlopsに変更されています。 This fixes an issue where the DataRobot package and the MLOps packages conflict with each other when installed to the same Python environment. You must manually update this import. The example below shows how you can update your code to be compatible by attempting both import paths:

try:
    from datarobot_mlops.mlops import MLOps
except ImportError:
    from datarobot.mlops.mlops import MLOps 

記載されている製品名および会社名は、各社の商標または登録商標です。 製品名または会社名の使用は、それらとの提携やそれらによる推奨を意味するものではありません


更新しました April 2, 2024