Skip to content

アプリケーション内で をクリックすると、お使いのDataRobotバージョンに関する全プラットフォームドキュメントにアクセスできます。

AIプラットフォームリリース

DataRobotのマネージドAIプラットフォーム向けに毎月発表されているプレビューと一般提供の新機能を記録しています。 サポート終了のお知らせも含まれており、必要に応じて、サポート終了ガイドにリンクしています。

9月にリリースされたSaaS機能のお知らせ

2024年9月25日

このページでは、新たにリリースされ、DataRobotのSaaS型シングル/マルチテナントAIプラットフォームで利用できる機能についてのお知らせと、追加情報へのリンクを掲載しています。 リリースセンターからは、次のものにもアクセスできます。

9月リリースの機能

次の表は、新機能の一覧です。

目的別にグループ化された機能
名前 一般提供 プレビュー
GenAI
Azure OpenAI GPT-4o LLMに対応
アプリケーション
データ
New operations, automated derivation plan available for time series data wrangling
Wrangling enhancements added to Workbench
ADLS Gen2 connector is GA in DataRobot
Additional support added to wrangling for DataRobot datasets
モデリング
New operations, automated derivation plan available for time series data wrangling
OTVおよび時系列プロジェクトのデータで予測の説明を計算
Clustering in Incremental Learning
Increased training sizes for geospatial modeling
予測とMLOps
レジストリでのカスタムアプリケーションの管理
Open Prediction API snippets in a codespace
時系列モデルパッケージの予測間隔
Create categorical custom metrics
Notebooks
スタンドアロンのノートブックをcodespaceに変換
管理
Configure maximum compute instances for a serverless platform
Manage network policies to limit access to public resources
サポート終了/移行ガイド
Accuracy over time data storage for python 3 projects
  • プレミアム機能

一般提供

Azure OpenAI GPT-4o LLMに対応

With this deployment, the Azure OpenAI GPT-4o (“omni”) LLM is available from the playground. The multimodal GPT-4o brings high efficiency to text inputs, with faster text generation, less overhead, and better non-English language support. LLMの継続的な追加は、新たにリリースされ、利用可能なLLMを随時提供するというDataRobotの取り組みを示すものです。 利用可能なLLMのリストは、こちらで管理されています。

Wrangling enhancements added to Workbench

This release introduces the following improvements to data wrangling in Workbench:

  • The Remove features operation allows you to select all/deselect all features.
  • You can import operations from an existing recipe, either at the beginning or during a wrangling session.
  • Access settings for the live preview from the Preview settings button on the wrangling page.
  • Additional actions are available from the Actions menu for individual operations, including, adding operation above/below, importing a recipe above/below, duplicate, and preview up to a specific operation, which allows you to quickly see how different combinations of operations affect the live sample.

Support for the native ADLS Gen2 connector is now generally available in DataRobot. Also, Azure service principal and Azure OAuth credentials can be created and shared using secure configurations.

ADLS Gen2 connector is GA in DataRobot

Support for the native ADLS Gen2 connector is now generally available in DataRobot. Additionally, you can create and share Azure service principal and Azure OAuth credentials using secure configurations.

OTVおよび時系列プロジェクトのデータで予測の説明を計算

一般提供機能になりました。プレビュー版の機能です。時系列およびOTVプロジェクトで予測の説明を計算できます。 具体的には、トレーニングデータのホールドアウトパーティションおよびセクションでXEMPベースの予測の説明を取得できます。 DataRobotは、トレーニングデータのバックテスト1の検定パーティションに対してのみ予測の説明を計算します。

Clustering in Incremental Learning

This deployment adds support for K-Means clustering models to DataRobot’s incremental learning capabilities. 増分学習(IL)は大規模なデータセット(10GB~100GB)に特化したモデルトレーニング方法であり、データをチャンク化してトレーニングのイテレーションを作成します。 With this support, you can build non-time series clustering projects with larger datasets, helping you to explore your data by grouping and identifying natural segments.

Increased training sizes for geospatial modeling

With this deployment, DataRobot has increased the maximum number of rows supported for geospatial modeling (Location AI) from 100,000 rows to 10,000,000 rows in DataRobot Classic. Location AI allows ingesting common geospatial formats, automatically recognizing geospatial coordinates to support geospatial analysis modeling. The increased training data size improves your ability to find geospatial patterns in your models.

レジストリでのカスタムアプリケーションの管理

一般提供機能になりました。NextGenレジストリの「アプリケーション」ページには、ユーザーが利用できる構築済みのカスタムアプリケーションとアプリケーションソースがすべて表示されます。 You can now create application sources—which contain the files, environment, and runtime parameters for custom applications you want to build—and build custom applications directly from these sources. アプリケーションページを使って、共有や削除を行うことで、アプリケーションを管理することもできます。

With general availability, you can open and manage application sources in a codespace, allowing you to directly edit a source's files, upload new files to it, and use all the codespace's functionality.

Open Prediction API snippets in a codespace

You can now open a Prediction API code snippet in a codespace to edit the snippet directly, share it with other users, and incorporate additional files. When selected, DataRobot generates a codespace instance and populates the snippet inside as a python file. The codespace allows for full access to file storage. You can use the Upload button to add additional datasets for scoring, and have the prediction output (output.json, output.csv, etc.) return to the codespace file directory after executing the snippet.

スタンドアロンのノートブックをcodespaceに変換

Now generally available, you can use DataRobot to convert a standalone notebook into a codespace to incorporate additional workflow capabilities such as persistent file storage and Git compatibility. これらのタイプの機能にはcodespaceが必要です。 ノートブックを変換する際、DataRobotは環境設定、ノートブックの内容、スケジュールされたジョブ定義など、多くのノートブックアセットを保持します。

時系列モデルパッケージの予測間隔

To run a DataRobot time series model in a remote prediction environment and compute time series prediction intervals (from 1 to 100) for that model, download a model package (.mlpkg file) from the model's deployment or the Leaderboard with Compute prediction intervals enabled. どちらの場所でも、モデルパッケージの生成時に予測間隔の計算を選択できるようになりました。そして、DataRobotの外でポータブル予測サーバー(PPS)を使って予測ジョブを実行できます。

詳しくはドキュメントをご覧ください。

Configure maximum compute instances for a serverless platform

Admins can now increase deployments' max compute instances limit on per-organization basis. If not specified, the default is 8. To limit compute resource usage, set the maximum value equal to the minimum.

プレビュー

New operations, automated derivation plan available for time series data wrangling

This deployment extends the existing data wrangling framework with tools to help prepare input for time series modeling, allowing you to perform time series feature engineering during the data preparation phase. This change works in conjunction with the fundamental wrangler improvements announced this month. Use the Derive time series features operation to execute lags and rolling statistics on the input data, either using a suggested derivation plan that automates feature generation or by manually selecting features and applying tasks, and DataRobot will build new features and apply them to the live data sample.

While these operations can be added to any recipe, setting the preview sample method to date/time enables an option to have DataRobot suggest feature transformations based on the configuration you provide. With the automated option, DataRobot expands the data according to forecast distances, adds known in advance columns (if specified) and naive baseline features, and then replaces the original sample. Once complete, you can modify the plan as needed.

デフォルトではオンの機能フラグ: 時系列データのラングリングを有効にする

プレビュー機能のドキュメントをご覧ください。

Create categorical custom metrics

In the NextGen Console, on a deployment’s Custom metrics tab, you can define categorical metrics when you create an external metric. For each categorical metric, you can define up to 10 classes.

By default, these metrics are visualized in a bar chart on the Custom metrics tab; however, you can configure the chart type from the settings menu.

デフォルトではオンの機能フラグ: カテゴリーのカスタム指標を有効にする

プレビュー機能のドキュメントをご覧ください。

Additional support added to wrangling for DataRobot datasets

The ability to wrangle datasets stored in the Workbench Data Registry, first introduced for preview in July, is now supported by all environments.

Manage network policies to limit access to public resources

By default, some DataRobot capabilities, including Notebooks, have full public internet access from within the cluster DataRobot is deployed on; however, admins can limit the public resources users can access within DataRobot by setting network access controls. To do so, open User settings > Policies and enable the toggle to the left of Enable network policy control. When this toggle is enabled, by default, users cannot access public resources from within DataRobot.

デフォルトではオンの機能フラグ: ネットワークポリシーの適用を有効にする

プレビュー機能のドキュメントをご覧ください。

サポート終了/移行ガイド

Accuracy over time data storage for python 3 projects

DataRobot has changed the storage type for Accuracy over Time data from MongoDB to S3.

On the managed AI Platform (cloud), DataRobot uses blob storage by default. The feature flag BLOB_STORAGE_FOR_ACCURACY_OVER_TIME has been removed from the feature access settings.


更新しました July 27, 2024