エコシステムインテグレーションテンプレート¶
トピック | 説明 |
---|---|
Databricksを使用したエンドツーエンドのMLワークフロー | Databricksによって得られるSparkベースのノートブック環境で取得および準備されたデータを使用して、DataRobotでモデルを構築します。 |
Google Cloud PlatformとBigQueryを利用したエンドツーエンドのMLワークフロー | Google Collaboratoryを使用してBigQueryからデータを読み込み、DataRobotを使用してモデルを構築および評価し、そのモデルからの予測をBigQueryとGCPにデプロイして戻します。 |
Snowflakeを使用したエンドツーエンドのMLワークフロー | SnowflakeとDataRobotのPythonクライアントを使用して、データをインポートし、モデルを構築して評価し、モデルを本番環境にデプロイして新しい予測を行います。 |
AWSを利用したエンドツーエンドのMLワークフロー | AWSとDataRobotのPythonクライアントを使用してデータをインポートし、モデルを構築および評価し、モデルを本番環境にデプロイして新しい予測を行います。 |
Azureを利用したエンドツーエンドのMLワークフロー | AzureとDataRobotのPythonクライアントを使用してデータをインポートし、モデルを構築および評価し、モデルを本番環境にデプロイして新しい予測を行います。 |
MLOpsでのAWS SageMakerモデルの監視 | DataRobotプラットフォームで監視できるSageMakerモデルをトレーニングしてホストします。 |
DataRobotとSnowparkを統合してデータクラウドを最大限に活用する | データの保存にSnowflakeを、DataRobotでのデプロイ、特徴量エンジニアリング、モデルのスコアリングにSnowparkを活用します。 |
SAP Hanaを使用したエンドツーエンドのワークフロー | データソースとしてSAP Hanaを使用してDataRobotでモデルをプログラムで構築する方法を説明します。 |
スコアリングコードをマイクロサービスとしてデプロイ | 段階的な手順に従い、スコアリングコードをマイクロサービスに埋め込み、顧客インフラストラクチャにデプロイするためのDockerコンテナとして準備します(自己管理またはハイパースケーラー管理のK8sを使用できます)。 |
DataRobotとDatabricksを使用したエンドツーエンドの需要予測ワークフロー | DataRobotをDatabricksと組み合わせて使用して、複数系列の需要予測モデルを開発、評価、デプロイする方法。 |
カスタムモデルの作成およびデプロイ | DataRobotのPythonクライアントを使用して、カスタム推論モデルを作成、デプロイ、監視します。 カスタムモデルワークショップを使用して、モデルアーティファクトをアップロードして、DataRobotの一元化されたデプロイハブにカスタム推論モデルを作成、テスト、およびデプロイすることができます。 |
DataRobotとGraphQLの連携 | GraphQL Meshを使用して、GraphQLサーバーをDataRobot OpenAPI仕様に接続します。 |
Athenaを利用したエンドツーエンドのMLワークフロー | Amazon Athenaのテーブルを読み取ってプロジェクトを作成し、モデルをデプロイしてテストデータセットで予測を行う。 |
Sagemakerを使用したエンドツーエンドのMLワークフロー | DataRobotで構築されたMLモデルをデプロイして、AWS SageMaker内で実行します。 |
更新しました July 10, 2024
このページは役に立ちましたか?
ありがとうございます。どのような点が役に立ちましたか?
より良いコンテンツを提供するには、どうすればよいでしょうか?
アンケートにご協力いただき、ありがとうございました。