| AWS SageMakerのデプロイ |
DataRobotでモデルをプログラムで構築し、AWS SageMakerでモデルをエクスポートしてホストする方法を学びます。 |
| Sparkでの特徴量探索のSQL |
DockerでSparkクラスターを設定し、カスタムユーザー定義関数(UDF)を登録し、複数のデータセットで複雑なSQLクエリーを実行することで、Docker上の新しいSparkクラスターで特徴量探索SQLを実行します。 |
| GraphQLの連携 |
GraphQL Meshを使用して、GraphQLサーバーをDataRobot OpenAPI仕様に接続します。 |
| Amazon Athenaのワークフロー |
Amazon Athenaのテーブルを読み取ってプロジェクトを作成し、モデルをデプロイしてテストデータセットで予測を行う。 |
| AWSのワークフロー |
AWSとDataRobotのPythonクライアントを使用してデータをインポートし、モデルを構築および評価し、モデルを本番環境にデプロイして新しい予測を行います。 |
| Azureのワークフロー |
AzureとDataRobotのPythonクライアントを使用してデータをインポートし、モデルを構築および評価し、モデルを本番環境にデプロイして新しい予測を行います。 |
| Databricksのワークフロー |
Databricksによって得られるSparkベースのノートブック環境で取得および準備されたデータを使用して、DataRobotでモデルを構築します。 |
| Google CloudとBigQueryのワークフロー |
Google Collaboratoryを使用してBigQueryからデータを読み込み、DataRobotを使用してモデルを構築および評価し、そのモデルからの予測をBigQueryとGCPにデプロイして戻します。 |
| SageMakerのワークフロー |
DataRobotで構築されたMLモデルをデプロイして、AWS SageMaker内で実行します。 |
| Snowflakeのワークフロー |
SnowflakeとDataRobotのPythonクライアントを使用して、データをインポートし、モデルを構築して評価し、モデルを本番環境にデプロイして新しい予測を行います。 |
| 性能劣化予測 |
DataRobot MLOpsを使用して、機械学習モデルを管理および維持するための予測フレームワークを使用します。 |
| Snowparkの連携 |
データの保存にSnowflakeを、DataRobotでのデプロイ、特徴量エンジニアリング、モデルのスコアリングにSnowparkを活用します。 |
| SAP Hanaのワークフロー |
データソースとしてSAP Hanaを使用してDataRobotでモデルをプログラムで構築する方法を説明します。 |
| 音声認識の連携 |
Whisperを使用して、音声ファイルを文字に起こし、効率的に処理し、さらに分析または使用するために構造化形式で書き起こしを保存します。 |