データ接続(動画)¶
データの取込みは、予測モデルを構築する上で重要な第一歩です。 このチュートリアルシリーズでは、UIとAPIの両方を使用して、一般的なデータソースへのデータ接続を設定するプロセスについて説明します。 その他の重要なトピックとして、ご使用のクラウドアカウント内で接続のセットアップに必要なJDBC URLと資格情報がどこにあるかを詳しく説明します。
この動画では、1回限りのデータ接続を作成した後にデータを直接DataRobotに取り込む方法、つまり、データ接続を作成、テスト、および使用して以下のクラウドプロバイダーからデータを取得する方法を説明します。
AWS S3からの取込み¶
AWSエコシステムを使用する組織では、クラウドオブジェクトストアの利点があるため、データソースとしてS3を使用することが一般的です。 方法、URLベースまたはプログラムによるアクセスに応じて、この動画で説明されているようにS3のURLかアクセス資格情報を指定します。
続けて読む¶
- AWSを利用したエンドツーエンドのMLワークフロー(AIアクセラレーター)
- DataRobot ClassicへのAWS S3からのインポート。
Azure Cloudからの取込み¶
組織は、Azure SQLなどのRDBMSシステムを使用して構造化データの格納と取得を行います。 この動画では、JDBC接続を使用してAzure SQLに接続し、JDBC URLまたはAzure SQLインスタンスへの接続パラメーターのいずれかを使ってDataRobotにデータをプルする方法について説明します。
続けて読む¶
- Azureを利用したエンドツーエンドのモデリングワークフロー(AIアクセラレーター)
Databricksからの取込み¶
Databricksをデータ処理に使用する組織は、Databricksデータの機械学習アクティビティにDataRobotを簡単に使用できます。 Databricksからデータを取り込むには、DatabricksクラスターへのJDBCのURLが必要です。 この動画では、Databricks Notebooksを使用して、データをDataRobotに合わせて調整する方法も紹介しています。
続けて読む¶
- Databricksを利用したエンドツーエンドのモデリングワークフロー(AIアクセラレーター)
GCP BigQueryからの取込み¶
GCPエコシステムを使用している組織の場合、DataRobotによって、BigQueryに存在するデータに簡単にアクセスできます。 DataRobotがGoogle Cloud Platformで認証され、BigQueryテーブルに接続できるようにするには、まずGCPのサービスアカウントと、それに付随する認証情報のJSONファイルが必要です。
続けて読む¶
- Google Cloud PlatformとBigQueryを利用したエンドツーエンドのMLワークフロー(AIアクセラレーター)
- ワークベンチにおけるデータ接続。
SAP HANAからの取込み¶
SAP HANAなどのインメモリーデータベースを使用している場合、DataRobotによって、機械学習用のHANAデータセットにすばやく簡単にアクセスできます。 SAP HANAからデータを取り込むには、JDBC接続を使用し、SAP HANAエンドポイントが必要です。
続けて読む¶
- SAP HANAを利用したエンドツーエンドのモデリングワークフロー(AIアクセラレーター)
Snowflakeからの取込み¶
DataRobotで利用可能なデータ接続を使用して、外部ツールを必要とせずにSnowflakeからDataRobotに直接データを取り込むことができます。 これは、機械学習プロジェクトの応答時間を短縮するのに役立ちます。 この動画では、JDBCベースの接続を使用する方法を説明します。
続けて読む¶
- Snowflakeを利用したエンドツーエンドのモデリングワークフロー(AIアクセラレーター)
- Snowflakeデータの取込みとプロジェクトの作成
- ワークベンチにおけるデータ接続。