| カスタムモデルの作成およびデプロイ |
DataRobotのPythonクライアントを使用して、カスタム推論モデルを作成、デプロイ、監視します。 カスタムモデルワークショップを使用して、モデルアーティファクトをアップロードして、DataRobotの一元化されたデプロイハブにカスタム推論モデルを作成、テスト、およびデプロイすることができます。 |
| Composable MLでのカスタムブループリント |
ブループリントワークショップを使用して、リーダーボード上のモデルをカスタマイズします。 |
| GraphSAGEを使用したカスタムトランスフォーマー |
表形式のデータセットをグラフ表現に変換し、GraphSAGEベースのニューラルネットワークをトレーニングして、DataRobotのカスタムトランスフォーマーとしてソリューションをパッケージ化します。 |
| Google Geminiの連携 |
Google Gemini LLMをベースにしたStreamlitアプリケーションを実装し、Vertex AIを統合したDataRobotプラットフォームでホストします。 |
| GINでの金融詐欺の検出 |
DRUMを使用して、Graph Isomorphism Network (GIN)をDataRobotのカスタムモデルタスクとして連携します。 |
| GCPでのLlama 2 |
コストの比較、インフラストラクチャの詳細、DataRobotのカスタムモデルフレームワークとの統合を目的として、Google Cloud PlatformでLlama 2をホスします。 |
| LLMカスタム推論テンプレート |
LLMカスタム推論モデルテンプレートを使用すると、Azure OpenAI、Google、AWSなどの「batteries-included」LLMとともに、独自のLLMをデプロイして高速化できます。 |
| GCPでのMistral 7B |
インフラストラクチャのセットアップ、コストの検討、監視とデプロイのためのDataRobotの統合を目的として、Google Cloud PlatformでMistral 7Bをホストします。 |
| 強化学習 |
Q学習アルゴリズムに基づくモデルを実装します。 |
| スコアリングコードのマイクロサービス |
段階的な手順に従い、スコアリングコードをマイクロサービスに埋め込み、顧客インフラストラクチャにデプロイするためのDockerコンテナとして準備します(自己管理またはハイパースケーラー管理のK8sを使用できます)。 |