GenAI機能に関する注意事項¶
DataRobotで生成AI機能を使用する場合は、以下の点に注意してください。 製品の開発が進むにつれ、いくつかの注意事項が変更されることがあります。
トライアルユーザー: サポートされているLLMベースモデルを含む、 DataRobotの無料トライアルに固有の注意事項を参照してください。
可用性¶
次のセクションでは、GenAIモデル作成の一部であるさまざまな要素(LLM、埋め込み、データ型、共有)のサポートについて説明します。
利用可能なLLM¶
次の表に、利用可能なLLMのタイプを示します。
タイプ | 最大コンテキストウィンドウ | 最大出力トークン数 | Chat model ID Δ |
---|---|---|---|
Amazon Titan* | 8,000 | 8,000 | amazon.titan-text-express-v1 |
Anthropic Claude 2.1 | 200,000 | 4,096 | anthropic.claude-v2:1 |
Anthropic Claude 3 Haiku | 200,000 | 4,096 | anthropic.claude-3-haiku-20240307-v1:0 |
Anthropic Claude 3 Sonnet | 200,000 | 4,096 | anthropic.claude-3-sonnet-20240229-v1:0 |
Anthropic Claude 3 Opus† | 200,000 | 4,096 | anthropic.claude-3-opus-20240229-v1:0 |
Azure OpenAI GPT-4 | 8,192 | 8,192 | gpt-4 |
Azure OpenAI GPT-4 32k | 32,768 | 32,768 | gpt-4-32k |
Azure OpenAI GPT-4 Turbo | 128,000 | 4,096 | gpt-4-turbo |
Azure OpenAI GPT-4o | 128,000 | 4,096 | gpt-4o |
Azure OpenAI GPT-4o mini* | 128,000 | 16,384 | gpt-4o-mini |
Azure OpenAI GPT-3.5 Turbo* | 4,096 | 4,096 | gpt-35-turbo |
Azure OpenAI GPT-3.5 Turbo 16k | 16,384 | 16,384 | gpt-35-turbo-16k |
Google Bison* | 4,096 | 2,048 | chat-bison@002 |
Google Gemini 1.5 Flash | 1,048,576 | 8,192 | gemini-1.5-flash-001 |
Google Gemini 1.5 Pro | 2,097,152 | 8,192 | gemini-1.5-flash-001 |
* トライアルユーザーが使用可能。
† Due to EU regulations, Claude 3 Opus model access is disabled for Cloud users on the EU platform.
Δ The model ID the playground uses for calling the LLM provider's services. This value is also the recommended value for the model
parameter when using the Bolt-on Governance API for deployed LLM blueprints.
埋め込みの可用性¶
DataRobotは、データをエンコードするために次のタイプの埋め込みをサポートしています。すべての埋め込みは、教師ありデータと教師なしデータの混合で学習された変換モデルです。
埋め込みタイプ | 説明 | 言語 |
---|---|---|
cl-nagoya/sup-simcse-ja-base | 名古屋大学 大学院情報学研究科(「Japanese SimCSE Technical Report」)による中規模言語モデル。 日本語RAGの高速モデルです。
|
日本語 |
huggingface.co/intfloat/multilingual-e5-base | 複数の言語で多言語RAG処理に使用されるMicrosoft Researchの中規模言語モデル(「大規模多言語コーパスでの弱教師付き対照事前トレーニング」)。
|
100以上、 ISO 639を参照 |
huggingface.co/intfloat/multilingual-e5-small | 多言語RAG処理に使用するMicrosoft Researchの小規模言語モデル(「大規模多言語コーパスでの弱教師付き対照事前トレーニング」)で、MULTILINGUAL_E5_BASEよりも高速です。 この埋め込みモデルは、低レイテンシーのアプリケーションに適しています。
|
100以上、 ISO 639を参照 |
intfloat/e5-base-v2 | 中〜高程度のRAGパフォーマンスを実現するためのMicrosoft Researchの中規模言語モデル(「大規模英語コーパスでの弱教師付き対照事前トレーニング」)。 パラメーターが少なく、アーキテクチャが小さいため、E5_LARGE_V2よりも高速です。
|
英語 |
intfloat/e5-large-v2 | 最適なRAGパフォーマンスを実現するように設計されたMicrosoft Researchの大規模言語モデル(「大規模英語コーパスでの弱教師付き対照事前トレーニング」)。 そのアーキテクチャとサイズにより、低速と分類されます。
|
英語 |
jinaai/jina-embedding-t-en-v1 | Jina AIのLinnaeus-Cleanデータセットを使用してトレーニングされた小さな言語モデル。 英語コーパスで事前にトレーニングされており、DataRobotが提供する埋め込みモデルの中で最も高速で、デフォルトのモデルです。
|
英語 |
jinaai/jina-embedding-s-en-v2 | Jina Embeddings v2ファミリーの1つであるこの埋め込みモデルは、長いドキュメントの埋め込みに最適です(最大8192の大きなチャンクサイズ)。
|
英語 |
sentence-transformers/all-MiniLM-L6-v2 | 10億個のセンテンスペアのデータセットでファインチューニングされた小さな言語モデル。 比較的高速で、英語のコーパスで事前トレーニングされています。 ただし、古いデータでトレーニングされているため、RAGには推奨されません。
|
英語 |
* 入力ディメンション = max_sequence_length
E5-baseおよびE5-smallの多言語サポート。ISO 639も参照してください。
対応言語: "アフリカーンス語", "アムハラ語", "アラビア語", "アッサム語", "アゼルバイジャン語", "ベラルーシ語", "ブルガリア語", "ベンガル語", "ブルトン語", "ボスニア語", "カタルーニャ語", "チェコ語", "ウェールズ語", "デンマーク語", "ドイツ人語", "ギリシャ語", "英語", "エスペラント語", "スペイン語", "エストニア語", "バスク語", "ペルシャ語", "フィンランド語", "フランス語", "西フリジア語", "アイルランド語", "スコットランドのゲール語", "ガリシア語", "グジャラート語", "ハウサ語", "ヘブライ語", "ヒンディー語", "クロアチア語", "ハンガリー語", "アルメニア語", "インドネシア語", "アイスランド語", "イタリア語", "日本語", "ジャワ語", "ジョージア語", "カザフ語", "クメール語", "カンナダ語", "韓国語", "クルド語", "キルギス語", "ラテン語", "ラオス語", "リトアニア語", "ラトビア語", "マダガスカル語", "マケドニア語", "マラヤーラム語", "モンゴル語", "マラーティー語", "マレー語", "ビルマ語", "ネパール語", "オランダ語", "ノルウェー語", "オロモ語", "オリヤ語", "パンジャブ語", "ポーランド語", "パシュトゥー語", "ポルトガル語", "ルーマニア語", "ロシア語", "サンスクリット語", "シンド語", "シンハラ語", "スロバキア語", "スロベニア語", "ソマリ語", "アルバニア語", "セルビア語", "スンダ語", "スウェーデン語", "スワヒリ語", "タミル語", "テルグ語", "タイ語", "タガログ語", "トルコ語", "ウイグル語", "ウクライナ語", "ウルドゥー語", "ウズベク語", "ベトナム語", "コサ語", "イディッシュ語", "中国語",
共有と権限¶
以下の表に、GenAIコンポーネント関連のユーザー権限を示します。 すべてのロール(コンシューマー、エディター、オーナー)は、ユースケースにおけるユーザーのロールを示しています。さまざまな機能へのアクセスは、ユースケースの役割に基づきます。 たとえば、共有はユースケースレベルで処理されるため、ベクターデータベースのみを共有することはできません(ベクターデータベースでは共有ルールは定義されません)。
GenAI機能に対する権限
機能 | ユースケースのコンシューマー | ユースケースのエディター | ユースケースのオーナー |
---|---|---|---|
ベクターデータベース | |||
ベクターデータベースの作成者 | |||
ベクターデータベースを作成 | ✘ | ✔ | ✔ |
ベクターデータベースバージョンの作成 | ✘ | ✔ | ✔ |
ベクターデータベースの情報を編集 | ✘ | ✔ | ✔ |
ベクターデータベースを削除 | ✘ | ✔ | ✔ |
ベクターデータベースの非作成者 | |||
ベクターデータベースの情報を編集 | ✘ | ✘ | ✔ |
ベクターデータベースを削除 | ✘ | ✘ | ✔ |
プレイグラウンド | |||
プレイグラウンドの作成者 | |||
プレイグラウンドの作成 | ✘ | ✔ | ✔ |
プレイグラウンド名の変更 | ✘ | ✔ | ✔ |
プレイグラウンドの説明を編集 | ✘ | ✔ | ✔ |
プレイグラウンドを削除 | ✘ | ✔ | ✔ |
プレイグラウンドの非作成者 | |||
プレイグラウンドの説明を編集 | ✘ | ✘ | ✔ |
プレイグラウンドを削除 | ✘ | ✘ | ✔ |
プレイグラウンド → 評価タブ | |||
評価の設定 | ✘ | ✔ | ✔ |
評価指標を有効/無効にする | ✘ | ✔ | ✔ |
プレイグラウンド → トレースタブ | |||
ログをダウンロード | ✔ | ✔ | ✔ |
AIカタログにアップロード | ✔ | ✔ | ✔ |
他者が作成したLLMブループリント(ユースケースを共有) | |||
設定 | ✘ | ✘ | ✘ |
プロンプトの送信(設定から) | ✘ | ✘ | ✘ |
集計された指標を生成 | ✘ | ✔ | ✔ |
会話の作成(比較から) | ✘ | ✘ | ✘ |
回答に賛成/反対 | ✔ | ✔ | ✔ |
スターを付ける/お気に入り | ✘ | ✘ | ✘ |
新しいLLMブループリントにコピー | ✘ | ✔ | ✔ |
削除 | ✘ | ✘ | ✘ |
登録 | ✘ | ✘ | ✘ |
サポートされているデータセットタイプ¶
ベクターデータベースの作成に使用するデータセットをアップロードする場合、サポートされている形式は.zip
または.csv
です。 ファイルにはdocument
とdocument_file_path
の2つの列が必須です。 最大50のメタデータ列を追加して、プロンプトクエリーの際にフィルターに使用することができます。 メタデータのフィルターでは、document_file_path
がsource
として表示されます。
.zip
ファイルの場合、DataRobotはファイルを処理して、関連するリファレンスID(document_file_path
)列を持つテキスト列(document
)を含む.csv
バージョンを作成します。 テキスト列の内容はすべて、文字列として扱われます。 リファレンスID列は、.zip
がアップロードされると自動的に作成されます。 すべてのファイルは、アーカイブのルート(root)、またはアーカイブ内の単一のフォルダーに配置する必要があります。 フォルダーツリー階層の使用はサポートされていません。
ファイルタイプに関して、DataRobotは以下をサポートします。
-
.txt
ドキュメント -
PDFドキュメント
- テキストベースのPDFがサポートされています。
- 画像ベースのPDFは完全にはサポートされていません。 したがって、画像は一般的に無視されますが、エラーは発生しません。
- 画像とテキストコンテンツが混在するドキュメントがサポートされます。テキストのみが解析されます。
- 画像だけで構成される単一のドキュメントは空のドキュメントになり、無視されます。
- 画像のみのドキュメント(テキストなし)で構成されるデータセットは処理できません。
-
.docx
ドキュメントはサポートされていますが、古い.doc
形式はサポートされていません。 -
.md
ドキュメント(および.markdown
形式)はサポートされています。 -
単一のデータセットでサポートされているすべてのドキュメントタイプを組み合わせることができます。
一般的な注意事項¶
-
多言語データセットが多言語モデルに関連付けられた制限を超える場合、DataRobotはデフォルトで
jinaai/jina-embedding-t-en-v1
埋め込みモデルを使用します。 -
余分な列を含むトレーニングデータが添付されたカスタムモデルから作成されたデプロイは、カスタムモデルで列のフィルターが無効になっていない限り使用できません。
-
BYOのLLMまたはプレイグラウンドからデプロイされたLLMを使用する場合、資格情報に関連付けられたエンドポイントを指すランタイムパラメーターが必要です。ベンダーのモデルバージョンおよびエンドオブライフ(EOL)スケジュールに注意してください。 ベストプラクティスとして、本番環境にデプロイするときには一般的に使用できるエンドポイントのみを使用してください。 (これはプレイグラウンドで提供されているモデルによって管理されます。)
-
UIでプレイグラウンドやベクターデータベースにアクセスすると、
[Internal] DR API Access for GenAI Experimentation
という名前のAPIキーが自動的に作成されます。 -
GPUを使用する場合、BYO埋め込み機能は、セルフマネージドユーザーのみ使用できます。 多くのユーザーがベクターデータベース作成ジョブを同時に実行する場合、BYO埋め込みを使用すると、ベクターデータベース作成ジョブが完了するまでLLMプレイグラウンド機能が低下する可能性があります。 埋め込みモデルを含むカスタムモデルを備えたCPUの使用は、すべての環境でサポートされています。
-
一度に実行できる集計指標ジョブは1つだけです。 集計ジョブが現在実行されている場合、 集計の設定ボタンが無効になり、「集計ジョブが進行中です。処理が完了したら、もう一度試してください」というツールチップが表示されます。
プレイグラウンドに関する注意事項¶
-
プレイグラウンドは表示用に共有できます。エディターまたは所有者のアクセス権限を持つユーザーは、共有プレイグラウンド内で追加のアクション(ブループリントの作成など)を実行できます。 作成者以外のユーザーはプレイグラウンドでLLMブループリントのプロンプトを実行することはできませんが、コピーを作成して、そのコピーにプロンプトを送信できます。
-
プロンプトを表示できるのは、自分で作成したLLMブループリントのみです(設定ビューと比較ビューの両方)。 共有ユースケースで他のユーザーのLLMブループリントをプロンプトした結果を確認するには、ブループリントをコピーし、同じ設定を適用してチャットします。
-
各ユーザーは、すべてのLLMに1日あたり5,000件のLLMプロンプトを送信できます。ここでは、削除されたプロンプトとレスポンスもカウントされます。 ただし、成功したプロンプトレスポンスペアのみがカウントされ、持ち込み(BYO)LLMコールはカウントの対象外になります。 トライアルユーザーの制限は、 ここに説明されているように異なります。
ベクターデータベースに関する注意事項¶
以下のセクションでは、 ベクターデータベースに関連する注意事項について説明します。 以下の サポート対象のデータセットタイプも参照してください。
セルフマネージドAIプラットフォームでのGPUの使用
1GBを超えるデータセットを処理する場合、GPUの使用をクラスターに設定していないセルフマネージド環境では、深刻な遅延が発生する可能性があります。 DataRobotサポートにメールで問い合わせるか、 サポートサイトにアクセスして、インストール方法をご確認ください。
-
作成:
-
デフォルトでは、DataRobotはFacebook AI Similarity Search (FAISS)ベクターデータベースを使用します。
-
ベクターデータベースの作成時および生成されるベクターデータベースアセットサイズ(抽出後のテキスト)には、10GBのデータセット制限がグローバルに適用されます。
-
-
デプロイ:
- ベクターデータベースを10GBのデータセットに展開する場合、 ベクターデータベースのカスタムモデルにはデフォルトの4GBを超えるRAMが必要となる場合があります。 カスタムモデルのリソース割り当ては、組織管理者によって設定できます。
-
トークン予算:
-
ベクターデータベースから取得するコンテキストの数を決定する際、DataRobotは余ったトークン予算(LLMのコンテキストサイズ)の3/4を取得ドキュメントに割り当て、残りをチャット履歴(該当する場合)に割り当てます。
-
トークン予算は、システムプロンプト、ユーザープロンプト、および最大完了長で構成されます。 _余った_トークン予算というのは、
コンテキストサイズ - (最大完了長 + システムプロンプト + ユーザープロンプト)
です。 -
チャット履歴がない場合、余った予算はすべてドキュメントの取得に使用されます。 同様に、ベクターデータベースがない場合、余った予算は履歴に使用されます。
-
-
チャンキング:
- データセット内の個々の文書が非常に大きなテキストを含んでいる場合、セマンティックチャンキングによるベクターデータベース作成は失敗する可能性があります。 正確な限界は不明ですが、エラーが発生した場合は、代わりに再帰的チャンキングを使用してください。
-
-
メタデータのフィルターは、完全一致のパターンマッチングのみをサポートしており、部分文字列や相対式には対応していません。
-
複数の文字列が入力されると、DataRobotは暗黙のANDを適用します。 他の演算子はサポートしていません。
-
メタデータのフィルターを導入する以前に作成されたベクターデータベースは、この機能をサポートしていません。 それらにフィルターを使用するには、オリジナルからバージョンを作成し、代わりに新しいベクターデータベースを使用するようにLLMブループリントを設定します。
-
chunk_id
、start_index
、page
、similarity_score
、pagebreak_indices
、content
、_doc_vector
、およびchunk_size
は内部列名であり、メタデータ列の定義には使用しないでください。 -
メタデータのフィルターのために、
document_file_path
列名はsource
として表示されます。 -
すべてのBYO機能と同様に、BYOベクターデータベースのメタデータフィルターには、追加の設定が必要です。 BYOコンポーネントは、DataRobot内部のベクターデータベースをスタンドアロンでドロップイン置換するものである必要があるため、ベクターデータベースの完全な機能を実装する必要があります。すなわち、
query
と検索パラメーターk
、filter
とadd_neighbor_chunks
の列を含む入力データフレームを処理し、構造化されていない形式で潜在的なメタデータを含む、一致する最も類似したドキュメントを返す必要があります。
-
サポートされているデータ型も参照してください。
プレイグラウンドデプロイに関する注意事項¶
プレイグラウンドからLLMを登録およびデプロイする際は、以下の点に注意してください。
-
DataRobot資格情報管理システムを介したAPIキーの設定がサポートされています。 これらの資格情報は、デプロイの環境変数としてアクセスされます。
-
登録とデプロイは、以下に対してサポートされています。
-
プレイグラウンド内のすべてのベースLLM。
-
ベクターデータベースを使用したLLM。
-
-
大規模ベクターデータベース(500 MB以上)に関連付けられたLLMブループリントからカスタムモデルバージョンを作成すると、時間がかかる場合があります。 モデルが作成されている間、モデルワークショップを離れることができます。進捗が失われることはありません。
ボルトオンのガバナンスAPI¶
-
When using the Bolt-on Governance API with a deployed LLM blueprint, see LLM availability for the recommended values of the
model
parameter. Alternatively, specify a reserved value,model="datarobot-deployed-llm"
, to let the LLM blueprint select the relevant model ID automatically when calling the LLM provider's services. -
Configuring evaluation and moderation for the custom model negates the effect of streaming responses in the chat completion API, since guardrails evaluate the complete response of the LLM and return the response text in one chunk.
-
ボルトオンのガバナンスAPIでは、次のOpenAIパラメーターはサポートされていません:
functions
、tool
、tool_choice
、logprobs
、top_logprobs
。
LLMの評価とモデレーション¶
LLMの評価とモデレーションに関連する注意事項を以下に示します。
-
UIとAPIの両方で 合成データセットを生成できます。 可能であれば、DataRobotが出力形式として期待する形式に最も従っているため、GPT-4を使用してください。 それ以外の場合、LLMは質問と答えのペアを生成しない場合があります。
-
指標:
-
NeMoの指標では、
blocked_terms.txt
ファイルはプロンプト指標と回答指標の間で共有されます。 その結果、プロンプト指標のblocked_terms.txt
を変更すると、回答指標のそれも変更されます。その逆も同様です。 -
すべての指標はコピーでき、重複して存在することができます。ただし、例外があります。カスタムモデルに存在できるNeMoの トピック維持 指標は2つだけです。1つは入力用、もう1つは出力用です(NeMoの指標プロンプトとNeMoの回答指標1つ)。
-
選択したLLMが正しい出力形式を生成しない場合、忠実度と正確度の指標は0を返します。
-
指標を本番環境に転送する際、プレイグラウンドで指標のガードが有効になっていない場合、レポートガードとして本番環境に転送されます。
-
-
モデレーション:
-
レポートモデレーションの方法では、ガード条件が満たされたときに評価指標の警告をトリガーします。 レポートとブロックモデレーションの方法では、警告をトリガーし 、 各指標に定義されたモデレーションメッセージを表示します。 置換モデレーションの方法は、プレイグラウンドでは使用できません。
-
プレイグラウンド評価指標とモデレーション設定がモデルワークショップに送信されると、評価指標はガード条件(有効な場合)を含む カスタム指標として作成されます。 モデレーション設定は、カスタム指標を作成し、モデルワークショップへのエクスポート中にベース指標スコアを記録するために、プレイグラウンド評価指標を構成する必要はありません。
-
モデルワークショップにプレイグラウンド評価指標とモデレーション設定が送信されると、最初のカスタムモデルバージョンが作成された 後に 、モデレーション設定が適用されます。 その結果、プレイグラウンドからエクスポートされた評価指標には、モデレーション設定を含む2番目のカスタムモデルバージョンが含まれます。 カスタムモデルがモデレーションで使用できるようになるには、この追加ステップが完了し、カスタムモデルの2番目のバージョンが利用可能になっている必要があります。
-
-
集約:
-
評価データセット集計テーブルでは、現在の設定のみのトグルは、設定サイドバーのLLMタブに現在表示されている設定を共有する指標のみを比較します。 古い集計レコードには、使用されるLLMブループリント設定が含まれていない可能性があり、2024年9月に発生したLLMブループリント設定の移行がデフォルトとなっています。今後移行されるすべての新しい集計レコードは、計算に使用されるLLMブループリント設定を追跡します。
-
複数のLLMブループリントがリクエストの一部である場合、DataRobotは、LLMの制限問題を回避するため、ブループリントごとに順次集計を計算します。
-
トライアルユーザーに関する注意事項¶
以下の注意事項は、DataRobotの無料トライアルユーザーにのみ適用されます。
-
複数のユースケースにわたって計算された最大15のベクターデータベースを作成できます。 削除されたベクターデータベースはこの計算に含まれます。
-
1000件のLLM API呼び出しを行うことができます。ここでは、削除されたプロンプトとレスポンスもカウントされます。 ただし、正常に完了したプロンプトレスポンスペアのみがカウントされます。
利用可能なLLMのセクションも参照してください。