Skip to content

アプリケーション内で をクリックすると、お使いのDataRobotバージョンに関する全プラットフォームドキュメントにアクセスできます。

GenAI機能に関する注意事項

DataRobotで生成AI機能を使用する場合は、以下の点に注意してください。 製品の開発が進むにつれ、いくつかの注意事項が変更されることがあります。

トライアルユーザーサポートされているLLMベースモデルを含む、 DataRobotの無料トライアルに固有の注意事項を参照してください。

可用性

次のセクションでは、GenAIモデル作成の一部であるさまざまな要素(LLM、埋め込み、データ型、共有)のサポートについて説明します。

利用可能なLLM

次の表に、利用可能なLLMのタイプを示します。

タイプ 最大コンテキストウィンドウ 最大出力トークン数 Chat model ID Δ
Amazon Titan* 8,000 8,000 amazon.titan-text-express-v1
Anthropic Claude 2.1 200,000 4,096 anthropic.claude-v2:1
Anthropic Claude 3 Haiku 200,000 4,096 anthropic.claude-3-haiku-20240307-v1:0
Anthropic Claude 3 Sonnet 200,000 4,096 anthropic.claude-3-sonnet-20240229-v1:0
Anthropic Claude 3 Opus† 200,000 4,096 anthropic.claude-3-opus-20240229-v1:0
Azure OpenAI GPT-4 8,192 8,192 gpt-4
Azure OpenAI GPT-4 32k 32,768 32,768 gpt-4-32k
Azure OpenAI GPT-4 Turbo 128,000 4,096 gpt-4-turbo
Azure OpenAI GPT-4o 128,000 4,096 gpt-4o
Azure OpenAI GPT-4o mini* 128,000 16,384 gpt-4o-mini
Azure OpenAI GPT-3.5 Turbo* 4,096 4,096 gpt-35-turbo
Azure OpenAI GPT-3.5 Turbo 16k 16,384 16,384 gpt-35-turbo-16k
Google Bison* 4,096 2,048 chat-bison@002
Google Gemini 1.5 Flash 1,048,576 8,192 gemini-1.5-flash-001
Google Gemini 1.5 Pro 2,097,152 8,192 gemini-1.5-flash-001

* トライアルユーザーが使用可能。
† Due to EU regulations, Claude 3 Opus model access is disabled for Cloud users on the EU platform.
Δ The model ID the playground uses for calling the LLM provider's services. This value is also the recommended value for the model parameter when using the Bolt-on Governance API for deployed LLM blueprints.

埋め込みの可用性

DataRobotは、データをエンコードするために次のタイプの埋め込みをサポートしています。すべての埋め込みは、教師ありデータと教師なしデータの混合で学習された変換モデルです。

埋め込みタイプ 説明 言語
cl-nagoya/sup-simcse-ja-base 名古屋大学 大学院情報学研究科(「Japanese SimCSE Technical Report」)による中規模言語モデル。 日本語RAGの高速モデルです。

  • 入力ディメンション*:512
  • 出力ディメンション:768
  • パラメーター数:110M
日本語
huggingface.co/intfloat/multilingual-e5-base 複数の言語で多言語RAG処理に使用されるMicrosoft Researchの中規模言語モデル(「大規模多言語コーパスでの弱教師付き対照事前トレーニング」)。

  • 入力ディメンション*:512
  • 出力ディメンション:768
  • パラメーター数:278M
100以上、 ISO 639を参照
huggingface.co/intfloat/multilingual-e5-small 多言語RAG処理に使用するMicrosoft Researchの小規模言語モデル(「大規模多言語コーパスでの弱教師付き対照事前トレーニング」)で、MULTILINGUAL_E5_BASEよりも高速です。 この埋め込みモデルは、低レイテンシーのアプリケーションに適しています。

  • 入力ディメンション*:512
  • 出力ディメンション:384
  • パラメーター数:118M
100以上、 ISO 639を参照
intfloat/e5-base-v2 中〜高程度のRAGパフォーマンスを実現するためのMicrosoft Researchの中規模言語モデル(「大規模英語コーパスでの弱教師付き対照事前トレーニング」)。 パラメーターが少なく、アーキテクチャが小さいため、E5_LARGE_V2よりも高速です。

  • 入力ディメンション*:512
  • 出力ディメンション:768
  • パラメーター数:110M
英語
intfloat/e5-large-v2 最適なRAGパフォーマンスを実現するように設計されたMicrosoft Researchの大規模言語モデル(「大規模英語コーパスでの弱教師付き対照事前トレーニング」)。 そのアーキテクチャとサイズにより、低速と分類されます。

  • 入力ディメンション*:512
  • 出力ディメンション:1024
  • パラメーター数:335M
英語
jinaai/jina-embedding-t-en-v1 Jina AIのLinnaeus-Cleanデータセットを使用してトレーニングされた小さな言語モデル。 英語コーパスで事前にトレーニングされており、DataRobotが提供する埋め込みモデルの中で最も高速で、デフォルトのモデルです。

  • 入力ディメンション*:512
  • 出力ディメンション:384
  • パラメーター数:14M
英語
jinaai/jina-embedding-s-en-v2 Jina Embeddings v2ファミリーの1つであるこの埋め込みモデルは、長いドキュメントの埋め込みに最適です(最大8192の大きなチャンクサイズ)。

  • 入力ディメンション*:8192
  • 出力ディメンション:384
  • パラメーター数:33M
英語
sentence-transformers/all-MiniLM-L6-v2 10億個のセンテンスペアのデータセットでファインチューニングされた小さな言語モデル。 比較的高速で、英語のコーパスで事前トレーニングされています。 ただし、古いデータでトレーニングされているため、RAGには推奨されません。

  • 入力ディメンション*:256
  • 出力ディメンション:384
  • パラメーター数:33M
英語

* 入力ディメンション = max_sequence_length

E5-baseおよびE5-smallの多言語サポート。ISO 639も参照してください。
対応言語:

    "アフリカーンス語",
        "アムハラ語",
        "アラビア語",
        "アッサム語",
        "アゼルバイジャン語",
        "ベラルーシ語",
        "ブルガリア語",
        "ベンガル語",
        "ブルトン語",
        "ボスニア語",
        "カタルーニャ語",
        "チェコ語",
        "ウェールズ語",
        "デンマーク語",
        "ドイツ人語",
        "ギリシャ語",
        "英語",
        "エスペラント語",
        "スペイン語",
        "エストニア語",
        "バスク語",
        "ペルシャ語",
        "フィンランド語",
        "フランス語",
        "西フリジア語",
        "アイルランド語",
        "スコットランドのゲール語",
        "ガリシア語",
        "グジャラート語",
        "ハウサ語",
        "ヘブライ語",
        "ヒンディー語",
        "クロアチア語",
        "ハンガリー語",
        "アルメニア語",
        "インドネシア語",
        "アイスランド語",
        "イタリア語",
        "日本語",
        "ジャワ語",
        "ジョージア語",
        "カザフ語",
        "クメール語",
        "カンナダ語",
        "韓国語",
        "クルド語",
        "キルギス語",
        "ラテン語",
        "ラオス語",
        "リトアニア語",
        "ラトビア語",
        "マダガスカル語",
        "マケドニア語",
        "マラヤーラム語",
        "モンゴル語",
        "マラーティー語",
        "マレー語",
        "ビルマ語",
        "ネパール語",
        "オランダ語",
        "ノルウェー語",
        "オロモ語",
        "オリヤ語",
        "パンジャブ語",
        "ポーランド語",
        "パシュトゥー語",
        "ポルトガル語",
        "ルーマニア語",
        "ロシア語",
        "サンスクリット語",
        "シンド語",
        "シンハラ語",
        "スロバキア語",
        "スロベニア語",
        "ソマリ語",
        "アルバニア語",
        "セルビア語",
        "スンダ語",
        "スウェーデン語",
        "スワヒリ語",
        "タミル語",
        "テルグ語",
        "タイ語",
        "タガログ語",
        "トルコ語",
        "ウイグル語",
        "ウクライナ語",
        "ウルドゥー語",
        "ウズベク語",
        "ベトナム語",
        "コサ語",
        "イディッシュ語",
        "中国語",

共有と権限

以下の表に、GenAIコンポーネント関連のユーザー権限を示します。 すべてのロール(コンシューマー、エディター、オーナー)は、ユースケースにおけるユーザーのロールを示しています。さまざまな機能へのアクセスは、ユースケースの役割に基づきます。 たとえば、共有はユースケースレベルで処理されるため、ベクターデータベースのみを共有することはできません(ベクターデータベースでは共有ルールは定義されません)。

GenAI機能に対する権限
機能 ユースケースのコンシューマー ユースケースのエディター ユースケースのオーナー
ベクターデータベース
ベクターデータベースの作成者
ベクターデータベースを作成
ベクターデータベースバージョンの作成
ベクターデータベースの情報を編集
ベクターデータベースを削除
ベクターデータベースの非作成者
ベクターデータベースの情報を編集
ベクターデータベースを削除
プレイグラウンド
プレイグラウンドの作成者
プレイグラウンドの作成
プレイグラウンド名の変更
プレイグラウンドの説明を編集
プレイグラウンドを削除
プレイグラウンドの非作成者
プレイグラウンドの説明を編集
プレイグラウンドを削除
プレイグラウンド → 評価タブ
評価の設定
評価指標を有効/無効にする
プレイグラウンド → トレースタブ
ログをダウンロード
AIカタログにアップロード
他者が作成したLLMブループリント(ユースケースを共有)
設定
プロンプトの送信(設定から)
集計された指標を生成
会話の作成(比較から)
回答に賛成/反対
スターを付ける/お気に入り
新しいLLMブループリントにコピー
削除
登録

サポートされているデータセットタイプ

ベクターデータベースの作成に使用するデータセットをアップロードする場合、サポートされている形式は.zipまたは.csvです。 ファイルにはdocumentdocument_file_pathの2つの列が必須です。 最大50のメタデータ列を追加して、プロンプトクエリーの際にフィルターに使用することができます。 メタデータのフィルターでは、document_file_pathsourceとして表示されます。

.zipファイルの場合、DataRobotはファイルを処理して、関連するリファレンスID(document_file_path)列を持つテキスト列(document)を含む.csvバージョンを作成します。 テキスト列の内容はすべて、文字列として扱われます。 リファレンスID列は、.zipがアップロードされると自動的に作成されます。 すべてのファイルは、アーカイブのルート(root)、またはアーカイブ内の単一のフォルダーに配置する必要があります。 フォルダーツリー階層の使用はサポートされていません。

ファイルタイプに関して、DataRobotは以下をサポートします。

  • .txtドキュメント

  • PDFドキュメント

    • テキストベースのPDFがサポートされています。
    • 画像ベースのPDFは完全にはサポートされていません。 したがって、画像は一般的に無視されますが、エラーは発生しません。
    • 画像とテキストコンテンツが混在するドキュメントがサポートされます。テキストのみが解析されます。
    • 画像だけで構成される単一のドキュメントは空のドキュメントになり、無視されます。
    • 画像のみのドキュメント(テキストなし)で構成されるデータセットは処理できません。
  • .docxドキュメントはサポートされていますが、古い.doc形式はサポートされていません。

  • .mdドキュメント(および.markdown形式)はサポートされています。

  • 単一のデータセットでサポートされているすべてのドキュメントタイプを組み合わせることができます。

一般的な注意事項

  • 多言語データセットが多言語モデルに関連付けられた制限を超える場合、DataRobotはデフォルトでjinaai/jina-embedding-t-en-v1埋め込みモデルを使用します。

  • 余分な列を含むトレーニングデータが添付されたカスタムモデルから作成されたデプロイは、カスタムモデルで列のフィルターが無効になっていない限り使用できません。

  • BYOのLLMまたはプレイグラウンドからデプロイされたLLMを使用する場合、資格情報に関連付けられたエンドポイントを指すランタイムパラメーターが必要です。ベンダーのモデルバージョンおよびエンドオブライフ(EOL)スケジュールに注意してください。 ベストプラクティスとして、本番環境にデプロイするときには一般的に使用できるエンドポイントのみを使用してください。 (これはプレイグラウンドで提供されているモデルによって管理されます。)

  • UIでプレイグラウンドやベクターデータベースにアクセスすると、[Internal] DR API Access for GenAI Experimentationという名前のAPIキーが自動的に作成されます。

  • GPUを使用する場合、BYO埋め込み機能は、セルフマネージドユーザーのみ使用できます。 多くのユーザーがベクターデータベース作成ジョブを同時に実行する場合、BYO埋め込みを使用すると、ベクターデータベース作成ジョブが完了するまでLLMプレイグラウンド機能が低下する可能性があります。 埋め込みモデルを含むカスタムモデルを備えたCPUの使用は、すべての環境でサポートされています。

  • 一度に実行できる集計指標ジョブは1つだけです。 集計ジョブが現在実行されている場合、 集計の設定ボタンが無効になり、「集計ジョブが進行中です。処理が完了したら、もう一度試してください」というツールチップが表示されます。

プレイグラウンドに関する注意事項

  • プレイグラウンドは表示用に共有できます。エディターまたは所有者のアクセス権限を持つユーザーは、共有プレイグラウンド内で追加のアクション(ブループリントの作成など)を実行できます。 作成者以外のユーザーはプレイグラウンドでLLMブループリントのプロンプトを実行することはできませんが、コピーを作成して、そのコピーにプロンプトを送信できます。

  • プロンプトを表示できるのは、自分で作成したLLMブループリントのみです(設定ビューと比較ビューの両方)。 共有ユースケースで他のユーザーのLLMブループリントをプロンプトした結果を確認するには、ブループリントをコピーし、同じ設定を適用してチャットします。

  • 各ユーザーは、すべてのLLMに1日あたり5,000件のLLMプロンプトを送信できます。ここでは、削除されたプロンプトとレスポンスもカウントされます。 ただし、成功したプロンプトレスポンスペアのみがカウントされ、持ち込み(BYO)LLMコールはカウントの対象外になります。 トライアルユーザーの制限は、 ここに説明されているように異なります。

ベクターデータベースに関する注意事項

以下のセクションでは、 ベクターデータベースに関連する注意事項について説明します。 以下の サポート対象のデータセットタイプも参照してください。

セルフマネージドAIプラットフォームでのGPUの使用

1GBを超えるデータセットを処理する場合、GPUの使用をクラスターに設定していないセルフマネージド環境では、深刻な遅延が発生する可能性があります。 DataRobotサポートにメールで問い合わせるか、 サポートサイトにアクセスして、インストール方法をご確認ください。

  • 作成:

    • デフォルトでは、DataRobotはFacebook AI Similarity Search (FAISS)ベクターデータベースを使用します。

    • ベクターデータベースの作成時および生成されるベクターデータベースアセットサイズ(抽出後のテキスト)には、10GBのデータセット制限がグローバルに適用されます。

  • デプロイ:

  • トークン予算:

    • ベクターデータベースから取得するコンテキストの数を決定する際、DataRobotは余ったトークン予算(LLMのコンテキストサイズ)の3/4を取得ドキュメントに割り当て、残りをチャット履歴(該当する場合)に割り当てます。

    • トークン予算は、システムプロンプト、ユーザープロンプト、および最大完了長で構成されます。 _余った_トークン予算というのは、コンテキストサイズ - (最大完了長 + システムプロンプト + ユーザープロンプト)です。

    • チャット履歴がない場合、余った予算はすべてドキュメントの取得に使用されます。 同様に、ベクターデータベースがない場合、余った予算は履歴に使用されます。

  • チャンキング:

    • データセット内の個々の文書が非常に大きなテキストを含んでいる場合、セマンティックチャンキングによるベクターデータベース作成は失敗する可能性があります。 正確な限界は不明ですが、エラーが発生した場合は、代わりに再帰的チャンキングを使用してください。
  • メタデータのフィルター

    • メタデータのフィルターは、完全一致のパターンマッチングのみをサポートしており、部分文字列や相対式には対応していません。

    • 複数の文字列が入力されると、DataRobotは暗黙のANDを適用します。 他の演算子はサポートしていません。

    • メタデータのフィルターを導入する以前に作成されたベクターデータベースは、この機能をサポートしていません。 それらにフィルターを使用するには、オリジナルからバージョンを作成し、代わりに新しいベクターデータベースを使用するようにLLMブループリントを設定します。

    • chunk_idstart_indexpagesimilarity_scorepagebreak_indicescontent_doc_vector、およびchunk_sizeは内部列名であり、メタデータ列の定義には使用しないでください。

    • メタデータのフィルターのために、document_file_path列名はsourceとして表示されます。

    • すべてのBYO機能と同様に、BYOベクターデータベースのメタデータフィルターには、追加の設定が必要です。 BYOコンポーネントは、DataRobot内部のベクターデータベースをスタンドアロンでドロップイン置換するものである必要があるため、ベクターデータベースの完全な機能を実装する必要があります。すなわち、queryと検索パラメーターkfilteradd_neighbor_chunksの列を含む入力データフレームを処理し、構造化されていない形式で潜在的なメタデータを含む、一致する最も類似したドキュメントを返す必要があります。

サポートされているデータ型も参照してください。

プレイグラウンドデプロイに関する注意事項

プレイグラウンドからLLMを登録およびデプロイする際は、以下の点に注意してください。

  • DataRobot資格情報管理システムを介したAPIキーの設定がサポートされています。 これらの資格情報は、デプロイの環境変数としてアクセスされます。

  • 登録とデプロイは、以下に対してサポートされています。

    • プレイグラウンド内のすべてのベースLLM。

    • ベクターデータベースを使用したLLM。

  • 大規模ベクターデータベース(500 MB以上)に関連付けられたLLMブループリントからカスタムモデルバージョンを作成すると、時間がかかる場合があります。 モデルが作成されている間、モデルワークショップを離れることができます。進捗が失われることはありません。

ボルトオンのガバナンスAPI

  • When using the Bolt-on Governance API with a deployed LLM blueprint, see LLM availability for the recommended values of the model parameter. Alternatively, specify a reserved value, model="datarobot-deployed-llm", to let the LLM blueprint select the relevant model ID automatically when calling the LLM provider's services.

  • Configuring evaluation and moderation for the custom model negates the effect of streaming responses in the chat completion API, since guardrails evaluate the complete response of the LLM and return the response text in one chunk.

  • ボルトオンのガバナンスAPIでは、次のOpenAIパラメーターはサポートされていません:functionstooltool_choicelogprobstop_logprobs

LLMの評価とモデレーション

LLMの評価とモデレーションに関連する注意事項を以下に示します。

  • UIとAPIの両方で 合成データセットを生成できます。 可能であれば、DataRobotが出力形式として期待する形式に最も従っているため、GPT-4を使用してください。 それ以外の場合、LLMは質問と答えのペアを生成しない場合があります。

  • 指標:

    • NeMoの指標では、blocked_terms.txtファイルはプロンプト指標と回答指標の間で共有されます。 その結果、プロンプト指標のblocked_terms.txtを変更すると、回答指標のそれも変更されます。その逆も同様です。

    • すべての指標はコピーでき、重複して存在することができます。ただし、例外があります。カスタムモデルに存在できるNeMoの トピック維持 指標は2つだけです。1つは入力用、もう1つは出力用です(NeMoの指標プロンプトとNeMoの回答指標1つ)。

    • 選択したLLMが正しい出力形式を生成しない場合、忠実度と正確度の指標は0を返します。

    • 指標を本番環境に転送する際、プレイグラウンドで指標のガードが有効になっていない場合、レポートガードとして本番環境に転送されます。

  • モデレーション:

    • レポートモデレーションの方法では、ガード条件が満たされたときに評価指標の警告をトリガーします。 レポートとブロックモデレーションの方法では、警告をトリガーし 各指標に定義されたモデレーションメッセージを表示します。 置換モデレーションの方法は、プレイグラウンドでは使用できません。

    • プレイグラウンド評価指標とモデレーション設定がモデルワークショップに送信されると、評価指標はガード条件(有効な場合)を含む カスタム指標として作成されます。 モデレーション設定は、カスタム指標を作成し、モデルワークショップへのエクスポート中にベース指標スコアを記録するために、プレイグラウンド評価指標を構成する必要はありません。

    • モデルワークショップにプレイグラウンド評価指標とモデレーション設定が送信されると、最初のカスタムモデルバージョンが作成された 後に 、モデレーション設定が適用されます。 その結果、プレイグラウンドからエクスポートされた評価指標には、モデレーション設定を含む2番目のカスタムモデルバージョンが含まれます。 カスタムモデルがモデレーションで使用できるようになるには、この追加ステップが完了し、カスタムモデルの2番目のバージョンが利用可能になっている必要があります。

  • 集約:

    • 評価データセット集計テーブルでは、現在の設定のみのトグルは、設定サイドバーのLLMタブに現在表示されている設定を共有する指標のみを比較します。 古い集計レコードには、使用されるLLMブループリント設定が含まれていない可能性があり、2024年9月に発生したLLMブループリント設定の移行がデフォルトとなっています。今後移行されるすべての新しい集計レコードは、計算に使用されるLLMブループリント設定を追跡します。

    • 複数のLLMブループリントがリクエストの一部である場合、DataRobotは、LLMの制限問題を回避するため、ブループリントごとに順次集計を計算します。

トライアルユーザーに関する注意事項

以下の注意事項は、DataRobotの無料トライアルユーザーにのみ適用されます。

  • 複数のユースケースにわたって計算された最大15のベクターデータベースを作成できます。 削除されたベクターデータベースはこの計算に含まれます。

  • 1000件のLLM API呼び出しを行うことができます。ここでは、削除されたプロンプトとレスポンスもカウントされます。 ただし、正常に完了したプロンプトレスポンスペアのみがカウントされます。

利用可能なLLMのセクションも参照してください。


更新しました 2025年3月14日