Skip to content

アプリケーション内で をクリックすると、お使いのDataRobotバージョンに関する全プラットフォームドキュメントにアクセスできます。

GenAI用語集

GenAI用語集はDataRobotのGenAIの機能に関連する用語の簡潔な定義をまとめています。

チャット

単一の LLMブループリントに基づいてLLMエンドポイントにプロンプトを送信(その結果、LLMペイロードを送信)し、LLMからレスポンスを受信します。 この場合、以前のプロンプト/レスポンスのコンテキストがペイロードとともに送信されます。

チャンキング

非構造化テキストの本文を取得し、より小さな非構造化テキスト (トークン)に分割するアクション。

引用

LLMレスポンスの生成中に使用される ベクターデータベースからのテキストのチャンク。

デプロイ(プレイグラウンドから)

LLMブループリントとそれに関連するすべての設定はレジストリに登録され、DataRobotの 製品スイートでデプロイできます。

埋め込み

テキストの数値(ベクター)表現、またはテキストの数値表現のコレクション。 埋め込みを生成するアクションは、非構造化テキストの チャンクを取得し、テキスト埋め込みモデルを使用してテキストを数値表現に変換することを意味します。 チャンクは埋め込みモデルへの入力で、埋め込みはモデルの“予測”または出力です。

基盤モデル

広範囲なインターネットテキストで事前トレーニングされた人工知能モデルの一種。 テキスト基盤モデルの例は、GPT-4とPaLMです。 これらのモデルは 「基盤」と呼ばれます。さまざまな特定のタスクに合わせてファインチューニングでき、基盤がその上部にある構造を支持するのとよく似ているからです。

生成AI

新しいコンテンツを作成できる人工知能の一種。 これは、データのパターンを学習し、同じパターンに適合する新しいコンテンツを生成するように設計されています。 生成AIの最も一般的なユースケースには、合成の画像、音楽、ボイスオーバー、テキストの作成が含まれます。 よく利用されている形式の生成AIは、敵対的生成ネットワーク(GAN)で、これは 2つのニューラルネットワーク、ジェネレーター、およびディスクリミネーターを使用して、出力を作成および調整します。

大規模言語モデル(LLM)

ディープラーニング技術と大規模なデータセットを使用して、新しい内容を理解、要約、生成、予測するアルゴリズム。

LLMブループリント

保存されたブループリントは、 デプロイに使用できます。 LLMブループリントは、LLMからレスポンスを生成するために必要なものの完全なコンテキストを表し、結果の出力は、 プレイグラウンド内で比較できます。 この情報は、 LLMブループリント設定でキャプチャされます。

LLMブループリントのコンポーネント

LLMブループリント設定を構成するエンティティ。これは、ベクターデータベース、ベクターデータベースを生成する埋め込みモデルユーザー、LLM設定、システムプロンプトなどを指します。これらのコンポーネントは、DataRobot内でネイティブに提供することも、外部ソースから取り込むこともできます。

LLMブループリントのドラフト

エクスペリメントと評価に使用できる LLMブループリントのドラフトで、最終的にデプロイできるブループリントとして保存されます。

LLMブループリントの設定

レスポンスを生成するためにLLMに送信されるパラメーター(ユーザーが入力したプロンプトと連動)。 これには、単一のLLM、LLM設定、オプションでシステムプロンプト、さらにオプションでベクターデータベースが含まれます。 ベクターデータベースが割り当てられていない場合、LLMはトレーニングからの学習を使用してレスポンスを生成します。 LLM ブループリントの設定は変更可能なので、さまざまな設定を試すことができます。

LLM payload

レスポンスを生成するためにLLMエンドポイントに送信される内容のバンドル。 これには、ユーザープロンプト、LLM設定、システムプロンプト、ベクターデータベースから取得した情報が含まれます。

LLMのレスポンス

LLMエンドポイントに送信されたペイロードに基づいてLLMから生成されたテキスト。

LLM設定

LLMがユーザープロンプトを入力してレスポンスを生成する方法を定義するパラメーター。 これらは、レスポンスを変更するためにLLMブループリント内で調整できます。 現在、これらのパラメーターは「Temperature」、「Top P」、「最大出力トークン数」設定で表されます。

プレイグラウンド

LLMブループリント(LLMおよび関連する設定)を作成して操作する場所。それぞれのレスポンスを比較して、本番環境で使用するものを決定します。 多くのLLMブループリントは、プレイグラウンド内に存在することができます。 プレイグラウンドはユースケースのアセットです。1つのユースケースに複数のプレイグラウンドが存在する場合があります。

プレイグラウンドの比較

比較のためにLLMブループリントをプレイグラウンドに追加し、これらのLLMブループリントにプロンプトを送信し、レンダリングされたレスポンスを評価する場所です。 RAGでは、以前のプロンプトを参照せずに、単一のプロンプトがLLMに送信され、単一のレスポンスが生成されます。 これにより、ユーザーは複数のLLMブループリントからのレスポンスを比較できます。

プロンプト

チャット中に行う入力で、LLMのレスポンスの生成に使用されます。

プロンプトテンプレート

システムプロンプトを参照してください。

取得拡張生成(RAG)

プロンプト、システムプロンプト、LLM設定、ベクターデータベース(またはベクターデータベースのサブセット)、およびこのペイロードに基づいて対応するテキストを返すLLMを含むペイロードをLLMに送信するプロセス。 これには、ベクターデータベースから関連情報を取得し、プロンプト、システムプロンプト、およびLLM設定とともにLLMエンドポイントに送信して、ベクターデータベース内のデータに基づくレスポンスを生成するプロセスが含まれます。 この操作には、オプションで複数のプロンプトのチェーンを実行するためのオーケストレーションを組み込むこともできます。

システムプロンプト

オプションのフィールドであるシステムプロンプトは、個々のすべてのプロンプトの先頭にある「汎用」プロンプトです。 LLMのレスポンスを指示およびフォーマットします。 システムプロンプトは、レスポンス生成中に作成される構造、トーン、形式、コンテンツに影響を与えることがあります。```

トークン

トークンは、LLMが操作できるテキストの最小単位です。 ユーザープロンプトを処理するとき、LLMは入力テキストをトークンに分割し、トークンごとに出力トークンを生成します。 別のLLMでは、トレーニングされたデータから語彙を学習するため、同じテキストを様々な方法でトークンに分離することがあります。 言語とLLMに応じて、トークンは文字、文字のグループ、単語、またはその他のテキスト単位になります。 GPTモデルのトークン長の目安は、英語では1 token ~= 4文字です。

非構造化テキスト

テーブルにすっきり収まらないテキスト。 最も一般的な例は、通常、何らかの種類のドキュメントまたはフォームの大きなテキストブロックです。

ベクターデータベース

非構造化テキストのチャンクのコレクションとそれに対応する各チャンクに対するテキスト埋め込み。取得しやすいようにインデックスが付けられています。 ベクターデータベースをオプションとして使用して、LLMのレスポンスを特定の情報に基づかせ、 RAG操作中に活用するLLMブループリントに割り当てることができます。 ベクターデータベースの作成は、非構造化テキストのコレクションがチャンクに分割され、埋め込みがチャンクごとに生成され、チャンクと埋め込みの両方がデータベースに保存され、一部のサービスで取得できるときに発生します。 ベクターデータベースの更新とは、最初に作成されたベクターデータベースにコンテンツを追加(または削除)することです。 これは、ベクターデータベースへのテキストの新しいチャンクの追加(または削除)および新しい埋め込みの作成(または削除)を意味します。


更新しました February 6, 2024
Back to top