Skip to content

備考

このドキュメントには、エージェントまたはエージェントワークフローに関連する用語が含まれています。 完全な用語集については、DataRobot用語集をご覧ください。

エージェント用語集

このドキュメントには、DataRobot用語集からエージェントまたはエージェントワークフローに関連するすべての用語が含まれています。

A


エージェント

複雑な複数ステップのタスクを自律的に実行するように設計された、DataRobot内のAI搭載コンポーネント。 エージェントには特定の目標、LLM、および一連のツールを設定でき、人間の直接的な介入なしに、データ準備ワークフローのオーケストレーション、モデリングエクスペリメントの実行、分析の生成などのアクションを実行できます。 エージェントは自律的な行動を示し、環境について推論し、意思決定を行い、フィードバックに基づいて戦略を適応させることができます。 複数のエージェントをエージェントワークフローに組み合わせて、コラボレーションと調整を通じてより高度なビジネス課題を解決することも可能です。

エージェントベースのモデリング

個々のエージェントとその相互作用をモデル化することで、複雑なシステムをシミュレートする計算モデリング手法。 エージェントベースのモデリングにより、個々のエージェントの動作から生じる創発的な挙動やシステムレベルの特性を研究できます。 DataRobotのプラットフォームでは、この機能を使用してビジネスプロセスをシミュレートし、エージェントの戦略をテストし、異なるエージェント設定がシステム全体のパフォーマンスにどのように影響するかを理解できます。

エージェント型AI

AIシステムが自律的なエージェントとして動作するように設計された人工知能のパラダイム。これらのシステムは、最小限の人間の監視で環境を認識し、目標について推論し、アクションを計画し、タスクを実行します。 エージェント型AIシステムは、独立した意思決定を行い、経験から学習し、目的を達成するために動作を適応させる能力を特徴としています。 DataRobotのプラットフォームにおけるエージェント型AIは、複雑なデータサイエンスワークフローの高度な自動化を可能にし、データの準備からモデルのデプロイ、監視までのエンドツーエンドのプロセスをAIシステムが処理できるようにします。

エージェントのワークフロー

ワークフロー内でタスクを実行し、意思決定を行うためにAIエージェントを活用するシステムであり、多くの場合、人間の介入を最小限に抑えます。 エージェントワークフローは、DataRobotのテンプレートとCLIを使用してローカルのIDEで構築でき、UIまたはコード内のガード(コンテンツの安全性やトピック制限のためのNVIDIA NeMoとの連携を含む)を用いたリアルタイムのLLM介入とモデレーションによって管理できます。

エージェントフレームワーク(AF)のコンポーネント

エージェントフレームワーク(AF)のコンポーネントは、洗練されたAIエージェントを構築するためのモジュール式のビルディングブロックを提供します。 AFのコンポーネントには、推論エンジン、メモリーシステム、アクションプランナー、通信モジュールが含まれ、これらを組み合わせてカスタムエージェントアーキテクチャを作成できます。 DataRobotのプラットフォームでは、AFのコンポーネントにより、異なるエージェント実装間での一貫性と相互運用性を維持しながら、特定の機能を備えた専門的なエージェントを迅速に開発できます。

エージェント・ツー・エージェント(A2A)

エージェント・ツー・エージェント(A2A)は、AIエージェント間の直接的な対話と調整を可能にする通信プロトコルとフレームワークを指します。 A2Aシステムは、複数のエージェント間での情報共有、タスクの委譲、共同の問題解決を促進します。 DataRobotのエージェントワークフローにおいて、A2A機能は、エージェントがシームレスに連携し、コンテキストと知識を共有し、セキュリティとガバナンスの制御を維持しながら複雑なマルチエージェント操作を調整することを可能にします。

アライメント

AIモデルの出力と動作を、組織固有の倫理ガイドライン、安全性要件、およびビジネス目標に適合するように誘導する重要なプロセス。 DataRobotでは、ガードレール、カスタムシステムプロンプト、コンテンツモデレーションポリシーなどの機能を通じて、アライメントが実用的に適用されます。 この実践は、偏った、安全でない、またはトピックから外れたモデルの回答によるリスクを軽減し、AIが企業にとって信頼できるツールであり続けることを保証します。

アプリ

AIアプリを参照してください。

自律性

AIエージェントが、絶え間ない人間の監視なしに独立して動作し、意思決定を行う能力。 自律的なエージェントは、変化する状況やフィードバックに基づいて行動を計画、実行、適応させることができます。 DataRobotのエージェントワークフローでは、安全で効果的な運用を確保するため、ガードレールと監視を通じて自律性と人間の監視のバランスが取られています。 自律性により、エージェントはビジネス目標や安全性要件との整合性を維持しながら、複雑で多段階のプロセスを処理できます。

C


Chain-of-thought

言語モデルに、複雑な問題をステップバイステップの推論プロセスに分解するよう促すプロンプト技術。言語モデルに対し、複雑な問題をステップバイステップの推論プロセスに分解するように促すプロンプト技法 DataRobotのエージェントワークフローでは、意思決定において明示的な中間ステップを要求することで、思考連鎖プロンプトがエージェントの推論能力を強化し、より透明で信頼性の高い結果を導く。 この技術により、問題解決の精度が向上し、マルチステップタスクにおけるエージェントの動作のデバッグや検証がより適切に行えるようになります。

チャット

単一の LLMブループリントに基づいてLLMエンドポイントにプロンプトを送信(その結果、LLMペイロードを送信)し、LLMからレスポンスを受信します。 この場合、以前のプロンプト/レスポンスのコンテキストがペイロードとともに送信されます。

チャンキング

非構造化テキストの本文を取得し、より小さな非構造化テキスト (トークン)に分割するアクション。

引用

LLMレスポンスの生成中に使用される ベクターデータベースからのテキストのチャンク。

CLI

コマンドラインインターフェイス(CLI)ツールは、DataRobotのエージェントワークフローとプラットフォームサービスとのプログラムによる対話を可能にします。 CLIツールは、エージェント設定、ワークフロー実行、プラットフォーム管理機能へのスクリプト可能なアクセスを提供します。 DataRobotのエージェントエコシステムでは、CLIツールがエージェントのデプロイ、監視、メンテナンスタスクの自動化をサポートし、CI/CDパイプラインや自動化ワークフローとの統合を可能にします。

認知アーキテクチャ

AIエージェントがどのように情報を処理し、意思決定を行い、環境と相互作用するかを定義する基本的な構造的枠組み。 認知アーキテクチャは、エージェントの知的行動を可能にするコンポーネント、プロセス、関係を指定します。 DataRobotのエージェントワークフローでは、認知アーキテクチャがエージェントの推論、メモリー管理、学習、意思決定機能の基盤を提供し、高度な自律的行動を可能にします。

接続されたベクターデータベース

ベクターデータベースを作成するために、サポートされているプロバイダーに直接接続してアクセスする外部ベクターデータベース。 データソースがデータレジストリにローカルに保存されて、構成設定が適用され、作成されたベクターデータベースがプロバイダーに書き戻されます。 接続されたベクターデータベースは、プラットフォームとのリアルタイム同期を維持し、LLMの回答の基礎となる埋め込みとテキストチャンクへのシームレスなアクセスを提供します。

コンテキストウィンドウ

大規模な言語モデルが、1回のチャット会話でアクティブメモリーに保持できる情報量は限られている(トークンで測定)。 この「記憶」には、ユーザーのプロンプト、提供された最近の会話履歴、およびRAG(Retrieval Augmented Generation)を介して取得されたデータが含まれます。 コンテキストウィンドウのサイズは、長いドキュメントを処理したり、拡張された対話で一貫性を維持したりするモデルの能力を決定するため、LLMブループリントでは重要なパラメーターです。このウィンドウ外の情報は、次の回答を生成するときには考慮されません。

会話メモリー

AIシステムが、会話セッション(セッションに1回以上のチャット会話のターンが含まれることを意味する)内の以前のやり取りを記憶し、参照する能力。 会話メモリーはコンテキストの連続性を可能にし、AIが以前のやり取りを認識し続け、これまでの回答に基づいて会話を構築できるようにします。 DataRobotのチャットインターフェイスでは、会話メモリーが一貫性のある、コンテキストに関連した対話を維持するのに役立っています。

D


デプロイ(プレイグラウンドから)

LLMブループリントとそれに関連するすべての設定はレジストリに登録され、DataRobotの製品スイートでデプロイできます。

DAG(有向非巡回グラフ)

ワークフローを表現するために使用される数学的な構造で、ノードはタスクまたは操作を表し、エッジはそれらの間の依存関係を表す。 AIワークフローにおいて、DAGはタスクが循環依存関係なしに正しい順序で実行されることを保証し、データ前処理、モデルトレーニング、デプロイパイプラインのような複雑なマルチステッププロセスの効率的なオーケストレーションを可能にします。

E


埋め込み

テキストの数値(ベクター)表現、またはテキストの数値表現のコレクション。 埋め込みを生成するアクションは、非構造化テキストの チャンクを取得し、テキスト埋め込みモデルを使用してテキストを数値表現に変換することを意味します。 チャンクは埋め込みモデルへの入力であり、埋め込みはモデルの「予測」すなわち出力です。

エピソード記憶

特定の経験、出来事、過去の相互作用や状況に関するコンテキスト情報を記憶する記憶システム。 エピソード記憶によって、AIエージェントは特定の事例を思い出し、特定の経験から学び、コンテキスト上の知識を類似の状況に適用できます。 DataRobotのエージェントワークフローでは、エピソード記憶によって、エージェントが特定のユーザーとのやり取りや、タスクの成功例、将来の意思決定に役立つコンテキストの詳細を記憶できます。

F


Few-shot学習

プロンプトで提供される少数の例からタスクの実行を学習するモデルの能力。

Few-shotプロンプティング

プロンプト(入力プロンプトまたはシステムプロンプト)の中で、モデルの動作をガイドし、特定のタスクでのパフォーマンスを向上させるために、いくつかの例を提供する手法。 数ショットのプロンプトは、微調整を必要とすることなく、モデルが希望する出力形式やスタイルを理解するのを助け、新しいタスクやドメインへの迅速な適応に役立ちます。

ファインチューニング

事前にトレーニングされた基盤モデルを、対象となるデータセットでトレーニングを続けることにより、特定のタスクやドメインに適応させるプロセス。 DataRobotのプラットフォームでは、ファインチューニングにより、ユーザーは特定のユースケース向けに大規模な言語モデルをカスタマイズすることができ、一般的な機能を維持しながら、ドメイン固有のタスクのパフォーマンスを向上させることができます。 ファインチューニングは、既存のモデルウェイトを使用するプロンプトエンジニアリングとは異なり、モデルの内部パラメーターを変更し、特定のアプリケーション、業界、またはデータタイプに最適化された特殊なバージョンを作成します。

基盤モデル

GPTやClaudeのような強力で大規模なAIモデルは、膨大なデータセットから学習した広範で汎用的な能力を提供します。 DataRobotプラットフォームでは、これらのモデルはLLMブループリントのコアコンポーネントまたは「基礎」として機能します。 基盤モデルとは、既製のソリューションではなく、プロンプト、RAG、微調整といった手法によって特定のビジネスニーズに合わせてカスタマイズできる、汎用性の高い出発点です。

関数呼び出し

大規模な言語モデルが、ユーザーのリクエストや会話のコンテキストに基づいて、外部の関数やツール、APIを呼び出す機能。 DataRobotのエージェントワークフローでは、関数呼び出しによって、エージェントは、データ検索、数学的計算、APIインタラクション、システム操作など、テキスト生成以外のアクションを実行することができます。 これにより、エージェントは複雑なタスクを実行して、エンタープライズシステムと連携し、リアルタイムの情報に基づいて動的な回答を提供できます。 関数呼び出しは、会話型AIを、データを操作し外部サービスと対話できる実用的なシステムに変えます。

G


生成AI(GenAI)

トレーニングデータから学習したパターンに基づいて新しいコンテンツを生成する人工知能の一種。 DataRobotのプラットフォームでは、GenAIの機能にはテキスト生成、コンテンツ作成、LLMブループリントによるインテリジェントな回答が含まれます。 既存のデータを分析する従来の予測モデルとは異なり、GenAIはプロンプトを通じて新しいアウトプットを作成し、コンテンツ生成、分析、自動化された意思決定プロセスのためのDataRobotワークフローに統合することができます。

ガードレール

AIシステムが有害または不適切なコンテンツを生成するのを防ぐ安全機構。 ガードレールには、コンテンツのフィルター、出力の検証、AIの回答が安全ガイドラインや組織のポリシーに沿ったものであることを保証する行動制約が含まれます。 DataRobotでは、ガードレールを設定することができ、責任あるAIの実践を維持し、安全でないまたは非倫理的なコンテンツの生成を防ぐのに役立ちます。

グラウンディング

言語モデルの回答が、トレーニングデータのみに依存するのではなく、特定の検証可能なデータソースに基づいていることを保証するプロセス。 DataRobotのプラットフォームでは、LLMを関連ドキュメント、知識ベース、企業データを含むベクターデータベースに接続するRAG(Retrieval Augmented Generation)ワークフローによってグラウンディングが達成されます。 この技術は、回答の正確さを向上させ、ハルシネーションを減らし、AIの出力が信頼できる情報源からの最新の関連情報で確実にコンテキスト化されるようにします。

H


ハルシネーション

言語モデルが、もっともらしく聞こえるが事実とは異なる、あるいは提供されたデータに基づかない情報を生成する場合。

ハイコード

カスタムプログラミングとアプリケーションの動作のきめ細かな制御を重視する開発アプローチ。 ハイコードソリューションは、複雑な要件に対して最大限の柔軟性とカスタマイズ機能を提供します。 DataRobotのエージェントワークフローでは、ハイコード機能により、上級ユーザーはカスタムロジックで高度に専門化されたエージェントを作成して、複雑なエンタープライズシステムと連携し、高度な意思決定アルゴリズムを実装することができます。

ヒューマン・イン・ザ・ループ(HILT)

AIエージェントのワークフローに人間の監視、検証、介入を組み込む統合パターン。 ヒューマン・イン・ザ・ループシステムは、人間がエージェントの決定を確認し、フィードバックを提供し、エラーを修正し、重要な決定ポイントでエージェントの行動を導くことを可能にします。 DataRobotのエージェントワークフローでは、ヒューマン・イン・ザ・ループ機能が品質管理を保証し、人間の専門知識から学習することを可能にし、機密性の高い、あるいは重大な意思決定に対する人間の権限を維持します。

I


コンテキスト内学習

LLMの能力は、微調整を必要とせずに、プロンプトで提供された例から学習することです。 インコンテキスト学習は、モデルが現在の会話で与えられたコンテキストや例に基づいて行動を適応させることを可能にし、追加のトレーニングなしに新しいタスクを実行したり、特定の指示に従ったりすることを可能にします。

インストラクションチューニング

LLMが特定の指示や命令に従うように、指示と回答のペアで微調整しながらトレーニングします。 命令チューニングは、ユーザーの要求を理解して実行するモデルの能力を向上させ、指示に従うことが重要な実用的なアプリケーションでより有用になります。

K


知識カットオフ

LLMのトレーニングデータが終了する日付のことで、それ以降に起こった歴史的な出来事、情報、発展についての知識が制限されます。 ナレッジカットオフの日付は、モデルの情報の時間的範囲を理解し、追加のコンテキストやリアルタイムのデータソースがいつ必要になるかを判断するために重要です。

L


大規模言語モデル(LLM)

人間の言語を理解し、生成し、処理することができる、広範なテキストデータセットでトレーニングされたディープラーニングモデル。 DataRobotのプラットフォームでは、LLMはLLMブループリントの中核を形成し、カスタマイズされたAIアプリケーションを作成するために、さまざまな設定、システムプロンプト、ベクターデータベースで構成することができます。 これらのモデルにより、DataRobotユーザーは、コンテキストを理解し、適切な回答を提供できるインテリジェントなチャットボット、コンテンツジェネレーター、分析ツールを構築することができます。

LLMブループリント

保存されたブループリントは、 デプロイに使用できます。 LLMブループリントは、LLMからレスポンスを生成するために必要なものの完全なコンテキストを表し、結果の出力は、 プレイグラウンド内で比較できます。 この情報は、 LLMブループリント設定でキャプチャされます。

LLMブループリントのコンポーネント

LLMブループリント設定を構成するエンティティ。これは、ベクターデータベース、ベクターデータベースを生成する埋め込みモデルユーザー、LLM設定、システムプロンプトなどを指します。これらのコンポーネントは、DataRobot内でネイティブに提供することも、外部ソースから取り込むこともできます。

LLMブループリントの設定

レスポンスを生成するためにLLMに送信されるパラメーター(ユーザーが入力したプロンプトと連動)。 これには、単一のLLM、LLM設定、オプションでシステムプロンプト、さらにオプションでベクターデータベースが含まれます。 ベクターデータベースが割り当てられていない場合、LLMはトレーニングからの学習を使用してレスポンスを生成します。 LLM ブループリントの設定は変更可能なので、さまざまな設定を試すことができます。

LLM Gateway

DataRobotの集中型サービスで、統一認証、レート制限、リクエストルーティングをサポートし、外部プロバイダーからの複数の大規模言語モデルへのアクセスを管理します。 LLM Gatewayを利用することで、企業はさまざまなLLMプロバイダーとのやり取りを標準化することができ、同時にすべてのモデル利用においてセキュリティ、監視、コスト管理を維持することができます。

LLM payload

レスポンスを生成するためにLLMエンドポイントに送信される内容のバンドル。 これには、ユーザープロンプト、LLM設定、システムプロンプト、ベクターデータベースから取得した情報が含まれます。

LLMのレスポンス

LLMエンドポイントに送信されたペイロードに基づいてLLMから生成されたテキスト。

LLM設定

LLMがユーザープロンプトを入力してレスポンスを生成する方法を定義するパラメーター。 これらは、レスポンスを変更するためにLLMブループリント内で調整できます。 現在、これらのパラメーターは「Temperature」、「Top P」、「最大出力トークン数」設定で表されます。

ローコード

アプリケーションやワークフローを構築するために必要な手作業によるコーディングの量を最小限に抑える開発アプローチ。 ローコードプラットフォームは、迅速な開発を可能にするビジュアルインターフェイス、ドラッグ&ドロップコンポーネント、構築済みテンプレートを提供します。 DataRobotのエージェントワークフローでは、ローコード機能により、ユーザーは大規模なプログラミングではなく、設定インターフェイスを通じて洗練されたAIエージェントとワークフローを作成できるため、非技術系ユーザーでもエージェント型AIにアクセスできます。

M


マルチエージェントフロー

複数のAIエージェントが協働して複雑な問題を解決するためのワークフローパターンで、タスクを特化したエージェントに分担させます。 各エージェントは特定の能力と責任を持ち、全体的な目的を達成するためにコミュニケーションをとり、調整します。 マルチエージェントフローは、異なる専門性を持つエージェントの強みを活用することで、より高度な問題解決を可能にします。 エージェントのワークフローも参照してください。

モデルコンテキストプロトコル(MCP)サーバー

モデルコンテキストプロトコル(MCP)サーバーは、AIエージェントが外部のシステムやデータソースとやりとりするための標準化されたインターフェイスを提供します。 MCPサーバーは、エージェントがタスクを達成するために必要なツール、データベース、API、その他のリソースへの安全で制御されたアクセスを可能にします。 DataRobotのエージェントワークフローでは、MCPサーバーがセキュリティとガバナンスを維持しながら、エージェントとエンタープライズシステムとのシームレスな連携を促進します。

モデルのアライメント

AIモデルが人間の価値観や意図に従って行動することを保証する技術。 モデルのアライメントには、モデルが有用で、正直で、無害な出力を生成し、生産環境における有害または意図しない動作のリスクを低減するための、トレーニングと微調整のプロセスが含まれます。

モデレーション

モデルの出力が安全性、倫理、およびポリシーガイドラインに準拠していることを確認するために、監視とフィルターを行うプロセス。

いいえ


NAT

NAT(Neural Architecture Transfer)は、学習した表現やアーキテクチャを異なるAIモデルやタスク間で効率的に転送することを可能にします。 NAT技術は、エージェントが完全に再トレーニングすることなく、事前にトレーニングされたコンポーネントを活用し、特定のユースケースに適応させることを可能にします。 DataRobotのエージェントワークフローでは、NAT機能により、汎用モデルからドメイン固有のアプリケーションに知識を転送することで、特化型エージェントの迅速なデプロイが可能になります。

NIM

NVIDIA Inference Microservice (NIM) はコンテナ化されたAIモデルで、低レイテンシと効率的なリソース利用で最適化された高性能推論を提供します。 DataRobotのプラットフォームでは、NIMをエージェントワークフローに統合することで、高度なAI機能を提供できるため、エージェントは最適なパフォーマンスとスケーラビリティを維持しながら、特定のタスクに最先端のモデルを活用できます。

O


One-shot学習

単一の例のみからタスクの実行を学習するモデルの能力。

オーケストレーション

複雑な目的を達成するために、複数のAIコンポーネント、ツール、ワークフローを調整すること。 オーケストレーションは、異なるAIサービス間のデータと制御の流れを管理し、適切な順序付け、エラー処理、リソース割り当てを保証します。 DataRobotでは、オーケストレーションによって、さまざまな機能やツールを組み合わせた洗練されたマルチステップAIワークフローの作成が可能になります。

P


パラメーター効率微調整(PEFT)

完全な微調整よりも少ないパラメーターで大規模モデルを微調整する方法。 LoRA(Low-Rank Adaptation)やアダプターレイヤーなどのPEFT技術は、元のモデルの性能をほとんど維持し、計算量を削減しながら、効率的にモデルをカスタマイズすることを可能にします。

プレイグラウンド

LLMブループリント(LLMおよび関連する設定)を作成して操作する場所。それぞれのレスポンスを比較して、本番環境で使用するものを決定します。 多くのLLMブループリントは、プレイグラウンド内に存在することができます。 プレイグラウンドはユースケースのアセットです。1つのユースケースに複数のプレイグラウンドが存在する場合があります。

プレイグラウンドの比較

比較のためにLLMブループリントをプレイグラウンドに追加し、これらのLLMブループリントにプロンプトを送信し、レンダリングされたレスポンスを評価する場所です。 RAGでは、以前のプロンプトを参照せずに、単一のプロンプトがLLMに送信され、単一のレスポンスが生成されます。 これにより、ユーザーは複数のLLMブループリントからのレスポンスを比較できます。

プロンプト

チャット中に行う入力で、LLMのレスポンスの生成に使用されます。

プロンプトエンジニアリング

言語モデルを望ましい出力に導くために、入力プロンプトを設計し、改良すること。

プロンプトインジェクション

悪意のあるプロンプトがシステムの指示や安全対策を上書きしてしまうセキュリティ上の脆弱性。 プロンプトインジェクション攻撃は、モデルの意図した制約やガイドラインを回避する入力を細工することで、AIシステムを操作して不適切なコンテンツを生成させたり、意図しないアクションを実行させようとします。

プロンプトテンプレート

システムプロンプトを参照してください。

Pulumi

開発者が使い慣れたプログラミング言語を使ってクラウドインフラストラクチャを定義および管理できるインフラストラクチャ・アズ・コード(IaC)プラットフォーム。 Pulumiは複数のクラウドプロバイダーをサポートし、インフラストラクチャ管理への統一されたアプローチを提供します。 DataRobotのエージェントワークフローにおいて、Pulumiはエージェントのデプロイ、スケーリング、監視に必要なインフラストラクチャリソースの自動プロビジョニングと管理を異なる環境間で可能にします。

R


RLHF(人間のフィードバックによる強化学習)

人間のフィードバックを利用してモデルの動作を改善するトレーニング方法。 RLHFでは、モデルの出力に関する人間の嗜好を収集し、強化学習技術を使用して、人間の価値観や嗜好に沿った回答を生成するようにモデルを微調整し、安全性と有用性を向上させます。

ReAct

推論と行動(ReAct)フレームワークは、AIエージェントにおける推論能力と行動実行を組み合わせたものです。 ReActは、エージェントが問題を段階的に考え、行動を計画し、実行し、結果を観察して、その後の推論に役立てることを可能にします。 DataRobotのエージェントワークフローでは、ReAct機能により、エージェントは目標達成のために、状況を推論し、行動を起こし、結果から学習することを繰り返し、複雑な問題解決を行うことができます。

検索

知識ベースやデータベースから関連情報を見つけるプロセス。 RAGワークフローのコンテキストでは、検索はベクターデータベースやその他の知識ソースを検索し、AIの回答の根拠と情報提供に使用できる最も関連性の高いコンテンツを見つけ、精度を向上させ、ハルシネーションを減らすことを意味します。

検索拡張生成(RAG)

プロンプト、システムプロンプト、LLM設定、ベクターデータベース(またはベクターデータベースのサブセット)、およびこのペイロードに基づいて対応するテキストを返すLLMを含むペイロードをLLMに送信するプロセス。 これには、ベクターデータベースから関連情報を取得し、プロンプト、システムプロンプト、およびLLM設定とともにLLMエンドポイントに送信して、ベクターデータベース内のデータに基づくレスポンスを生成するプロセスが含まれます。 この操作には、オプションで複数のプロンプトのチェーンを実行するためのオーケストレーションを組み込むこともできます。

RAG(検索拡張生成)ワークフロー

RAGを実行するAIシステム。データ準備、ベクターデータベースの作成、LLM設定、回答の生成が含まれます。 RAGワークフローは通常、ドキュメントのチャンキング、埋め込み生成、類似検索、コンテキストを考慮した回答生成などのステップを含み、これらはすべて、ユーザーのクエリーに対して正確で根拠のある回答を提供するために編成されます。 検索拡張生成(RAG)も参照してください。

S


意味記憶

特定の経験に結びつかない一般的な知識、事実、概念、関係を記憶する記憶システム。 意味記憶により、AIエージェントはドメイン知識を維持し、概念を理解し、新しい状況に一般的な原則を適用することができます。 DataRobotのエージェントワークフローでは、意味記憶により、エージェントはビジネスプロセス、ドメインの専門知識、一般的な問題解決戦略に関する知識を維持できます。

キーワードの完全一致ではなく、意味に基づいてコンテンツを見つける検索方法。 セマンティック検索は、クエリーの意図とコンテキストを理解するためにベクトル埋め込みを使用し、正確な単語が一致しない場合でも、より正確で関連性の高い結果を可能にします。 このアプローチはRAGシステムにおいて、AIの回答の根拠となる最も関連性の高い情報を見つけるために特に有効です。

短期記憶

AIエージェントがアクティブなタスク実行中にコンテキストや情報を維持するために使用する一時記憶システム。 短期記憶は、エージェントが最近のやりとりを記憶し、会話のコンテキストを維持し、現在のタスクの進捗を追跡することを可能にします。 DataRobotのエージェントワークフローでは、短期記憶によってエージェントが複数ステップのプロセスにわたって一貫性を維持し、ユーザーとの対話に連続性を持たせることができます。

長期記憶

AIエージェントが複数のセッションやタスクにわたって知識、経験、学習したパターンを保持するために使用する永続的なストレージシステム。 長期記憶は、エージェントが以前の経験を基に、学習した行動を維持し、長期にわたってドメイン知識を蓄積することを可能にします。 DataRobotのエージェントワークフローでは、長期記憶により、エージェントは経験を通じてパフォーマンスを向上させ、異なるユースケース間で一貫性を保つことができます。

ストリーミング

リアルタイムでテキストを生成し、生成中に出力が表示されます。 ストリーミングは、完全な回答を待つのではなく、AIの回答をその都度表示することで、ユーザーに即時フィードバックを提供します。 このアプローチは、知覚される待ち時間を減らし、ユーザーがリアルタイムで進捗状況を確認できるようにすることで、ユーザーエクスペリエンスを向上させます。

シングルエージェントフロー

1人のAIエージェントがタスクの最初から最後まですべての側面を処理するワークフローパターン。 エージェントは入力を受け取り、その能力によって処理し、他のエージェントとの協調を必要とせずに出力を生成します。 シングルエージェントフローは、1人の専門エージェントで完了できる単純なタスクに適しています。

サイドカーのモデル

回答を返すLLMをサポートする構造的なコンポーネント。 プロンプトが有害かどうか、インジェクション攻撃かどうかなどを判断するのに役立ちます。DataRobotでは、ホストされたカスタム指標を使って監視を行います。

ストップシーケンス

特定のトークンまたはトークンの集合で、言語モデルがそれ以上の出力を生成しないように合図します。

Syftr

An agent optimizer that uses multi-objective optimization to discover the best agentic workflows within a given budget or cost constraint. It automates the process of tuning agent configurations—including model selection, retrieval strategies, and prompt design—by systematically exploring the tradeoff space between quality and cost. Syftr integrates with popular LLM frameworks like LlamaIndex and uses Optuna to identify Pareto-optimal configurations that maximize performance for any given resource allocation.

システムプロンプト

オプションのフィールドであるシステムプロンプトは、個々のすべてのプロンプトの先頭にある「汎用」プロンプトです。 LLMのレスポンスを指示およびフォーマットします。 システムプロンプトは、レスポンス生成中に作成される構造、トーン、形式、コンテンツに影響を与えることがあります。

T


Temperature

LLMの回答における創造性とランダム性を制御するパラメーター。 低い温度値(0.1~0.3)では、事実に基づいた回答に適した、より集中的で一貫性のある出力が得られ、高い温度値(0.7~1.0)では、より創造的で多様なコンテンツが得られます。 DataRobotのプレイグラウンドインターフェイスでは、LLMブループリントの設定でさまざまな温度値を試して、特定のユースケースに最適なバランスを見つけることができます。

テンプレート

エージェントワークフロー、アプリケーション、または構成を作成するための出発点となる、設定済みのフレームワークまたは構造。 DataRobotのテンプレートには、定義済みのエージェント設定、ワークフローパターン、コード構造が含まれており、開発を加速し、ベストプラクティスを保証します。 テンプレートには、エージェントの目標、ツール構成、ガードレール、統合パターンを含めることができ、ユーザーはゼロから始めることなく、洗練されたエージェントシステムを迅速にデプロイできます。

トークン

LLMがプロンプトを解析し、回答を生成する際に処理するテキストの最小単位。 DataRobotのプラットフォームでは、トークンはチャットの入出力サイズを測定し、LLM操作の使用コストを計算するために使用されます。 LLMブループリントにプロンプトを送信すると、システムはテキストをトークン化し、課金とパフォーマンス監視のために消費量を追跡します。 トークンの使用量は、DataRobotのプレイグラウンドとデプロイのインターフェイスに表示され、コストを最適化し、プラットフォームの制限内にとどまるのに役立ちます。

トークン化

テキストをトークンと呼ばれる小さな単位に分割するプロセス。トークンには単語、サブワード、文字などがあり、言語モデルによって処理されます。

トークンの使用状況

LLMが入出力のために消費したトークンの数で、しばしば課金やコスト管理に使用されます。 ほとんどのLLMプロバイダーはトークンの処理数に基づいて課金するため、トークンの使用量はAI操作の計算コストを理解するための重要な指標となります。 トークンの使用状況を監視することで、AIアプリケーションのコストとリソース割り当てを最適化することができます。

ツール

AIエージェントまたはワークフローに特定の機能を提供するソフトウェアコンポーネントまたはサービス。 ツールは、データ検索、計算、APIコール、特殊な処理など、さまざまなタスクを実行できます。 DataRobotのエージェントワークフローでは、ツールは、エージェントがその機能を拡張し、コア機能を超えた複雑な操作を実行するために呼び出すことができるモジュールコンポーネントです。

ツールキット

エージェント型AIシステムの開発と導入を支援するために設計されたツール、ユーティリティ、リソースのコレクション。 ツールキットは、AIエージェントを構築するための標準化されたインターフェイス、共通機能、ベストプラクティスを提供します。 DataRobotのプラットフォームでは、データ処理、モデルトレーニング、API統合、ワークフローオーケストレーションのためのツールキットがあらかじめ用意されており、高度なエージェントアプリケーションの迅速な開発を可能にしています。

Top-k

デコーディングパラメーターは、モデルの次のトークンの選択肢を最も可能性の高いk個の選択肢に制限し、その候補のみからサンプリングすることで、より集中的で創造的な回答を生成します。

Top-p(核サンプリング)

累積確率が閾値pを超える最小の集合にモデルの次のトークンの選択を制限するデコーディングパラメーター。

毒性

モデルの出力に有害、攻撃的、または不適切な表現がある場合、安全性とモデレーションシステムはそれを検出し、防止することを目的としています。

U


非構造化テキスト

テーブルにすっきり収まらないテキスト。 最も一般的な例は、通常、何らかの種類のドキュメントまたはフォームの大きなテキストブロックです。

V


ベクターデータベース

テキストチャンクを数値表現(埋め込み)と一緒に保存し、効率的な類似性検索を行うための特殊なデータベース。 DataRobotのプラットフォームでは、ベクターデータベースは、LLMブループリントが大規模なドキュメントコレクションから関連情報を取得することを可能にすることにより、RAGオペレーションを可能にします。 DataRobotにドキュメントをアップロードすると、システムは自動的にテキストをチャンク化し、埋め込みを生成して、特定のコンテンツに基づいて根拠のある正確な回答を行うために、LLMブループリントに接続できるベクターデータベースに格納します。

Z


Zero-shot学習

トレーニング中にそのタスクの例を一度も見たことがなくても、関連する知識からの一般化に頼ってタスクを実行するモデルの能力。