疑わしい取引の報告(SAR)¶
特性 | 値 |
---|---|
導入のしやすさ | 低 |
インパクト | 高 |
インパクトのタイプ | 効率化/最適化 |
主なユーザー | 内部 |
タイプ | RAG、要約 |
予測AIを含む | はい |
説明¶
金融機関は、業界内での規制の枠組みの一環として、疑わしい取引を監視しています。 金融業界では、すでに予測AIを利用して疑わしい取引の検出精度を向上させていますが、インシデントごとに作成しなければならない疑わしい取引の報告(SAR)には、依然として多くの綿密な作業が必要です。 不正を分析するアナリストは、規制当局に提出するこのレポートの作成に多くの時間を費やしています。
疑わしい取引の監視に関する既存の予測AIワークフローと生成AIのコンポーネントを組み合わせることで、報告プロセスを合理化し、不正/BSA/AMLアナリストの作業効率を向上させることができます。
既存の予測AIシステムは、パラメーター(金額、所在地、取引のタイプ、取引場所など)に基づいて疑わしい取引にフラグを立て、それを不正を分析するアナリストに提供します。 アナリストは、取引とそれに関連するコンテキスト(過去のアラート履歴や小切手の画像など)を確認して、不正かどうかを判断します。 予測AIワークフローと連携している生成AIアプリケーションに指示し、不正と判断されたかどうかにかかわらず、レポートに必要な案件固有の説明を自動的に作成します。
仕組み¶
予測モデルからの予測の説明(特徴量が予測に及ぼす影響を定量的に示す指標)は、生成AIモデルに入力されます。 このデータは、生成AIモデルが処理するJSON辞書の形式になっています。 このため、生成AIモデルがやり取りするベクターデータベースはありません。 JSONファイルが、LLMにとって信頼できる情報源です。 バックグラウンドのシステムプロンプトは、金融機関がレポートに必要な形式を事前に定義したテンプレートに基づいて、出力の形式を制御します。 予測のインサイトをレポート内での説明に簡単に変換すると、「特徴量Aがしきい値Xを超えているため、この取引は不正であることを示しています」のようになります。
その後、アナリストはレポートを確認し、予測モデルが強調した特定の値について詳しく説明するなど、必要な修正を行うことができます。その後、レポートは金融犯罪取締ネットワーク(FinCEN)に渡され、さらに調査を行うために適切な法執行機関に送られます。
ユーザーエクスペリエンス¶
このシナリオでは、不正調査員は、すでに構築済みのアプリケーションを操作します。このアプリケーションは、疑わしい取引を警告する既存のシステムに接続して、取引履歴や小切手画像などの既知の関連コンテキストを取得し、警告システムの結果に基づいて別の予測モデルから出力を生成します。
フラグが立てられた各アラートについて、アナリストは、生成AIによって自然言語で作成された要約を読みます。この要約には、アラートが作動した理由、本当に疑わしい取引である可能性、および作成済みの関連文書の一覧が詳細に記載されています。 アナリストは、人間の専門知識を駆使し、場合によっては追加情報を求めて、案件を確認し、そのアラートが正しいかどうかを最終的に判断します。 アナリストが判断を確定させると、生成AIは与えられたすべての情報を使って最終的な説明を構築し、銀行にとって一貫性のある事前定義されたテンプレートにフォーマットして、そのアラートが本当に疑わしいかどうかの理由を説明します。 アプリ内でレポートが生成されると、ユーザーはそれを確認し、必要であれば修正を加え、レポートワークフローに必要な形式でファイルを生成できます。 このファイルは、FinCENと連携している別のシステムに送信されます。
ビジネスに役立つ理由¶
疑わしい取引を1件報告するだけでも、レポートの作成、確認、完成に数時間かかることがあります。これは特に、確認が必要な情報が多岐にわたるためです。 大手金融機関は、疑わしい取引に関するアラートを毎日何万件も受け取っています。 したがって、1つのレポートを処理するのにかかる時間が少し改善されただけでも、何万時間もの作業時間を節約できる、信じられないほど強力な累積効果が得られます。 これにより、アナリストは、増え続ける未確認のアラートに追われることなく、より多くの時間を実際の調査に充てることができます。その結果、アナリストのパフォーマンスが向上し、人的ミスを最小限に抑えることができます。 処理時間が短縮されれば、正当な取引の承認も迅速になります。
潜在的なリスク¶
このユースケースに関連するリスクは、ソリューションの生成AIコンポーネントと予測AIコンポーネントの両方に及びます。
-
取引に誤ったフラグが立てられると、レポートが不正確になることがあります。
-
生成されたレポートは、予測データを誤って伝えたり、間違った結論を導き出したりする可能性があります。
-
システムプロンプトが適切に調整されていないと、従来とは異なる表現や構造のレポートが作成され、アナリストによる手作業での大幅な修正が必要になる場合があります。
ベースライン緩和の戦術¶
-
モデルで予測ソリューションを監視し、最も関連性の高い取引のみにフラグが立てられるようにします。
-
導入前のLLMとそのパラメーター(システムプロンプトや回答のTemperatureなど)を徹底的にテストします。
-
グラウンディングデータを使用してモデルの出力を向上させる再トレーニングを検討します。 これには、自動生成されたレポートをユーザーが修正でき、その後再トレーニングデータベースに入力される新しいプロセスが必要になるかもしれません。