LLMのリファレンス¶
以下のセクションでは、参考として、利用可能な各LLMについて簡単に説明します。 最大コンテキストウィンドウ、最大出力トークン数、チャットモデルIDの詳細については、利用可能なLLMのページを参照してください。 説明の多くはプロバイダーのWebサイトから引用したものです。
Amazon Bedrockが提供するLLM
Meta Llamaは、Meta Llama 4のコミュニティライセンスに基づいてライセンスされています。Copyright © Meta Platforms, Inc. All Rights Reserved.
| LLM | 説明 |
|---|---|
| Amazon Nova Lite | マルチモーダルを理解する基盤モデル。 多言語に対応し、テキスト、画像、動画について推論を行うことができます。 優れているのは、リアルタイムの顧客対応、ドキュメント分析、視覚的な質問回答です。 |
| Amazon Nova Micro | テキスト対応の基盤モデル。多言語対応で、テキストに対して推論を行うことができます。 非常に低コストで最小レイテンシーの回答を実現します。 |
| Amazon Nova Premier | マルチモーダルを理解する基盤モデル。 多言語に対応し、テキスト、画像、動画について推論を行うことができます。 非常に複雑な推論タスクやモデル抽出に最適です。 |
| Amazon Nova Pro | マルチモーダルを理解する基盤モデル。 多言語対応で、テキスト、画像、動画に対して推論を行うことができます。ファミリーの中で精度、速度、コストのバランスが最も優れています。 高い精度を必要とする複雑なマルチモーダルタスクに最適です。 |
| Amazon Titan | 要約、テキスト生成、分類、オープンエンドのQ&A、情報抽出などのタスクのための生成LLM。 |
| Anthropic Claude 2.1 | 会話、質問への回答、ワークフロー自動化のための生成LLM。 これは初期のClaudeモデルの1つで、Claude 3ファミリーに置き換わっています。 |
| Anthropic Claude 3 Haiku | 会話、質問への回答、ワークフロー自動化のための生成LLM。 速さと効率性で知られるHaikuモデルは、最小のコストで最高の効率を実現しています。 |
| Anthropic Claude 3 Opus | 会話、質問への回答、ワークフロー自動化のための生成LLM。 OpusはClaude 3ファミリーの中で最もインテリジェントなモデルですが、その分コストも高くつきます。 |
| Anthropic Claude 3 Sonnet | 会話、質問への回答、ワークフロー自動化のための生成LLM。 Sonnetは速度、性能、価格のバランスに優れています。 |
| Anthropic Claude 3.5 Haiku v1 | クリエイティブライティング、対話型AI、ワークフローの自動化などのタスクに優れた生成LLMであり、推論機能が強化されています。 |
| Anthropic Claude 3.5 Sonnet v1 | 複雑な推論、コーディング、チャートやグラフのような視覚情報の理解といったタスクに優れた生成LLMで、特にデータ分析やソフトウェア開発に役立ちます。 |
| Anthropic Claude 3.5 Sonnet v2 | 複雑な推論、コーディング、チャートやグラフのような視覚情報の理解といったタスクに優れた生成LLMで、特にデータ分析やソフトウェア開発に役立ちます。 バージョン2へのアップグレードでは、キーストロークやマウスクリックなどのコンピューターアクションを生成して、数百の手順を必要とするタスクを実行できます。 |
| Anthropic Claude 3.7 Sonnet v1 | 分類、センチメント分析、エンティティ抽出、要約などのタスクのための生成LLM。 Claude Sonnet 3.7は、最初のハイブリッド推論モデルであり、Claude 4ファミリーのリリース前には最も先進的なモデルでした。 |
| Anthropic Claude Opus 4 | コーディングに優れた生成LLMで、複雑で長時間実行されるタスクやエージェントワークフローで持続的なパフォーマンスを発揮します。 ユースケースには、高度なコーディング作業、自律型AIエージェント、エージェントによる検索や研究、複雑な問題解決を必要とするタスクなどがあります。 |
| Anthropic Claude Sonnet 4 | 分類、センチメント分析、エンティティ抽出、要約などのタスクのための生成LLM。 Sonnet 3.7のアップグレード版で、ユーザー向けのAIアシスタントや大量のタスクなど、ほとんどのAIユースケースで実用的な高いパフォーマンスを提供します。 |
| Anthropic Claude Opus 4.1 | Anthropicの次世代モデルであり、これまでで最も強力なClaude Opus 4.1は、コーディングにおいて業界をリードする存在です。 集中的な作業と何千ものステップを必要とする長時間実行タスクで持続的なパフォーマンスを発揮し、AIエージェントが解決できる課題の範囲を大幅に拡大しました。 Claude Opus 4.1は、最先端のエージェント製品および機能の強化に最適です。 |
| Anthropic Claude Sonnet 4.5 | Claude Sonnet 4.5は、実環境のエージェントを強化するAnthropicの最も強力なモデルであり、コーディングやコンピューターの使用に関して業界をリードする機能を備えています。 ほとんどの内部および外部のユースケースにおいて、パフォーマンスと実用性の理想的なバランスを実現しています。 |
| Cohere Command R | 会話のやり取りや長いコンテキストタスク向けに最適化された大規模言語モデルです。 「スケーラブル」なモデルカテゴリーを対象としています。 |
| Cohere Command R Plus | Cohereで最も先進的なモデルであり、複雑な RAGおよびマルチステップエージェントワークフローに対応し、128Kのコンテキストと強力な多言語サポートを備えています。 |
| DeepSeek R1 v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 DeepSeek R1は、数学的計算、コード開発、または複雑な論理的推論を伴う作業に使用します。 |
| Meta Llama 3ファミリー:これらは、それぞれ80億および700億のパラメーターをサポートするトランスフォーマーベースのアーキテクチャであり、標準的なNLPタスク向けに最適化されています。 | |
| Meta Llama 3 8B Instruct v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 |
| Meta Llama 3 70B Instruct v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 |
| Meta Llama 3.1ファミリー:Llama 3ファミリーよりもコンテキスト長を広げることで、数学、論理、推論の問題に強くなりました。 長文テキスト要約、多言語会話エージェント、コーディングアシスタントなど複数の高度なユースケースをサポートしています。 | |
| Meta Llama 3.1 8B Instruct v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 |
| Meta Llama 3.1 70B Instruct v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 |
| Meta Llama 3.1 405B Instruct v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 これはシリーズ最大のモデルであり、最高の柔軟性と最先端の機能を備えていますが、それらは最高のクローズドソースモデルにも匹敵します。 |
| Meta Llama 3.2ファミリー:中小規模のビジョンLLMと、エッジデバイスやモバイルデバイスに適合する軽量のテキスト専用モデルを紹介します。 | |
| Meta Llama 3.2 1B Instruct v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 |
| Meta Llama 3.2 3B Instruct v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 |
| Meta Llama 3.2 11B Instruct v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 |
| Meta Llama 3.2 90B Instruct v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 |
| Meta Llama 3.3 70B Instruct v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 主要ベンチマークではLlama 3.1(405B)のパフォーマンスに匹敵しますが、大幅に小型化されているため、開発者は標準的なワークステーションでモデルを実行でき、運用コストを削減できます。 |
| Meta Llama 4 Maverick 17B Instruct v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 テキストやドキュメントに加えて、画像、音声、動画などの複数の入力タイプを処理できます。 |
| Meta Llama 4 Scout 17B Instruct v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 複数ドキュメントの要約や、大量のドキュメントの解析など、さまざまなユースケースが可能になります。 |
| Mistral 7B Instruct v0 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 これはMistralファミリーの中で最も小型かつ効率的で、軽量のアプリケーション、エッジ展開、基本的なチャットボットに最適です。 |
| Mistral Large 2402 v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 これは、ファミリーの中で最大のモデルであり、最も高性能ですが、最もリソースを消費します。 複雑な推論タスク、高度なアプリケーション、およびリサーチに適しています。 |
| Mistral Small 2402 v1 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 このモデルは、コスト効率を高めるために最適化されており、運用アプリケーションにおいてパフォーマンスとコストのバランスが取れています。 |
| Mistral 8x7B Instruct v0 | コード生成、データ分析、自然言語処理などのタスクのための生成LLM。 このモデルは、同等の高密度モデルよりも優れた効率で高性能を発揮します。 |
| OpenAI gpt-oss-20b | Apache 2.0ライセンスでリリースされた200億パラメーターのオープンウェイト言語モデル。 推論や関数呼び出しのユースケースに適しています。 この200億パラメーターのモデルは、一般的なベンチマークでOpenAI o3-miniと同様の結果を出し、16GBのメモリーを搭載したエッジデバイスで動作可能です。 |
| OpenAI gpt-oss-120b | Apache 2.0ライセンスでリリースされた1200億パラメーターのオープンウェイト言語モデル。 推論や関数呼び出しのユースケースに適しています。コア推論ベンチマークではOpenAI o4-miniとほぼ同等で、単一の80GB GPUで動作します。 |
Azure OpenAIが提供するLLM
| LLM | 説明 |
|---|---|
| OpenAI GPT-3.5 Turbo | GPT-3.5ファミリーの中でコスト効率に優れたチャットモデル。チャット用に最適化されており、従来の補完タスクにも適しています。 現在も利用可能ですが、プロバイダーはGPT-4o-miniの利用を推奨しています。一方、GPT-3.5 TurboはAPIで利用できます。 |
| OpenAI GPT-4 Turbo | 長いコンテキストウィンドウとツールの呼び出しにより、チャットと従来の補完タスクに最適化されたGPT-4ファミリーのモデル。 引き続き利用できますが、プロバイダーは新しいGPT-4oの利用を推奨しています。 |
| OpenAI GPT-4o | GPT-4 Turboよりもコスト効率が高く、高速なフラッグシップマルチモーダルモデル。 テキストと画像を処理でき、複数の言語において優れたパフォーマンスでテキスト出力を生成できます。 |
| OpenAI GPT-4o mini | 小型モデルカテゴリーの中で最も先進的なモデルであり、低コストかつ低レイテンシーでより幅広いAIアプリケーションを実現します。 適切なユースケースでは、GPT-3.5 Turboシリーズモデルの代替として検討してください。 |
| OpenAI GPT-5 | コーディングに優れ、推論とエージェントのサポートが改善された、高度なマルチモーダルモデル。 GPT-5は、コード生成、バグ修正、リファクタリング、指示追従、長いコンテキストとツールの呼び出しにおいて特に優れた能力を発揮します。 |
| OpenAI GPT-5 mini | GPT-5の高速かつコスト効率に優れたバリアントで、緻密なタスクやプロンプトに最適です。 |
| OpenAI GPT-5 nano | GPT-5ファミリーの中で最も高速かつ低コストなnanoモデルは、超低レイテンシーでコスト重視のタスク向けに最適化されています。 特に要約や分類タスクにおいて、確かな品質を提供します。 |
| OpenAI o1 | 高度な推論モデルで、複雑な問題解決タスクに最適化され、効率と費用対効果が向上しています。 複雑な推論タスクに優れており、OpenAIのより広範な一般知識推論モデルであることに変わりはありませんが、リソースの消費量が多く、コストも高くなりました。 |
| OpenAI o1-mini | コーディング、数学、科学に特に効果的な、高速でコスト効率の高い推論モデル。 多くの推論において強力なパフォーマンスを発揮しますが、o1-previewよりも大幅にコスト効率に優れています。 現在も利用可能ですが、プロバイダーは、レイテンシーが同じでもより高い処理能力を持つ新しいo3-miniモデルの利用を推奨しています。 |
| OpenAI o3 | 高度な推論モデルで、複雑な問題解決タスクに最適化され、効率と費用対効果が向上しています。 これはフルモデルで、o4-miniと並んでファミリーの中で最もインテリジェントなモデルです。 |
| OpenAI o3-mini | 複雑な問題解決のために設計されたOpenAIの次世代推論モデルで、推論能力と効率が向上しています。 |
| OpenAI o4-mini | 高度な推論モデルで、複雑な問題解決タスクに最適化され、効率と費用対効果が向上しています。 数学、コード、マルチモーダルタスクにおいて安定したパフォーマンスを発揮する一方、推論コストはo3に比べて桁違いに削減されています。 |
Google VertexAIが提供するLLM
Meta Llamaは、Meta Llama 4のコミュニティライセンスに基づいてライセンスされています。Copyright © Meta Platforms, Inc. All Rights Reserved.
| LLM | 説明 |
|---|---|
| Claude 3 Haiku | 会話、質問への回答、ワークフロー自動化のための生成LLM。 速さと効率性で知られるHaikuモデルは、最小のコストで最高の効率を実現しています。 |
| Claude 3 Opus | 会話、質問への回答、ワークフロー自動化のための生成LLM。 OpusはClaude 3ファミリーの中で最もインテリジェントなモデルですが、その分コストも高くつきます。 |
| Claude 3.5 Haiku | クリエイティブライティング、対話型AI、ワークフローの自動化などのタスクに優れた生成LLMであり、推論機能が強化されています。 |
| Claude 3.5 Sonnet | Anthropicの中位モデルであるClaude 3 Sonnetのスピードとコストにより、Anthropicの幅広い評価項目においてAnthropicのClaude 3 Opusを上回っています。 |
| Claude 3.5 Sonnet v2 | 実際のソフトウェアエンジニアリングタスクとエージェント能力に対応した最先端のモデル。 |
| Claude 3.7 Sonnet | Anthropicがこれまで開発した中で最も高度なモデルであり、慎重かつ段階的な推論によって複雑な問題を解決する「拡張思考」機能を備えた最初のClaudeモデル。 |
| Claude Opus 4 | AnthropicのClaude Opus 4は、集中的な作業と何千ものステップを必要とする長時間実行タスクで持続的なパフォーマンスを発揮し、AIエージェントが解決できる課題の範囲を大幅に拡大しました。 |
| Claude Sonnet 4 | コーディング、詳細なリサーチ、エージェントなどの大量使用に適した優れたインテリジェンスを備えた、Anthropicの中規模モデル。 |
| Claude Opus 4.1 | Anthropicのこれまでで最も強力なモデルであり、最先端のコーディングモデル。 Claude Opus 4.1は、集中的な作業と何千ものステップを必要とする長時間実行タスクで持続的なパフォーマンスを発揮し、AIエージェントが解決できる課題の範囲を大幅に拡大しました。 |
| Claude Sonnet 4.5 | 実環境のエージェントを強化するAnthropicの中規模モデルであり、コーディング、コンピューターの使用、サイバーセキュリティ、スプレッドシートのようなオフィスファイルの操作などの機能を備えています。 |
| Google Gemini 1.5 Flash | テキスト、コード、画像、音声、動画の入力を処理してテキスト出力を生成できるマルチモーダル生成LLM。 分類、センチメント分析、エンティティ抽出、要約などのさまざまなタスクで、Google検索、関数呼び出し、システム指示との連携をサポートしています。 Flashでは速度と効率性が最適化されているため、迅速な回答と低レイテンシーが求められるアプリケーションに最適です。 |
| Google Gemini 1.5 Pro | テキスト、コード、画像、音声、動画の入力を処理してテキスト出力を生成できるマルチモーダル生成LLM。 分類、センチメント分析、エンティティ抽出、要約などのさまざまなタスクで、Google検索、関数呼び出し、システム指示との連携をサポートしています。 Proでは、複雑なタスクでの品質と精度が最適化されています。 |
| Google Gemini 2.0 Flash | テキスト、コード、画像、音声、動画の入力を処理してテキスト出力を生成できるマルチモーダル生成LLM。 Google検索、コード実行、関数呼び出し、システム指示との連携といった高度な機能をサポートしています。 |
| Google Gemini 2.0 Flash Lite | 最も高速かつコスト効率の高いFlashモデル。 テキスト、コード、画像、音声、動画の入力を処理してテキスト出力を生成できるマルチモーダル生成LLMです。 これは、同じ価格とスピードでより高い品質を求める1.5 Flashユーザー向けのアップグレードパスです。 |
| Google Gemini 2.5 Flash | スピード、低レイテンシー、コスト効率を重視したマルチモーダル生成LLM。 テキスト、コード、画像、音声、動画の入力を処理してテキスト出力を生成できます。 Google検索、コード実行、関数呼び出し、システム指示との連携といった高度な機能をサポートしています。 コード実行機能を追加することでGemini 1.5 Flashを改良したものです。 |
| Google Gemini 2.5 Pro | 複雑な推論タスク向けに設計されたマルチモーダル生成LLM。 テキスト、コード、画像、音声、動画の入力を処理してテキスト出力を生成できます。 Google検索、コード実行、関数呼び出し、システム指示との連携といった高度な機能をサポートしています。 コード実行機能を追加することでGemini 1.5 Proを改良したものです。 |
| Llama 3.1 8B Instruct MAAS | 多言語対話のユースケースに最適化された80億パラメーターの多言語LLM。 ファミリーの中で最小かつ最も効率的なモデルであり、速度とコスト効率が最適化されています。 チャットアプリケーション、簡単なコンテンツ生成、エッジ展開、コスト重視の高スループットシナリオに最適です。 |
| Llama 3.1 70B Instruct MAAS | 多言語対話のユースケースに最適化された700億パラメーターの多言語LLM。 機能と効率のバランスが取れた中位モデルです。8Bよりも機能が大幅に向上していますが、適切な推論を必要とする本番アプリケーション、コンテンツ作成、コーディング支援、および多くのエンタープライズユースケースなど、ほとんどのユースケースで引き続き実用的です。 |
| Llama 3.1 405B Instruct MAAS | 多言語対話のユースケースに最適化された4050億パラメーターの多言語LLM。 Llama 3.1ファミリーの中で最大かつ最も高性能なモデルであり、研究、複雑な分析、高度な推論タスク、最高品質の出力を必要とするアプリケーションに最先端のパフォーマンスを提供します。 |
| Llama 3.2 90B Vision Instruct | 900億パラメーターの中規模マルチモーダルモデルで、チャートとグラフの分析や画像キャプションなどの画像推論をサポートできます。 |
| Llama 3.3 70B Instruct | テキストのみのアプリケーションで使用した場合、以前のLlamaモデルに比べてパフォーマンスが向上した、テキスト専用、700億パラメーターの命令チューニングモデル。 推論、数学、一般知識、関数呼び出しのための高度なLLMで、多言語チャット、コーディング支援、合成データ生成によく使われます。 |
| Llama 4 Maverick 17B 128E Instruct MAAS | Llama 4の最大かつ最も高性能なモデル。 MoE(Mixture-of-Experts)アーキテクチャとEarly fusionを採用し、コーディング、推論、画像処理機能を提供します。 テキストと画像の両方を理解する必要がある複雑なマルチモーダルタスクに最適です。 |
| Llama 4 Scout 17B 16E Instruct MAAS | MoE(Mixture-of-Experts)アーキテクチャとEarly fusionを採用したマルチモーダルモデルであり、そのサイズクラスにおいて最先端の結果を実現しています。 最大限の能力よりも効率が優先されるマルチモーダルなタスク、つまりバランスの取れたパフォーマンスを必要とするアプリケーションに最適です。 |
| Mistral CodeStral 2501 | フィルインザミドルやコード補完を含むコード生成のために設計された最先端のモデル。 軽量で高速、かつ80以上のプログラミング言語に対応しています。 |
| Mistral Large 2411 | Mistral Large (24.07)モデルの次のバージョンであり、推論機能と関数呼び出し機能が改善されています。 最高品質の出力を必要とするエンタープライズアプリケーション、高度な関数呼び出しとAPI連携、およびトップクラスのパフォーマンスを備えた多言語アプリケーションに適しています。 |
| |
利用可能なAnthropic LLM
| LLM | 説明 |
|---|---|
| Anthropic Claude 3 Haiku | 会話、質問への回答、ワークフロー自動化のための生成LLM。 速さと効率性で知られるHaikuモデルは、最小のコストで最高の効率を実現しています。 |
| Anthropic Claude 3 Opus | 会話、質問への回答、ワークフロー自動化のための生成LLM。 OpusはClaude 3ファミリーの中で最もインテリジェントなモデルですが、その分コストも高くつきます。 |
| Anthropic Claude 3.5 Haiku | クリエイティブライティング、対話型AI、ワークフローの自動化などのタスクに優れた生成LLMであり、推論機能が強化されています。 |
| Anthropic Claude 3.5 Sonnet v1 | 複雑な推論、コーディング、チャートやグラフのような視覚情報の理解といったタスクに優れた生成LLMで、特にデータ分析やソフトウェア開発に役立ちます。 |
| Anthropic Claude 3.5 Sonnet v2 | 複雑な推論、コーディング、チャートやグラフのような視覚情報の理解といったタスクに優れた生成LLMで、特にデータ分析やソフトウェア開発に役立ちます。 バージョン2へのアップグレードでは、キーストロークやマウスクリックなどのコンピューターアクションを生成して、数百の手順を必要とするタスクを実行できます。 |
| Anthropic Claude 3.7 Sonnet | 分類、センチメント分析、エンティティ抽出、要約などのタスクのための生成LLM。 Claude Sonnet 3.7は、最初のハイブリッド推論モデルであり、Claude 4ファミリーのリリース前には最も先進的なモデルでした。 |
| Anthropic Claude Opus 4 | コーディングに優れた生成LLMで、複雑で長時間実行されるタスクやエージェントワークフローで持続的なパフォーマンスを発揮します。 ユースケースには、高度なコーディング作業、自律型AIエージェント、エージェントによる検索や研究、複雑な問題解決を必要とするタスクなどがあります。 |
| Anthropic Claude Sonnet 4 | 分類、センチメント分析、エンティティ抽出、要約などのタスクのための生成LLM。 Sonnet 3.7のアップグレード版で、ユーザー向けのAIアシスタントや大量のタスクなど、ほとんどのAIユースケースで実用的な高いパフォーマンスを提供します。 |
| Anthropic Claude Opus 4.1 | Claude Opus 4.1は、Opus 4からそのまま置き換えることができます。実環境でのコーディングやエージェントタスクにおいて、優れたパフォーマンスと精度を発揮します。 複雑な多段階の問題を、より厳密かつ細部まで注意を払って処理します。 |
| Anthropic Claude Sonnet 4.5 | Claude Sonnet 4.5は、エージェント、コーディング、コンピューターの使用において、Anthropicのこれまでで最高のSonnetモデルです。 Anthropicのモデルの中で、長時間実行タスクにおいて精度と詳細度が最も高く、コーディング、金融、サイバーセキュリティのドメイン知識が強化されています。 |
Cerebrasが提供するLLM
Meta Llamaは、Meta Llama 4のコミュニティライセンスに基づいてライセンスされています。Copyright © Meta Platforms, Inc. All Rights Reserved.
| LLM | 説明 |
|---|---|
| Cerebras Llama 3.1 8B | Llama 3.1 8Bは、Cerebras Inferenceでのチャットと指示追従に最適化された80億パラメーターの多言語LLMです。 |
| Cerebras Llama 3.3 70B | Llama 3.3 70Bは、テキストタスク向けに強力な多言語処理能力を備え、指示チューニングが施された700億パラメーターのモデルです。 |
| Cerebras Llama 4 Scout 17B 16E Instruct | チャット、推論、指示追従の各タスクにおいて優れたパフォーマンスを発揮するマルチモーダル対応インストラクションモデル。 |
| Cerebras Qwen 3 32B | Qwen 3 32Bは、Cerebras Inferenceでの高速かつ高精度のテキストタスクに最適化されています。 |
| Cerebras Qwen 3 235B Instruct | Cerebrasでホストされ、指示チューニングが施された大規模モデルで、評価や高度なテキストタスクに適しています。 |
TogetherAIが提供するLLM
Meta Llamaは、Meta Llama 4のコミュニティライセンスに基づいてライセンスされています。Copyright © Meta Platforms, Inc. All Rights Reserved.
| LLM | 説明 |
|---|---|
| Arcee AI Virtuoso Large | Arcee AIの最も強力で多用途な汎用モデルであり、さまざまな分野での複雑で多様なタスクの処理に優れています。 最先端のパフォーマンスにより、ニュアンスの理解、状況に応じた適応性、高い精度を実現する比類のない機能を提供します。 |
| Arcee AI Coder-Large | Coder-Largeは、複雑なプログラミングタスクに特化した高性能モデルであり、ソフトウェア開発環境において真価を発揮します。 効率性、信頼性、適応性を重視し、複雑なシステムのコードを作成、デバッグ、改良する開発者をサポートします。 |
| Arcee AI Maestro Reasoning | 高パフォーマンスのエンタープライズアプリケーションに最適化された高度な推論モデル。 maestro-7b-previewで最初に導入された革新的なトレーニング技術をベースに構築されたMaestro Reasoningでは、OpenAIのO1やDeepSeekのR1のような主要モデルに匹敵するか上回るスケールで、推論機能が大幅に強化されていますが、計算コストは大幅に削減しています。 |
| Google Gemma 3N E4B Instruct | モバイル端末や低リソースデバイス(スマートフォン、ノートパソコン、タブレットなど)での効率的な実行に最適化されたLLMであるGemma 3N E4B Instructは、テキスト、視覚データ、音声を含むマルチモーダル入力をサポートし、テキスト生成、音声認識、翻訳、画像解析など多様なタスクを実現します。 |
| Marin Community Marin 8B Instruct | 会話型およびタスク指向のアプリケーション向けに、Marin Community(オープンソースの基盤モデル開発のための共同プロジェクト)によって開発された、インストラクションチューニング済み言語モデル。 |
| Meta Llama 3 8B Instruct Lite | Llama 3 8Bの軽量版で、対話ユースケースや効率的な推論・指示追従タスクに最適化されています。 |
| Meta Llama 3 70B Instruct Reference | Llama 3 70Bの標準的なリファレンス実装であり、高度な指示追従および会話タスクに対応しています。 |
| Meta Llama 3.1 8B Instruct Turbo | 高速な推論および指示追従タスクに最適化された、Llama 3.1 8Bの高パフォーマンス版。 |
| Meta Llama 3.1 405B Instruct Turbo | 複雑な推論、高度な指示追従、および高パフォーマンスのアプリケーションに最適化された、Llama 3.1シリーズの中で最大かつ最も高性能なモデル。 |
| Meta Llama 3.2 3B Instruct Turbo | 強力な指示追従機能を維持しながら、高速推論に最適化されたコンパクトで効率的なモデル。 |
| Meta Llama 3.3 70B Instruct Turbo | 複雑な推論タスクや指示追従タスクのための機能が強化された高度な大規模モデルであり、多言語対話のユースケースに最適化されています。 |
| Meta Llama 4 Maverick Instruct (17Bx128E) | 170億のパラメーターと128のエキスパートを持つ混合エキスパートモデルであり、多様なタスクにおいて高パフォーマンスかつ効率的な推論ができるように設計されています。 |
| Meta Llama 4 Scout Instruct (17Bx16E) | 170億のパラメーターと16のエキスパートを持つ混合エキスパートモデルであり、バランスの取れたパフォーマンスと効率的なリソース利用のために最適化されています。 |
| Mistral Small 3 Instruct (24B) | 堅牢な言語および指示追従パフォーマンスと非常に低いレイテンシーを必要とする生成AIタスクのために、事前にトレーニングされ、インストラクションチューニング済みの生成LLM。 |
| Mistral (7B) Instruct | 73億パラメーターの高パフォーマンスかつ業界標準のモデルで、指示追従のためにファインチューニングが施され、スピードとコンテキスト長が最適化されています。 |
| Mistral (7B) Instruct v0.2 | 70億パラメーターのインストラクションチューニングモデルの改良版で、パフォーマンスと機能が強化されています。 |
| Mistral (7B) Instruct v0.3 | 70億パラメーターのインストラクションチューニングモデルの最新版で、パフォーマンスと信頼性がさらに向上しています。 |
| Mistral Mixtral-8x7B Instruct v0.1 | チャットや指示で使用するために事前トレーニング済みの生成型スパース混合エキスパートです。 8つのエキスパート(フィードフォワードネットワーク)を組み込み、合計470億のパラメーターを有しています。 |