モデルプロバイダーの設定
dify-docs-configure-model-provider
モデルプロバイダーとは
DifyでAIアプリケーションを作成するには、モデルプロバイダー(AIモデルの提供元)を設定する必要があります。特にリアルタイム対話が重要なデジタルヒューマンでは、GPT-5.2とGemini 3 Flashが最速で推奨されます。
対応している主なプロバイダー例
プロバイダー | 代表的なモデル | 特徴 |
OpenAI | GPT-5.2, GPT-5, GPT-4.5 | 最高速の推論速度、統合システム、実績豊富 |
Google | Gemini 3 Pro, Gemini 3 Flash, Gemini 2.5 Pro | マルチモーダル、超長文コンテキスト(1M)、3 Flashは超高速 |
Anthropic | Claude Opus 4.5, Claude Sonnet 4.5, Claude Haiku 4.5 | 最高のコーディング性能、長文対応、安全性 |
Azure OpenAI | GPTシリーズ(OpenAIと同等) | エンタープライズ向け、SLA保証、コンプライアンス |
AWS Bedrock | Claude, Titan, Llama 3など | AWSエコシステム連携、柔軟なモデル選択 |
Groq | Llama 3.3, DeepSeek, Mixtral | LPU推論エンジン、超低レイテンシー、1,500+ tokens/s |
Cerebras | Llama 4, GPT-OSS, Qwen | ウェーハースケールAI、業界最速、2,500+ tokens/s |
ローカルLLM | Ollama, LocalAI | オンプレミス運用、コスト固定、データ保護 |
設定手順(OpenAIの例)
ステップ1: 設定画面を開く

- 画面右上のプラグインをクリック
- 「モデルプロバイダー」インストール元を選択
- マーケットプレイス
- GitHub
- ローカルパッケージファイル
ステップ2: プロバイダーの追加


- 「モデル」をクリック
- 一覧から「OpenAI」を選択
- インストールをクリック
- インストールが完了すればモデルが使用できるようになります
ステップ3: APIキーの取得
- 生成されたAPIキーをコピー
- キーを安全な場所に保管



Google(Gemini)の場合:
- Google AI Studio にアクセス
- Googleアカウントでログイン
- 画面上部の「Get API key」をクリック
- 「Create API key」をクリック
- 既存のGoogle Cloudプロジェクトがある場合:「Create API key in existing project」を選択
- 新規プロジェクトの場合:「Create API key in new project」を選択(推奨)
ステップ4: 接続テスト

- Difyのプラグイン設定画面に戻り、APIキーを入力後、「テスト」ボタンをクリック
- 成功メッセージが表示されれば設定完了
- 「保存」をクリック
デジタルヒューマン向けモデルの参考
速度と精度のバランスでモデルを選定してください。特に、全文が出力される速度よりも、応答が始まるまでの時間(厳密には1文目が出力されるまでの時間)が早いモデルをおすすめします。
応答速度の目安:
- ⚡⚡⚡ 超高速: 50〜2000+ tokens/秒(0.3〜1秒、リアルタイム対話に最適)
- ⚡⚡ 高速: 30〜50 tokens/秒(1〜2秒、一般的な会話に十分)
- ⚡ 標準: 10〜30 tokens/秒(2〜4秒、複雑な処理向け)
※ 応答が生成されてから、転送にかかる時間、音声合成とアニメーションを生成する時間がオーバーヘッドとして必要になります。
LLM(会話用)
モデル | 用途 | 応答速度 | 特徴 |
Cerebras Llama 4 Maverick | 本番用(業界最速) | ⚡⚡⚡ 超高速(2,500+ tokens/s) | ウェーハースケールAIチップ、推論速度世界記録 |
Gemini 3 Flash | 本番用(最速) | ⚡⚡⚡ 超高速(2000+ tokens/s) | 2025年12月リリース、リアルタイム対話に最適、最先端知能 |
Groq Llama 3.3 70B | 本番用(超低レイテンシー) | ⚡⚡⚡ 超高速(1,500+ tokens/s) | LPU推論エンジン、オープンソースモデルで最速クラス |
GPT-5.2 | 本番用(最高性能) | ⚡⚡⚡ 超高速(187 tokens/s) | 2025年12月リリース、全分野で最先端、高速と深い推論を自動切替 |
GPT-4.1 mini | 本番用(コスパ最強) | ⚡⚡⚡ 超高速(89 tokens/s) | 2025年4月リリース、GPT-4o同等性能でレイテンシー半分、コスト83%削減 |
Claude Haiku 4.5 | 本番用(軽量・低コスト) | ⚡⚡⚡ 超高速 | 2025年7月リリース、シンプルな対話・FAQ向け |
Claude Opus 4.5 | 本番用(コーディング最強) | ⚡⚡ 高速(50 tokens/s) | 2025年11月リリース、SWE-bench 80.9%達成、長時間タスク対応 |
GPT-5 | 本番用(汎用) | ⚡⚡⚡ 超高速 | 2025年8月リリース、統合システム、専門家レベルの知性 |
Claude Sonnet 4.5 | 本番用(バランス型) | ⚡⚡ 高速 | 2025年9月リリース、自然な応答、コーディング性能高 |
Gemini 3 Pro | 本番用(マルチモーダル) | ⚡⚡ 高速 | 2025年11月リリース、画像・音声・動画対応、1Mトークンコンテキスト |
Gemini 2.5 Pro | 本番用(コーディング) | ⚡⚡ 高速 | 2025年5月リリース、コーディング特化、Deep Thinkモード |
埋め込みモデル(ナレッジベース用)
モデル | 特徴 |
text-embedding-3-large | OpenAIの高精度モデル |
text-embedding-3-small | コスト重視の場合 |
bge-m3 | 多言語対応、日本語に強い |
Rerankモデル(検索精度向上)
モデル | 提供元 |
rerank-multilingual-v3.0 | Cohere |
bge-reranker-v2-m3 | BAAI |
デフォルトモデルの設定
アプリケーション作成時のデフォルトモデルを設定できます:
設定方法
- モデルプロバイダー設定を開く
- 各モデルの右側にある「デフォルトに設定」を有効化
推奨デフォルト設定例
種別 | 推奨モデル |
システム推論モデル | GPT-5.2 |
埋め込みモデル | text-embedding-3-large |
Rerank モデル | rerank-multilingual-v3.0 |
音声-to-テキストモデル | (デジタルヒューマンでは使用しません) |
テキスト-to-音声モデル | (デジタルヒューマンでは使用しません) |
目的に応じて複数のプロバイダーを設定できます:
例:
- OpenAI: GPT-4o(メインLLM)
- OpenAI: text-embedding-3-large(埋め込み)
- Cohere: rerank-multilingual-v3.0(Rerank)セキュリティ上の注意
- APIキーの管理
- キーは厳重に管理、共有しない
- 定期的にローテーション推奨
- 利用制限の設定
- 各プロバイダーで利用上限を設定
- 予期せぬコスト超過を防止
- バックアッププロバイダー
- 主要プロバイダー障害時の代替を用意
- 予算オーバー時の代替を用意
お役に立ちましたか?
😞
😐
🤩
最終更新日 February 20, 2026