モデルプロバイダーの設定

dify-docs-configure-model-provider

モデルプロバイダーとは

DifyでAIアプリケーションを作成するには、モデルプロバイダー(AIモデルの提供元)を設定する必要があります。特にリアルタイム対話が重要なデジタルヒューマンでは、GPT-5.2Gemini 3 Flashが最速で推奨されます。

対応している主なプロバイダー例

プロバイダー
代表的なモデル
特徴
OpenAI
GPT-5.2, GPT-5, GPT-4.5
最高速の推論速度、統合システム、実績豊富
Google
Gemini 3 Pro, Gemini 3 Flash, Gemini 2.5 Pro
マルチモーダル、超長文コンテキスト(1M)、3 Flashは超高速
Anthropic
Claude Opus 4.5, Claude Sonnet 4.5, Claude Haiku 4.5
最高のコーディング性能、長文対応、安全性
Azure OpenAI
GPTシリーズ(OpenAIと同等)
エンタープライズ向け、SLA保証、コンプライアンス
AWS Bedrock
Claude, Titan, Llama 3など
AWSエコシステム連携、柔軟なモデル選択
Groq
Llama 3.3, DeepSeek, Mixtral
LPU推論エンジン、超低レイテンシー、1,500+ tokens/s
Cerebras
Llama 4, GPT-OSS, Qwen
ウェーハースケールAI、業界最速、2,500+ tokens/s
ローカルLLM
Ollama, LocalAI
オンプレミス運用、コスト固定、データ保護

設定手順(OpenAIの例)

ステップ1: 設定画面を開く

Notion image
  1. 画面右上のプラグインをクリック
  1. 「モデルプロバイダー」インストール元を選択
      • マーケットプレイス
      • GitHub
      • ローカルパッケージファイル

ステップ2: プロバイダーの追加

Notion image
Notion image
  1. 「モデル」をクリック
  1. 一覧から「OpenAI」を選択
  1. インストールをクリック
  1. インストールが完了すればモデルが使用できるようになります
 

ステップ3: APIキーの取得

  1. 生成されたAPIキーをコピー
  1. キーを安全な場所に保管
Notion image

OpenAI(Chat-GPT)の場合:

  1. https://auth.openai.com/log-in にアクセス
  1. ログイン後に、設定 > 左メニュー「API Keys」メニューを選択
  1. 「Create new secret key」をクリック
  1. 生成されたキーをコピー
Notion image

Anthropic(Claude)の場合:

  1. https://console.anthropic.com にアクセス
  1. API Keys」を選択
  1. 「Create Key」をクリック
Google AI Studio APIキー取得画面
Google AI Studio APIキー取得画面

Google(Gemini)の場合:

  1. Google AI Studio にアクセス
  1. Googleアカウントでログイン
  1. 画面上部の「Get API key」をクリック
  1. 「Create API key」をクリック
      • 既存のGoogle Cloudプロジェクトがある場合:「Create API key in existing project」を選択
      • 新規プロジェクトの場合:「Create API key in new project」を選択(推奨)

ステップ4: 接続テスト

Notion image
  1. Difyのプラグイン設定画面に戻り、APIキーを入力後、「テスト」ボタンをクリック
  1. 成功メッセージが表示されれば設定完了
  1. 「保存」をクリック

デジタルヒューマン向けモデルの参考

速度と精度のバランスでモデルを選定してください。特に、全文が出力される速度よりも、応答が始まるまでの時間(厳密には1文目が出力されるまでの時間)が早いモデルをおすすめします。

応答速度の目安:

  • ⚡⚡⚡ 超高速: 50〜2000+ tokens/秒(0.3〜1秒、リアルタイム対話に最適)
  • ⚡⚡ 高速: 30〜50 tokens/秒(1〜2秒、一般的な会話に十分)
  • ⚡ 標準: 10〜30 tokens/秒(2〜4秒、複雑な処理向け)

※ 応答が生成されてから、転送にかかる時間、音声合成とアニメーションを生成する時間がオーバーヘッドとして必要になります。

LLM(会話用)

モデル
用途
応答速度
特徴
Cerebras Llama 4 Maverick
本番用(業界最速)
⚡⚡⚡ 超高速(2,500+ tokens/s)
ウェーハースケールAIチップ、推論速度世界記録
Gemini 3 Flash
本番用(最速)
⚡⚡⚡ 超高速(2000+ tokens/s)
2025年12月リリース、リアルタイム対話に最適、最先端知能
Groq Llama 3.3 70B
本番用(超低レイテンシー)
⚡⚡⚡ 超高速(1,500+ tokens/s)
LPU推論エンジン、オープンソースモデルで最速クラス
GPT-5.2
本番用(最高性能)
⚡⚡⚡ 超高速(187 tokens/s)
2025年12月リリース、全分野で最先端、高速と深い推論を自動切替
GPT-4.1 mini
本番用(コスパ最強)
⚡⚡⚡ 超高速(89 tokens/s)
2025年4月リリース、GPT-4o同等性能でレイテンシー半分、コスト83%削減
Claude Haiku 4.5
本番用(軽量・低コスト)
⚡⚡⚡ 超高速
2025年7月リリース、シンプルな対話・FAQ向け
Claude Opus 4.5
本番用(コーディング最強)
⚡⚡ 高速(50 tokens/s)
2025年11月リリース、SWE-bench 80.9%達成、長時間タスク対応
GPT-5
本番用(汎用)
⚡⚡⚡ 超高速
2025年8月リリース、統合システム、専門家レベルの知性
Claude Sonnet 4.5
本番用(バランス型)
⚡⚡ 高速
2025年9月リリース、自然な応答、コーディング性能高
Gemini 3 Pro
本番用(マルチモーダル)
⚡⚡ 高速
2025年11月リリース、画像・音声・動画対応、1Mトークンコンテキスト
Gemini 2.5 Pro
本番用(コーディング)
⚡⚡ 高速
2025年5月リリース、コーディング特化、Deep Thinkモード
 

埋め込みモデル(ナレッジベース用)

モデル
特徴
text-embedding-3-large
OpenAIの高精度モデル
text-embedding-3-small
コスト重視の場合
bge-m3
多言語対応、日本語に強い

Rerankモデル(検索精度向上)

モデル
提供元
rerank-multilingual-v3.0
Cohere
bge-reranker-v2-m3
BAAI

デフォルトモデルの設定

アプリケーション作成時のデフォルトモデルを設定できます:

設定方法

  1. モデルプロバイダー設定を開く
  1. 各モデルの右側にある「デフォルトに設定」を有効化

推奨デフォルト設定例

種別
推奨モデル
システム推論モデル
GPT-5.2
埋め込みモデル
text-embedding-3-large
Rerank モデル
rerank-multilingual-v3.0
音声-to-テキストモデル
(デジタルヒューマンでは使用しません)
テキスト-to-音声モデル
(デジタルヒューマンでは使用しません)

目的に応じて複数のプロバイダーを設定できます:

例:
- OpenAI: GPT-4o(メインLLM)
- OpenAI: text-embedding-3-large(埋め込み)
- Cohere: rerank-multilingual-v3.0(Rerank)

セキュリティ上の注意

  1. APIキーの管理
      • キーは厳重に管理、共有しない
      • 定期的にローテーション推奨
  1. 利用制限の設定
      • 各プロバイダーで利用上限を設定
      • 予期せぬコスト超過を防止
  1. バックアッププロバイダー
      • 主要プロバイダー障害時の代替を用意
      • 予算オーバー時の代替を用意
お役に立ちましたか?
😞
😐
🤩

最終更新日 February 20, 2026