モデルプロバイダーの設定
OpenAI、AnthropicなどのAIモデルプロバイダーの設定方法を解説します。
モデルプロバイダーとは
DifyでAIアプリケーションを作成するには、モデルプロバイダー(AIモデルの提供元)を設定する必要があります。
対応している主なプロバイダー
プロバイダー | 代表的なモデル | 特徴 |
OpenAI | GPT-4o, GPT-4, GPT-3.5 Turbo | 最も一般的、安定性高 |
Anthropic | Claude 3.5 Sonnet, Claude 3 Opus | 長文対応、安全性 |
Google | Gemini Pro, Gemini Ultra | マルチモーダル |
Azure OpenAI | GPTシリーズ | エンタープライズ向け |
AWS Bedrock | Claude, Titanなど | AWSエコシステム連携 |
ローカルLLM | Ollama, LocalAI | オンプレミス運用 |
設定手順(OpenAIの例)
ステップ1: 設定画面を開く
- 画面右上のアカウントアイコンをクリック
- 「設定」を選択
- 左メニューから「モデルプロバイダー」を選択
ステップ2: プロバイダーの追加
- 「+ プロバイダーを追加」をクリック
- 一覧から「OpenAI」を選択
- APIキーを入力
ステップ3: APIキーの取得
OpenAIの場合:
- 「API Keys」メニューを選択
- 「Create new secret key」をクリック
- 生成されたキーをコピー
Anthropicの場合:
- 「API Keys」を選択
- 「Create Key」をクリック
ステップ4: 接続テスト
- APIキー入力後、「テスト」ボタンをクリック
- 成功メッセージが表示されれば設定完了
- 「保存」をクリック
デジタルヒューマン向け推奨モデル
LLM(会話用)
モデル | 用途 | 特徴 |
GPT-4o | 本番用 | 高速、高品質、コストバランス良 |
Claude 3.5 Sonnet | 本番用 | 自然な応答、長文対応 |
GPT-3.5 Turbo | 開発・テスト用 | 低コスト、高速 |
埋め込みモデル(ナレッジベース用)
モデル | 特徴 |
text-embedding-3-large | OpenAIの高精度モデル |
text-embedding-3-small | コスト重視の場合 |
bge-m3 | 多言語対応、日本語に強い |
Rerankモデル(検索精度向上)
モデル | 提供元 |
rerank-multilingual-v3.0 | Cohere |
bge-reranker-v2-m3 | BAAI |
複数プロバイダーの設定
目的に応じて複数のプロバイダーを設定できます:
例:
- OpenAI: GPT-4o(メインLLM)
- OpenAI: text-embedding-3-large(埋め込み)
- Cohere: rerank-multilingual-v3.0(Rerank)セキュリティ上の注意
- APIキーの管理
- キーは厳重に管理、共有しない
- 定期的にローテーション推奨
- 利用制限の設定
- 各プロバイダーで利用上限を設定
- 予期せぬコスト超過を防止
- バックアッププロバイダー
- 主要プロバイダー障害時の代替を用意
お役に立ちましたか?
😞
😐
🤩
最終更新日 December 23, 2025