モデルプロバイダーの設定

OpenAI、AnthropicなどのAIモデルプロバイダーの設定方法を解説します。

モデルプロバイダーとは

DifyでAIアプリケーションを作成するには、モデルプロバイダー(AIモデルの提供元)を設定する必要があります。

対応している主なプロバイダー

プロバイダー
代表的なモデル
特徴
OpenAI
GPT-4o, GPT-4, GPT-3.5 Turbo
最も一般的、安定性高
Anthropic
Claude 3.5 Sonnet, Claude 3 Opus
長文対応、安全性
Google
Gemini Pro, Gemini Ultra
マルチモーダル
Azure OpenAI
GPTシリーズ
エンタープライズ向け
AWS Bedrock
Claude, Titanなど
AWSエコシステム連携
ローカルLLM
Ollama, LocalAI
オンプレミス運用

設定手順(OpenAIの例)

ステップ1: 設定画面を開く

  1. 画面右上のアカウントアイコンをクリック
  1. 「設定」を選択
  1. 左メニューから「モデルプロバイダー」を選択

ステップ2: プロバイダーの追加

  1. 「+ プロバイダーを追加」をクリック
  1. 一覧から「OpenAI」を選択
  1. APIキーを入力

ステップ3: APIキーの取得

OpenAIの場合:

  1. https://platform.openai.com にアクセス
  1. 「API Keys」メニューを選択
  1. 「Create new secret key」をクリック
  1. 生成されたキーをコピー

Anthropicの場合:

  1. https://console.anthropic.com にアクセス
  1. 「API Keys」を選択
  1. 「Create Key」をクリック

ステップ4: 接続テスト

  1. APIキー入力後、「テスト」ボタンをクリック
  1. 成功メッセージが表示されれば設定完了
  1. 「保存」をクリック

デジタルヒューマン向け推奨モデル

LLM(会話用)

モデル
用途
特徴
GPT-4o
本番用
高速、高品質、コストバランス良
Claude 3.5 Sonnet
本番用
自然な応答、長文対応
GPT-3.5 Turbo
開発・テスト用
低コスト、高速

埋め込みモデル(ナレッジベース用)

モデル
特徴
text-embedding-3-large
OpenAIの高精度モデル
text-embedding-3-small
コスト重視の場合
bge-m3
多言語対応、日本語に強い

Rerankモデル(検索精度向上)

モデル
提供元
rerank-multilingual-v3.0
Cohere
bge-reranker-v2-m3
BAAI

複数プロバイダーの設定

目的に応じて複数のプロバイダーを設定できます:

例:
- OpenAI: GPT-4o(メインLLM)
- OpenAI: text-embedding-3-large(埋め込み)
- Cohere: rerank-multilingual-v3.0(Rerank)

セキュリティ上の注意

  1. APIキーの管理
      • キーは厳重に管理、共有しない
      • 定期的にローテーション推奨
  1. 利用制限の設定
      • 各プロバイダーで利用上限を設定
      • 予期せぬコスト超過を防止
  1. バックアッププロバイダー
      • 主要プロバイダー障害時の代替を用意
お役に立ちましたか?
😞
😐
🤩

最終更新日 December 23, 2025