推奨設定一覧

dify-docs-recommended-settings

デジタルヒューマンの実装において重要となる「応答速度(低遅延)」「人格の一貫性」「コストパフォーマンス」を考慮した Dify 推奨設定です。

1. LLM 設定

1.1 モデル選定(2025-2026年の標準)

従来の GPT-3.5 / GPT-4 から、より高速・安価・高性能なモデルへの移行を強く推奨します。

  • GPT-4o (OpenAI)
    • 推奨用途: メインの会話モデル。応答速度が非常に速く、感情表現も豊か。日本語の流暢さと速度のバランスが現在最適です。
  • GPT-4o-mini (OpenAI)
    • 推奨用途: コスト重視、または挨拶や単純な応答。
    • 理由: GPT-3.5-turbo よりも安価で高性能かつ高速です。
  • Claude 3.5 Sonnet (Anthropic)
    • 推奨用途: より人間らしく、温かみのある対話が必要な場合。

1.2 推奨パラメータ

デジタルヒューマンは「即答性」と「キャラ崩壊の防止」が重要です。

  • Temperature: 0.5〜0.7
    • 解説: 0.3だと機械的になりすぎるため、少し揺らぎを持たせます。人格プロンプトで制御できている前提です。
  • max_tokens: 300〜500
    • 解説: 長文回答は音声合成(TTS)の待ち時間を増やし、ユーザーを飽きさせます。短くテンポの良い会話を強制するため、あえて少なめに設定することを推奨します。

2. ナレッジベース設定(RAG)

2.1 埋め込みモデル(Embedding)

古いモデル(ada-002等)は精度・コスト面で推奨されなくなっています。

  • 推奨モデル
    • text-embedding-3-large (OpenAI): 精度重視。 
    • text-embedding-3-small (OpenAI): 速度・コスト重視。
    • multilingual-e5-large: 日本語特化の精度が必要な場合。

2.2 検索設定

  • Top K: 3〜5
    • 解説: コンテキストが長くなると LLM の処理時間(TTFT)が増加します。必要最小限に絞ります。
  • Score Threshold: 0.6〜0.7
    • 解説: 無関係な知識を無理やり話させないために、閾値はやや高めを設定します。

3. API 連携・応答モード設定(重要)

デジタルヒューマンにおいて最も重要な設定項目です。

  • 応答モード: Streaming(ストリーミング)推奨
    • 理由: blockingモードでは、文章生成が完了するまで音声合成を開始できず、数秒の「無言時間」が発生します。streamingを使用し、最初の数文字が届いた時点で音声合成やモーション生成を開始するパイプラインを構築するのが、現代のデジタルヒューマンの基本実装です。
  • 会話履歴(Memory): Window Memory(直近 5〜10 ターン)
    • 解説: 履歴が長すぎるとプロンプト処理が重くなります。また、話題転換への追従性を高めるためにも、あまり古い履歴は引きずらない設定が好ましいです。

4. プロンプト設計のヒント

設定値だけでなく、システムプロンプトで以下の制約を加えると品質が安定します。

  • 「回答は1〜2文で簡潔に答えてください。」(TTS生成時間の短縮)
  • 「あなたは〜です。〜という口調で話してください。」(役割の固定)
  • 「分からないことは無理に答えず、正直に分からないと言ってください。」(ハルシネーション対策)

5. ユースケース別プリセット

用途
モデル
Temperature
応答モード
特記事項
受付・案内
GPT-4o-mini
0.3
Streaming
速度と正確性最優先。RAG必須。
雑談・フリートーク
GPT-4o / Claude 3.5 Sonnet
0.7
Streaming
共感性重視。メモリ多め。
専門コンサル
GPT-4o
0.5
Streaming
正確性重視。Rerank有効化。

お役に立ちましたか?
😞
😐
🤩

最終更新日 February 20, 2026