LLMノードの設定

LLMノードの設定項目と最適化方法を解説します。

LLMノードとは

LLMノードは、大規模言語モデルを呼び出して回答を生成する中核のノードです。

設定項目

1. モデル選択

モデル
推奨用途
GPT-4o
本番用、高品質
GPT-3.5 Turbo
開発用、低コスト
Claude 3.5 Sonnet
本番用、自然な応答

2. システムプロンプト

AIの役割や振る舞いを定義します。

あなたは「ライラ」という名前のカスタマーサポート担当です。
丁寧で親切な応対を心がけてください。

3. ユーザープロンプト

ユーザー入力とコンテキストを組み合わせます。

## 参考情報
{{#context#}}

## ユーザーの質問
{{#sys.query#}}

4. パラメータ

パラメータ
説明
推奨値
Temperature
創造性の度合い
0.3〜0.7
Top P
トークン選択の多様性
0.9〜1.0
Max Tokens
出力の最大長
500〜2000

5. メモリ(会話履歴)

過去の会話を参照します:

設定
効果
無効
単発の質問のみ考慮
5〜10ターン
程よい文脈保持(推奨
20ターン以上
長期記憶、コスト増

デジタルヒューマン向け設定

推奨設定

モデル: GPT-4o または Claude 3.5 Sonnet
Temperature: 0.5
Max Tokens: 1000
メモリ: 5〜10ターン

システムプロンプト例

あなたは「ライラ」という名前のカスタマーサポート担当です。

## 指示事項
- 丁寧で親切な応対を心がける
- 参考情報に基づいて回答する
- わからない場合は正直に伝える
- 短くわかりやすく回答する

## 制約
- 不確かな情報は伝えない
- 個人情報は取り扱わない

変数の接続

ナレッジ検索結果の参照

ナレッジ検索ノードの出力をLLMノードで参照:

## 参考情報
{{#knowledge_retrieval.result#}}

## ユーザーの質問
{{#sys.query#}}

上記の参考情報に基づいて回答してください。

参考URL

お役に立ちましたか?
😞
😐
🤩

最終更新日 December 23, 2025