用語集
dify-docs-glossary
Difyおよびデジタルヒューマン開発に関する主要な用語を解説します。
A
API (Application Programming Interface)
ソフトウェア同士が通信するためのインターフェース。Difyでは、作成したAIアプリを外部システムから利用したり、バックエンドでLLMプロバイダーと接続したりするために使用されます。
Annotation (アノテーション)
AIの回答品質を改善するための機能。特定の質問に対して「理想的な回答」を事前に登録しておくことで、類似の質問が来た際にLLMによる生成を行わず、登録された回答を即座に返します。応答精度の向上とレイテンシ(待ち時間)の短縮に役立ちます。
C
Chatflow (チャットフロー)
Difyにおけるアプリケーション形式のひとつ。会話型のAIボットを構築するためのモードで、複数のノード(処理ブロック)を繋ぎ合わせて複雑な対話ロジックをノーコードで設計できます。デジタルヒューマンの「頭脳」部分として一般的に利用されます。
Chunk (チャンク)
ナレッジ(知識庫)に登録された長いテキストデータを、検索しやすいように分割した最小単位。適切なサイズに分割(チャンキング)することで、AIが必要な情報を正確に見つけ出しやすくなります。
Context (コンテキスト)
LLMが回答を生成するために参照する「文脈情報」の総称。ユーザーとの過去の会話履歴、ナレッジから検索された関連情報、システムプロンプトなどがこれに含まれます。
D
Dify
オープンソースのLLMアプリケーション開発プラットフォーム。RAG(検索拡張生成)やエージェント機能を持つAIアプリを、視覚的な操作(ノーコード/ローコード)で容易に構築・運用できます。
Digital Human (デジタルヒューマン)
AI技術とCGなどを組み合わせ、人間のような外見と対話能力を持つバーチャルキャラクター。本用語集の文脈では、Difyをその「対話エンジン(頭脳)」として利用するケースを指します。
DSL (Domain Specific Language)
Difyのアプリ設定(チャットフローの構造やプロンプト設定など)を記述したファイル形式。通常はYAML形式でエクスポートされ、バックアップや他のDify環境への移行(インポート)に使用されます。
E
Embedding (埋め込み)
テキストデータを、その意味を表す数値の列(ベクトル)に変換する技術。単語の文字そのものではなく「意味」を計算可能な形にするため、表記が異なっても意味が近い文書を探し出すことが可能になります。
Embedding Model (埋め込みモデル)
Embedding(ベクトル化)処理を行うためのAIモデル。OpenAIの text-embedding-3 シリーズや、Cohere Embedなどが代表的です。
F
Full-Text Search (全文検索)
検索キーワードと完全に一致する単語が含まれているかを調べる、従来の検索方式。固有名詞や品番、専門用語など、特定のキーワードをピンポイントで探す際に有効です。
H
Hybrid Search (ハイブリッド検索)
「セマンティック検索(意味検索)」と「全文検索(キーワード検索)」を組み合わせた検索方式。Rerank(再順位付け)モデルと併用することで、両者の利点を活かした高精度な情報検索が可能になります。
K
Knowledge (ナレッジ)
Dify内でドキュメントを管理するデータベース機能(旧称・別名:ナレッジベース)。PDFやテキストデータをアップロードし、RAGの「知識源」としてAIに参照させることができます。
L
LLM (Large Language Model)
大規模言語モデル。膨大なテキストデータで学習され、人間のような文章生成や理解を行うAIモデル。GPT-4 (OpenAI)、Claude (Anthropic)、Gemini (Google) などが該当します。
LLM Node (LLMノード)
チャットフロー内で、実際にLLMにプロンプトを送り回答を生成させる処理ブロック。モデルの選択やパラメータ設定はここで行います。
M
Memory (メモリー)
AIがユーザーとの過去の会話内容を記憶・保持する機能。これにより、「さっきの話だけど」といった文脈を踏まえた自然な対話が可能になります。
Model Provider (モデルプロバイダー)
LLMやEmbeddingモデルを提供するベンダー。DifyではOpenAI、Azure、Anthropic、Google、AWS Bedrockなど多様なプロバイダーのモデルをAPIキーを設定するだけで利用できます。
N
Node (ノード)
チャットフローを構成する個々の処理ブロック。開始(Start)、LLM、ナレッジ検索(Knowledge Retrieval)、条件分岐(If/Else)などがあり、これらを線で繋ぐことで処理の流れを作ります。
P
Prompt (プロンプト)
LLMに対する命令文や入力データ。Difyでは、AIの役割を定義する「システムプロンプト」と、ユーザーが入力する「ユーザープロンプト」を組み合わせて使用します。
Q
Question Classifier (質問分類器)
ユーザーの入力を分析し、内容に応じて処理ルートを振り分けるノード。例えば「製品の問い合わせ」ならナレッジ検索へ、「雑談」なら直接LLMへ、といった条件分岐を自動化します。
R
RAG (Retrieval-Augmented Generation)
検索拡張生成。LLMが学習していない外部データ(社内ドキュメントなど)を検索し、その情報を回答の根拠として利用する仕組み。ハルシネーション(嘘の回答)を抑制する効果があります。
Rerank (リランク)
検索システムが抽出した複数のドキュメント候補を、質問との関連度に基づいて並び替え(再評価)を行うプロセス。ハイブリッド検索の結果を統合し、最も適切な情報をLLMに渡すために重要です。
Retrieval (リトリーバル)
ナレッジ(知識庫)からユーザーの質問に関連する情報を検索・取得する処理。Difyでは「N個のチャンクを取得する」といった設定が可能です。
S
Semantic Search (セマンティック検索)
キーワードの一致ではなく、文章の「意味」の類似性に基づいて検索する方式。Embedding(ベクトル化)技術を利用しており、「車」と検索して「自動車」を含む記事を見つけるといった柔軟な検索が可能です。
System Prompt (システムプロンプト)
AIアシスタントの「振る舞い」や「役割」を定義する指示書。「あなたは親切なカスタマーサポートです」「回答は200文字以内で」といった前提条件を記述します。
T
Temperature (温度)
LLMの生成テキストの「ランダム性」を制御するパラメータ。0に近いほど論理的で一貫した回答になり、高いほど創造的で変化に富んだ(あるいは予測しにくい)回答になります。
Token (トークン)
LLMがテキストを処理・課金する際の基本単位。単語や文字そのものではなく、意味のある文字列の塊としてカウントされます。日本語の場合、ひらがなや漢字によって異なりますが、目安として文字数より多くなる傾向があります。
Top K
ナレッジ検索時に、関連度が高い順に「何件のチャンク」を採用するかを指定するパラメータ。値を増やすと情報量が増えますが、ノイズが混じるリスクやトークン消費も増加します。
Trace (トレース)
アプリの実行ログを詳細に追跡する機能。チャットフローの各ノードでどのようなデータが入出力されたかを確認でき、デバッグや改善に不可欠です。
V
Vector (ベクトル)
テキストの意味を多次元の数値配列で表現したもの。ナレッジ検索(ベクトル検索)において、質問とドキュメントの「距離(類似度)」を計算するために使用されます。
W
Workflow (ワークフロー)
Difyのアプリケーション形式のひとつ。対話型(チャット)ではなく、入力に対して一連の処理を行い結果を出力する「バッチ処理」や「APIツール」のような用途に適しています。
Workspace (ワークスペース)
Difyにおける作業環境の単位。チームやプロジェクトごとにワークスペースを分けることで、アプリやナレッジ、API設定を独立して管理できます。
最終更新日 February 20, 2026