SDK UneeqOptions
Uneeq() オブジェクトを構築する際には、UneeqOptions を渡す必要があります。これらのオプションは以下のように定義されています。
url
接続先サーバーのURL
タイプ:string
conversationId
セッションに使用するセッションID
タイプ:string
avatarVideoContainerElement
アバタービデオを配置する div 要素を指定します。
タイプ:HTMLDivElement
localVideoContainerElement
ローカルビデオを配置する div 要素を指定します。
タイプ:string (オプション)
diagnostics
診断コールバックを有効にする。
タイプ:string (オプション)
デフォルト値:false
backgroundImageUrl
このオプションでは、セッション中にデジタルヒューマンの背後に表示される画像のURLを指定できます。
背景画像をURL使用するために、まず先に担当へ画像をお送りいただければ専用のURLを発行いたします。
タイプ:string (オプション)
customMetadata
テキストまたは音声の質問と共に送信されるカスタムメタデータを設定します。
タイプ:string (オプション)
nameTagImageUrl
このオプションでは、セッション中にデジタルヒューマンに表示される名札画像のURLを指定できます。背景画像を承認されたURLに追加してもらうためには、カスタマーサクセスチームに連絡する必要があります。
タイプ:string (オプション)
enableClientPerformanceMessage
このオプションは、開発者コンソールでクライアント側のネットワークパフォーマンスメッセージの可視性を制御します。
これらのWebRTC統計(例:packetsLost、framesDropped、framesPerSec)は、セッション品質がクライアント側の条件によって影響を受けているかどうかを特定するのに役立ちます。
この可視性の設定に関係なく、UneeQのサーバーはこれらのメッセージを受信し、エンドユーザーのプラットフォームのパフォーマンスと安定性を測定するのに役立ちます。
タイプ:boolean (オプション)
デフォルト値:false
enableTransparentBackground
このオプションは、デジタルヒューマンを透明な背景でレンダリングし、あなたの体験の上にオーバーレイできるようにするかどうかを制御します。
trueの場合、デジタルヒューマンの設定された背景画像は透明な背景で置き換えられます。falseの場合、設定された背景画像が表示されます。
タイプ:boolean (オプション)
デフォルト値:false
enableVad
音声認識入力モードを使用する場合、話し始めたときと話し終わったときに、あなたの声は自動的に検出されます。この挙動を無効にするためには、enableVadをfalseに設定できます。このオプションをfalseに設定すると、ユーザーのマイクが聞いているかどうかを管理する必要があります。
ユーザーのマイクの聞き取り状態を制御するためには、pauseSpeechRecognition()
と resumeSpeechRecognition()
を呼び出す必要があります。
ヒント:pause と resume の音声認識を呼び出す前に、ユーザーのマイクにアクセスするために enableMicrophone()
を呼び出す必要があります。
タイプ:boolean (オプション)
デフォルト値:true
enableInterruptBySpeech
音声認識とenableVad
入力モードを使用する場合、デジタルヒューマンが話している間はあなたの声で中断されることはありません。この動作をオーバーライドするには、enableInterruptBySpeech
をtrue
に設定します。
enableVad
をtrue
にしている場合、マイクのミュートを解除するとこの設定に関係なく、デジタルヒューマンの発話を停止して中断します。
注意: デジタルヒューマンにテキストメッセージを入力すると、デジタルヒューマンの発話が中断されます。
タイプ:boolean (オプション)
デフォルト値:false
logging
ロギングを有効にする。
タイプ:boolean (オプション)
デフォルト値:false
messageHandler
メッセージハンドラーコールバックに使用する関数を提供します。
タイプ:function (msg: ) (オプション)
デフォルト値:undefined
micActivityMessages
マイクのアクティビティメッセージを受信するかどうかを決定します。
タイプ:boolean (オプション)
デフォルト値:false
playWelcome
NLPウェルカムメッセージをトリガーするかどうか決定します。
タイプ:boolean (オプション)
デフォルト値:false
preferredCameraId
セッションを開始する優先カメラのデバイスID。
タイプ:string (オプション)
デフォルト値:undefined
preferredMicrophoneId
タイプ:string (オプション)
デフォルト値:undefined
preferredSpeakerId
セッションを開始する優先話者のデバイスID。
タイプ:string (オプション)
デフォルト値:undefined
sendLocalAudio
セッション開始時にユーザーのローカル音声ストリーム(マイク)を送信するかどうか決定します。
タイプ:boolean (オプション)
デフォルト値:true
sendLocalVideo
セッション開始時に、ユーザーのローカルビデオストリーム(カメラ)を送信するかどうか決定します。
タイプ:boolean (オプション)
デフォルト値:true
speechRecognitionHintPhrases
音声認識システムに期待する単語についてヒントを与えるために使用されるべき、コンマ区切りのヒントフレーズの文字列です。ここにヒントフレーズを提供すると、それらが音声認識システムで検出されやすくなります。
タイプ:string (オプション)
デフォルト値 : "”
値の例: UneeQ, digital human, New Zealand
speechRecognitionHintPhrasesBoost
0から20の間の数値で、ヒントフレーズの単語が音声で検出される可能性を高めるために使用できます。
タイプ : number
デフォルト値 : 0
値の例: 15
speechToTextLocales
のオプションでは、エンドユーザーが話すことができ、デジタルヒューマンが理解すべき言語について、最大4つのコロン区切りのロケールコード(言語タグ)を指定できます。
リストの最初のロケールがプライマリロケールとみなされます。例:en-US:ja-JP:de-DE
各ロケールは、言語と地域を示す4文字であるべきです。例:ja-JA、JPやJAではありません。
タイプ:string (オプション)
voiceInputMode
マイクを通じてユーザーの声をキャプチャするモードです。プッシュ・トゥ・トークモードの場合、声をキャプチャするためには startRecording
と stopRecording
メソッドを呼び出す必要があります。SPEECH_RECOGNITION
モードの場合、startRecording
や stopRecording
を呼び出さずに、ユーザーの声が自動的にキャプチャされます。
タイプ:string
Values:"PUSH_TO_TALK"
,"SPEECH_RECOGNITION"
デフォルト値:"PUSH_TO_TALK"
最終更新日 February 14, 2024