SDK UneeqOptions

Uneeq() オブジェクトを構築する際には、UneeqOptions を渡す必要があります。これらのオプションは以下のように定義されています。

url

接続先サーバーのURL

タイプ:string

conversationId

セッションに使用するセッションID

タイプ:string

avatarVideoContainerElement

アバタービデオを配置する div 要素を指定します。

タイプ:HTMLDivElement

localVideoContainerElement

ローカルビデオを配置する div 要素を指定します。

タイプ:string (オプション)

diagnostics

診断コールバックを有効にする。

タイプ:string (オプション)

デフォルト値:false

backgroundImageUrl

このオプションでは、セッション中にデジタルヒューマンの背後に表示される画像のURLを指定できます。

背景画像をURL使用するために、まず先に担当へ画像をお送りいただければ専用のURLを発行いたします。

タイプ:string (オプション)

customMetadata

テキストまたは音声の質問と共に送信されるカスタムメタデータを設定します。

タイプ:string (オプション)

nameTagImageUrl

このオプションでは、セッション中にデジタルヒューマンに表示される名札画像のURLを指定できます。背景画像を承認されたURLに追加してもらうためには、カスタマーサクセスチームに連絡する必要があります。

タイプ:string (オプション)

enableClientPerformanceMessage

このオプションは、開発者コンソールでクライアント側のネットワークパフォーマンスメッセージの可視性を制御します。

これらのWebRTC統計(例:packetsLost、framesDropped、framesPerSec)は、セッション品質がクライアント側の条件によって影響を受けているかどうかを特定するのに役立ちます。

この可視性の設定に関係なく、UneeQのサーバーはこれらのメッセージを受信し、エンドユーザーのプラットフォームのパフォーマンスと安定性を測定するのに役立ちます。

タイプ:boolean (オプション)

デフォルト値:false

enableTransparentBackground

このオプションは、デジタルヒューマンを透明な背景でレンダリングし、あなたの体験の上にオーバーレイできるようにするかどうかを制御します。

trueの場合、デジタルヒューマンの設定された背景画像は透明な背景で置き換えられます。falseの場合、設定された背景画像が表示されます。

タイプ:boolean (オプション)

デフォルト値:false

enableVad

音声認識入力モードを使用する場合、話し始めたときと話し終わったときに、あなたの声は自動的に検出されます。この挙動を無効にするためには、enableVadをfalseに設定できます。このオプションをfalseに設定すると、ユーザーのマイクが聞いているかどうかを管理する必要があります。

ユーザーのマイクの聞き取り状態を制御するためには、pauseSpeechRecognition()resumeSpeechRecognition() を呼び出す必要があります。

ヒント:pause と resume の音声認識を呼び出す前に、ユーザーのマイクにアクセスするために enableMicrophone() を呼び出す必要があります。

タイプ:boolean (オプション)

デフォルト値:true

enableInterruptBySpeech

音声認識とenableVad入力モードを使用する場合、デジタルヒューマンが話している間はあなたの声で中断されることはありません。この動作をオーバーライドするには、enableInterruptBySpeechtrueに設定します。

enableVadtrueにしている場合、マイクのミュートを解除するとこの設定に関係なく、デジタルヒューマンの発話を停止して中断します。

注意: デジタルヒューマンにテキストメッセージを入力すると、デジタルヒューマンの発話が中断されます。

タイプ:boolean (オプション)

デフォルト値:false

logging

ロギングを有効にする。

タイプ:boolean (オプション)

デフォルト値:false

messageHandler

メッセージハンドラーコールバックに使用する関数を提供します。

タイプ:function (msg: ) (オプション)

デフォルト値:undefined

micActivityMessages

マイクのアクティビティメッセージを受信するかどうかを決定します。

タイプ:boolean (オプション)

デフォルト値:false

playWelcome

NLPウェルカムメッセージをトリガーするかどうか決定します。

タイプ:boolean (オプション)

デフォルト値:false

preferredCameraId

セッションを開始する優先カメラのデバイスID。

タイプ:string (オプション)

デフォルト値:undefined

preferredMicrophoneId

タイプ:string (オプション)

デフォルト値:undefined

preferredSpeakerId

セッションを開始する優先話者のデバイスID。

タイプ:string (オプション)

デフォルト値:undefined

sendLocalAudio

セッション開始時にユーザーのローカル音声ストリーム(マイク)を送信するかどうか決定します。

タイプ:boolean (オプション)

デフォルト値:true

sendLocalVideo

セッション開始時に、ユーザーのローカルビデオストリーム(カメラ)を送信するかどうか決定します。

タイプ:boolean (オプション)

デフォルト値:true

speechRecognitionHintPhrases

音声認識システムに期待する単語についてヒントを与えるために使用されるべき、コンマ区切りのヒントフレーズの文字列です。ここにヒントフレーズを提供すると、それらが音声認識システムで検出されやすくなります。

タイプ:string (オプション)

デフォルト値 : "”

値の例: UneeQ, digital human, New Zealand

speechRecognitionHintPhrasesBoost

0から20の間の数値で、ヒントフレーズの単語が音声で検出される可能性を高めるために使用できます。

タイプ : number

デフォルト値 : 0

値の例: 15

speechToTextLocales

のオプションでは、エンドユーザーが話すことができ、デジタルヒューマンが理解すべき言語について、最大4つのコロン区切りのロケールコード(言語タグ)を指定できます。

リストの最初のロケールがプライマリロケールとみなされます。例:en-US:ja-JP:de-DE

各ロケールは、言語と地域を示す4文字であるべきです。例:ja-JA、JPやJAではありません。

タイプ:string (オプション)

voiceInputMode

マイクを通じてユーザーの声をキャプチャするモードです。プッシュ・トゥ・トークモードの場合、声をキャプチャするためには startRecordingstopRecording メソッドを呼び出す必要があります。SPEECH_RECOGNITION モードの場合、startRecordingstopRecording を呼び出さずに、ユーザーの声が自動的にキャプチャされます。

タイプ:string

Values:"PUSH_TO_TALK","SPEECH_RECOGNITION"

デフォルト値:"PUSH_TO_TALK"

⚠️
注意: 「SPEECH_RECOGNITION」はベータ機能であり、変更される可能性があります。この機能を使用する際には問題が発生する可能性があります。
 
 
 
 
 
お役に立ちましたか?
😞
😐
🤩

最終更新日 February 14, 2024