Google Dialogflow CX

Google Dialogflow CX は、バーチャルエージェントを提供するサードパーティーのプラットフォームです。バーチャルエージェントは、コンタクトの発言を解釈して適切な応答を行います。これらは、次のようなテクノロジーを用いて行われます:

バーチャルエージェントは柔軟性があり、組織のニーズに合わせてさまざまな機能を提供できます。たとえば、いくつかの単純なタスクを処理したり、複雑なインタラクティブエージェントとして機能したりするようにバーチャルエージェントを設計できます。

CXoneは、音声チャネルのみでの Google Dialogflow CX の使用をサポートします。 CXoneは、Google Dialogflow CXで発話ベースの機能をサポートします。音声ストリーミングを必要とする機能はサポートされていません。

DialogflowESとCXは公募であり、NICE CXoneから直接購入できます。ただし、パブリックバージョンには、完全なテレフォニー機能や、DialogflowGoogle Contact Center AIエージェントアシスト間のネイティブ接続はありません。これらの機能は、NICE CXoneパートナーを通じて購入した場合に利用できます。

Google Dialogflow CXとESの比較

CXoneは、Google Dialogflow ESとCXをサポートします。この2つのバージョンは似ていますが、何点か重要な違いがあります。

DialogflowESは、小さな簡単なボットに適しています。意図と文脈のフラットな構造をガイドとして使用し、非線形の会話パスをシミュレートします。このアプローチは、大規模で複雑なボットには対応していません。スクリプトで使用したバーチャルエージェントハブStudioアクションのcustomPayloadプロパティを使用して、コンテキストを渡すことができます。これらのボットは、コンテキストデータを使用してコンタクトのインテントを判断します。

DialogflowCXは、大規模で複雑なボットに適した、複雑で非線形会話フローをサポートします。インテント閉じた 連絡先の発言/入力する内容の背後にある意味または目的。連絡先が伝えたいこと、または達成したいこと。の再利用を可能にし、コンテキストを必要としません。customPayloadのデータを渡すことができますが、コンテキストを含める必要はありません。

音声バーチャルエージェントの会話フロー

音声バーチャルエージェントとのインタラクションを開始するには、コンタクトは電話番号を呼び出し、組織に連絡します。コンタクトは直接バーチャルエージェントに接続される場合もあれば、IVR閉じた 発信者が音声コマンド、キー入力、またはその両方を介して対話し、情報を取得したり、着信音声通話をルーティングしたり、あるいはその両方を行うことができる自動電話メニュー。メニューでオプションを選択する必要がある場合もあります。バーチャルエージェントとの会話が始まると、コンタクトの発話閉じた 連絡先が言うことまたはタイプすること。はバーチャルエージェントが分析できるように、 テキストに転写され閉じた STTとも呼ばれるこのプロセスは、音声言語をテキストに変換します。ます。バーチャルエージェントのレスポンスは、コンタクトに送信される前にテキスト読み上げ閉じた ユーザーが録音されたプロンプトをテキストとして入力し、コンピューターで生成された音声を使用してコンテンツを話すことができるようにします。サービスを使って合成音声に変換されます。トランスクリプションや音声合成は、CXone、場合によってはプロバイダーのプラットフォームで行うこともできます。

会話の開始後、バーチャルエージェントはコンタクトの発話を分析しその人物が発言する内容の背景にある目的や意味を理解します。これはコンタクトのインテントとして知られています。インテントが特定されるとバーチャルエージェントはコンタクトに対してレスポンスを送信します。連携がどのようにセットアップされるかによって、リクエストと応答は2つの方法のいずれかで処理されます。以下のようなものがあります。

会話が終わると、バーチャルエージェントはStudioスクリプトに信号を送信します。会話が完了したこと、またはコンタクトがライブエージェントと話す必要があることを信号で知らせることができます。会話が完了すればそのインタラクションは終了します。ライブエージェントが必要な場合は、スクリプトがリクエストを行います。コンタクト先が利用できるときは、エージェントに転送されます。

会話が完了したら、CRM閉じた 連絡先、販売情報、サポートの詳細、ケース履歴などを管理するサードパーティのシステム。に情報を録音するなどインタラクション後のタスクを実行することができます。

前提条件

CXoneGoogle Dialogflow CXバーチャルエージェント閉じた ライブのヒューマンエージェントの代わりに顧客とのやり取りを処理するソフトウェアアプリケーション。を使用するには、次のことが必要です:

  • Google Cloudプラットフォームのアカウント。

  • Google Dialogflow CXバーチャルエージェントは、お客様のコンタクトのリクエストに対応するよう設定され、トレーニングされています。CXoneで連携を完了するには、Google Dialogflow CXコンソールのバーチャルエージェントの設定にあるバーチャルエージェント名が必要です。

  • DialogflowCX音声バーチャルエージェントによりSIP閉じた 音声通話やビデオ通話などのマルチメディア通信セッションのシグナリングと制御に使用されるプロトコル。バックチャネル接続を使用している場合、電話番号。Googleから番号をリクエストする必要があります。これは、Google Dialogflow CXコンソールの管理セクションにある連携で行うことができます。詳細についてはGoogle Dialogflow CXのオンライン付属文書を参照してください。

Googleでのアルファビジビリティ

アルファ可視性は、他の方法では利用できない機能へのGoogleクラウドプロジェクトのアクセスを提供するGoogleプログラムです。アルファ可視性は、CXoneによりDialogflowCXを使用する必要はありません。ただし、一つだけ、アルファ視認性を有効にする必要があるケースがあります。

アルファ可視性には、インテント情報とともにDialogflowバーチャルエージェントから返される最後のユーザー発話を持つことが必要になります。この情報はスクリプトトレースで見ることができます。データが含まれているはずのときにlastUserUtterance変数が空になっている場合、プロジェクトでアルファ可視性が有効になっていない可能性があります。この情報が必要な場合は、お客様のGoogleクラウドプロジェクトでアルファ可視性が有効になっている必要があります。

統合のコンポーネント

Google Dialogflow CX統合には、以下のコンポーネントが関係します:

会話のトランスクリプト

Google Dialogflow CX音声会話からトランスクリプトとインテント情報をキャプチャできます。DialogflowCXでSIPバックチャネル接続を使用している場合、このオプションは利用できません。からトランスクリプトとインテント情報をキャプチャできます。キャプチャしたデータは好きなように使うことができます。例えば、インタラクションがライブエージェントに転送された場合、エージェントのためにそれを表示することができます。また、会話の恒久的な記録として保存しておくというオプションもあります。トランスクリプトだけ、インテント情報だけ、両方を選択する、あるいはどちらも選択しないことができます。

この情報をキャプチャしたい場合、バーチャルエージェントハブGoogle Dialogflow CX 構成設定でそれを有効する必要があります。バーチャルエージェントで使用するStudioスクリプトも設定する必要があります。スクリプトには、キャプチャしたデータを管理するために設定されたGet Bot Transcriptアクションをインクルードする必要があります。キャプチャされたデータは、連絡先IDの有効期間中、一時的に保存されます。データを保存する必要がある場合は、アーカイブに送信するようにスクリプトを設定する必要があります。保存されたすべてのデータについて、PII(個人を特定できる情報)を消去する責任があります。

コンタクトセンターAIインサイト

GoogleDialogflowコンタクトセンターAIインサイトを使用する場合は、Studioスクリプトに追加の設定を行う必要があります。コンタクトセンターAIインサイト機能は、完了とマークされた会話にのみ機能します。

デフォルトでは、DialogflowCX バーチャルエージェントの会話が完了とマークされるまで24時間かかります。しかしながら、各インタラクションの最後に自動化されたインテントをDialogflowに送信することで、強制的にクロージングさせることができます。

このためには、インタラクションが終了した後、Voicebot ExchangeアクションAutomatedIntentプロパティを通じて値conversation_completeを送信する必要があります。この値をプロパティにハードコードすることもできるし、変数経由で送信することもできます。

音声コンテクストのヒント

音声コンテキストのヒントとは、トランスクリプションサービスに送られる単語やフレーズのことです。ある特定の方法で転写する必要のある単語やフレーズがあるときに役立ちます。音声コンテキストのヒントは、音声認識の精度を向上させるのに役立ちます。例えば、住所番号や通貨フレーズなどの情報のトランスクリプションを改善するために使用することができます。

音声コンテキストのヒントを使用する場合は、スクリプトに追加する必要があります。Dialogflowスピーチコンテキストのヒントは、カスタムペイロードで送信されます。2つのパラメーター含める必要があります:

  • speechContexts.phrases:提供したいヒントのGoogleクラストークン中央から右上に矢印が向いている正方形。。トークンは、コンタクトの言語およびロケールと一致する必要があります。複数のトークンを追加したい場合は、トークンごとにspeechContexts.phrasesパラメーターを追加します。
  • speechContexts.boost120の間で指定されたphraseに重み付けされた数値。トランスクリプションサービスは、オーディオデータ内の単語に対して可能なトランスクリプションを選択する際に、この値を使用します。値が高いほど、トランスクリプションサービスが代替からその単語やフレーズを選ぶ可能性が高くなります。

たとえば。

DYNAMIC customPayload
customPayload.speechContexts.phrases="$OOV_CLASS_ALPHANUMERIC_SEQUENCE"
customPayload.speechContexts.boost=10		

このパラメーターの内容は、Studioトレースおよびアプリケーションログで確認できます。

カスタムスクリプトのガイドライン

仮想エージェント閉じた 連絡先の発言/入力する内容の背後にある意味または目的。連絡先が伝えたいこと、または達成したいこと。統合する前に、次のことを確認する必要があります:

  • どのスクリプトに仮想エージェントを追加するか。
  • を使用する必要のあるバーチャルエージェントStudioアクション。

  • Studioアクションをスクリプトフローのどこに配置する必要があるか。
  • 使用している仮想エージェントに固有の構成要件。
  • 仮想エージェントアクションを追加した後にスクリプトを完了する方法。次のことが必要になる場合があります。
    • Snippetアクションを使用して、必要に応じて初期化スニペットをスクリプトに追加します。これは、バーチャルエージェントの動作をカスタマイズしたい場合に必要です。
    • アクションコネクタを再構成して、適切な接触フローを確保し、潜在的なエラーを修正します。
    • OnReturnControlToScript分岐ブランチを使用して、インタラクションの中断または終了を処理します。デフォルトDefault分岐を使用してインタラクションの切断または終了を処理すると、スクリプトが意図したとおりに機能しない場合があります。
    • 追加のスクリプトを完了し、スクリプトをテストします。

追加したバーチャルエージェントアクション内のすべてのパラメーターが正しいデータをパスするように構成します。アクションのオンラインヘルプページには、各パラメーターの設定方法が記載されています。

さらに、プロバイダー側で仮想エージェントを完全に構成してください。考えられるすべての既定のメッセージで構成されていることを確認します。これには、エラーメッセージやインテントが実行されたというメッセージなどがあります。

Studioでのスクリプティングについてヘルプが必要な場合、CXoneアカウント担当者にお問い合わせいただくか、オンラインヘルプの技術参照ガイドのセクションを参照するか、NICE CXoneコミュニティ中央から右上隅に向いている矢印が付いた正方形。サイトにアクセスしてください。

音声バーチャルエージェント用のStudioアクション

音声バーチャルエージェントには、 Voicebot ExchangeVoicebot Conversationの2つのStudioアクションがあります。

VoicebotExchangeアクション

Voicebot Exchange アクションは、複雑なバーチャルエージェントに使用するか、ターンごとにバーチャルエージェントの動作をカスタマイズする必要がある場合に使用します。コンタクトとバーチャルエージェント間の会話をターンごとに監視します。各発話閉じた 連絡先が言うことまたはタイプすること。を仮想エージェントに送信します。仮想エージェントは、発話の意図閉じた 連絡先の発言/入力する内容の背後にある意味または目的。連絡先が伝えたいこと、または達成したいこと。と文脈を分析し、どう応答するかを決定します。アクションは、コンタクトにバーチャルエージェントの応答を渡します。会話が完了すると、アクションはスクリプトを続行します。

これは、音声バーチャルエージェントでの使用に推奨されるアクションです。バージインまたは入力なしを設定したい場合、追加のスクリプトが必要です。SIP閉じた 音声通話やビデオ通話などのマルチメディア通信セッションのシグナリングと制御に使用されるプロトコル。バックチャネル接続を使用している場合、Voicebot Conversationアクションを使用する必要があります。

Voicebot会話アクション

Voicebot Conversationアクションは、非常に単純なボット、またはSIP閉じた 音声通話やビデオ通話などのマルチメディア通信セッションのシグナリングと制御に使用されるプロトコル。バックチャネル接続を使用している場合にのみ使用します。Studioスクリプトでバーチャルエージェントの動作をターンごとにカスタマイズすることはできません。

このアクションは、バーチャルエージェントと直接インタラクトして、リアルタイムで受動的に会話を監視します。仮想エージェントは、継続的なオーディオストリームから会話の意図閉じた 連絡先の発言/入力する内容の背後にある意味または目的。連絡先が伝えたいこと、または達成したいこと。と文脈を分析します。その後、コンタクトに対して適切な応答を返します。仮想エージェントが会話の終了を示すと、アクションはStudioスクリプトを続行します。アクションは、スクリーンポップ閉じた 対話の終了後にエージェントが作業要件を完了できるようにする状態、エージェントのルーティングなどの関連情報を渡します。

このアクションは、SIPバックチャネル接続を使用していない限り、Google Dialogflow CXとの併用は推奨されません。