Google Dialogflow ES

Google Dialogflow ESは、音声バーチャルエージェントを提供するサードパーティーのプラットフォームです。 バーチャルエージェントは、お客様のコンタクトが言うこと、または入力することを解釈し、適切に応答します。 これらは、次のようなテクノロジーを用いて行われます:

バーチャルエージェントは柔軟性があり、組織のニーズに合わせてさまざまな機能を提供できます。 たとえば、いくつかの単純なタスクを処理したり、複雑なインタラクティブエージェントとして機能したりするようにバーチャルエージェントを設計できます。

CXoneは、音声チャネルでのみGoogle Dialogflow ES

Google Dialogflow ESとCXの比較

CXoneは、Google Dialogflow ESとCXをサポートします。 この2つのバージョンは似ていますが、何点か重要な違いがあります。

DialogflowESは、小さな簡単なボットに適しています。 意図と文脈のフラットな構造をガイドとして使用し、非線形の会話パスをシミュレートします。 このアプローチは、大規模で複雑なボットには対応していません。 スクリプトで使用したVirtual Agent HubStudioアクションのcustomPayloadプロパティを使用して、コンテキストを渡すことができます。 これらのボットは、コンテキストデータを使用してコンタクトのインテントを判断します。

DialogflowCXは、大規模で複雑なボットに適した、複雑で非線形会話フローをサポートします。 インテントClosed コンタクトが言う/タイプする内容の背後にある意味または目的。コンタクトが伝えたいこと、または達成したいこと。の再利用を可能にし、コンテキストを必要としません。 customPayloadのデータを渡すことができますが、コンテキストを含める必要はありません。

Google Dialogflow CXDialogflowCXカスタムモデルをサポートしています。 Dialogflow ESは、Googleカスタムモデルをサポートしていません。

音声バーチャルエージェントの会話フロー

音声バーチャルエージェントとのインタラクションの場合、コンタクトClosed コンタクトセンターでエージェント、IVR、またはボットとやり取りする人。が電話番号を呼び出して組織に連絡します。 コンタクトは直接バーチャルエージェントに接続される場合もあれば、IVRClosed 対話型音声応答。 自動電話メニューのコンタクトは、音声入力またはキー入力を介して、情報の取得、着信音声コールのルーティング、またはその両方を行います。メニューでオプションを選択する必要がある場合もあります。 コンタクトの発話Closed コンタクトが発言または入力すること。は、バーチャルエージェントが使用できるようにテキストに転写Closed このプロセスはSTTとも呼ばれ、話し言葉をテキストに変換します。されます。

バーチャルエージェントは、コンタクトの発話を分析して、単語の背後にある目的や意味を理解します。 これはコンタクトのインテントとして知られています。 バーチャルエージェントは、適切なレスポンスをテキストとして送信します。 バーチャルエージェントのレスポンスはテキスト読み上げClosed ユーザーが録音プロンプトをテキストとして入力し、コンピューターで生成された音声を使用してその内容を読み上げる機能。サービスによって音声に合成されます。 スクリプトはそれをコンタクトに送信します。 トランスクリプションと音声合成は、CXoneまたは場合によってはプロバイダーのプラットフォームで発生する可能性があります

リクエストと応答は、ターンごとにVirtual Agent Hubおよびスクリプト経由で送信されます。 このオプションでは、バーチャルエージェントの動作をターンごとにカスタマイズすることができます。 音声バーチャルエージェントの場合、this は発話ベースの接続方法です。 すべてのテキストバーチャルエージェントプロバイダーがこのメソッドを採用しています。

会話の最後に、バーチャルエージェントがスクリプトにシグナルを送信します。 会話が完了したこと、またはコンタクトがライブエージェントと話す必要があることを信号で知らせることができます。 会話が完了すると、そのインタラクションは終了します。 ライブエージェントが必要な場合は、スクリプトがリクエストを行います。 コンタクト先が利用できるときは、エージェントに転送されます。

会話が完了すると、スクリプトはCRMClosed コンタクト、販売情報、サポートの詳細、ケース履歴などを管理するサードパーティーシステム。に情報を録音するなど、インタラクション後のタスクを実行できます。

統合のコンポーネント

Google Dialogflow ES統合には、以下のコンポーネントが関係します:

会話のトランスクリプト

すべてのGoogle Dialogflow ES音声会話からトランスクリプトとインテント情報をキャプチャできます。 からトランスクリプトとインテント情報をキャプチャできます。 キャプチャしたデータは好きなように使うことができます。 たとえば、インタラクションがライブエージェントに転送された場合、エージェントにそのデータを表示することが可能です。 また、会話の恒久的な記録として保存しておくというオプションもあります。 トランスクリプトだけ、インテント情報だけ、両方を選択する、あるいはどちらも選択しないことができます。

この情報を取得する場合は、Google Dialogflow ES 構成設定Virtual Agent Hub。 バーチャルエージェントで使用するStudioスクリプトも設定する必要があります。 スクリプトには、キャプチャしたデータを管理するために設定されたアクションをインクルードする必要があります。 キャプチャされたデータは、連絡先IDの有効期間中、一時的に保存されます。 データを保存する必要がある場合は、アーカイブに送信するようにスクリプトを設定する必要があります。 保存されたすべてのデータについて、PII(個人を特定できる情報)を消去する責任があります。

音声コンテクストのヒント

音声コンテキストのヒントとは、トランスクリプションサービスに送られる単語やフレーズのことです。 ある特定の方法で転写する必要のある単語やフレーズがあるときに役立ちます。 音声コンテキストのヒントは、音声認識の精度を向上させるのに役立ちます。 例えば、住所番号や通貨フレーズなどの情報のトランスクリプションを改善するために使用することができます。

音声コンテキストのヒントを使用する場合は、スクリプトに追加する必要があります。 Dialogflowスピーチコンテキストのヒントは、カスタムペイロードで送信されます。 2つのパラメーター含める必要があります:

  • speechContexts.phrases:提供したいヒントのGoogleクラストークン中央から右上に向かって矢印が伸びている正方形。。 トークンは、コンタクトの言語およびロケールと一致する必要があります。 複数のトークンを追加したい場合は、トークンごとにspeechContexts.phrasesパラメーターを追加します。
  • speechContexts.boost120の間で指定されたphraseに重み付けされた数値。 トランスクリプションサービスは、オーディオデータ内の単語に対して可能なトランスクリプションを選択する際に、この値を使用します。 値が高いほど、トランスクリプションサービスが代替からその単語やフレーズを選ぶ可能性が高くなります。

例:

DYNAMIC customPayload
customPayload.speechContexts.phrases="$OOV_CLASS_ALPHANUMERIC_SEQUENCE"
customPayload.speechContexts.boost=10		

このパラメーターの内容は、Studioトレースおよびアプリケーションログで確認できます。

カスタムスクリプトガイドライン

仮想エージェントClosed コンタクトが言う/タイプする内容の背後にある意味または目的。コンタクトが伝えたいこと、または達成したいこと。統合する前に、次のことを確認する必要があります:

  • どのスクリプトに仮想エージェントを追加するか。
  • を使用する必要のあるバーチャルエージェントStudioアクション。

  • Studioアクションをスクリプトフローのどこに配置する必要があるか。
  • 使用している仮想エージェントに固有の構成要件。
  • プロバイダー固有の要件。 Autopilot には、プロバイダー固有の要件はありません。 Autopilot Ameliaの場合のみ、スクリプトには次の要件があります。
    • AmeliaバーチャルエージェントのJSONペイロード内にJavaScriptをネストする際は、バックスラッシュで二重引用符をエスケープする代わりに、一重引用符を使用してください。

    • JSON構造は、"contentType": "dfoMessage"でなければなりません。ここで、MessageのMは大文字です。 小文字のmでは動作しません。

  • 仮想エージェントアクションを追加した後にスクリプトを完了する方法。 次のことが必要になる場合があります。
    • Snippetアクションを使用して、必要に応じて初期化スニペットをスクリプトに追加します。 これは、バーチャルエージェントの動作をカスタマイズしたい場合に必要です。
    • Studio アクションClosed Studioスクリプト内で、顧客データの収集や音楽の再生などのプロセスを実行します。コネクタを再構成して、適切なコンタクトフローを確保し、潜在的なエラーを修正します。
    • OnReturnControlToScript分岐ブランチを使用して、インタラクションの中断または終了を処理します。 デフォルトDefault分岐を使用してインタラクションの切断または終了を処理すると、スクリプトが意図したとおりに機能しない場合があります。 StandardBot行動。 インタラクションの終了の処理については詳細については、
    • に関するオンラインヘルプを参照してください
    • 追加のスクリプトを完了し、スクリプトをテストします。

追加したバーチャルエージェントアクション内のすべてのパラメーターが正しいデータをパスするように構成します。 アクションのオンラインヘルプページには、各パラメーターの設定方法が記載されています。

さらに、プロバイダー側で仮想エージェントを完全に構成してください。 考えられるすべての既定のメッセージで構成されていることを確認します。 これには、エラーメッセージやインテントが実行されたというメッセージなどがあります。

CXoneエキスパートサービスから、バーチャルエージェントの連携に使用するテンプレートスクリプトを入手できる場合があります。 Studioでのスクリプティングについてヘルプが必要な場合、アカウント担当者にお問い合わせいただくか、オンラインヘルプの技術参照ガイドのセクションを参照するか、CXoneコミュニティ中央から右上隅に向いている矢印が付いた正方形。サイトにアクセスしてください。

音声バーチャルエージェントに対応したアクション

Voicebot Exchange アクションは、複雑なバーチャルエージェントに使用するか、ターンごとにバーチャルエージェントの動作をカスタマイズする必要がある場合に使用します。 コンタクトとバーチャルエージェント間の会話をターンごとに監視します。 転写された各発話Closed コンタクトが発言または入力すること。をバーチャルエージェントに送信します。 仮想エージェントは、発話の意図Closed コンタクトが言う/タイプする内容の背後にある意味または目的。コンタクトが伝えたいこと、または達成したいこと。と文脈を分析し、どう応答するかを決定します。 アクションは、コンタクトにバーチャルエージェントの応答を渡します。 会話が完了すると、アクションはスクリプトを続行します。

バージインまたは入力なしを設定したい場合、追加のスクリプトが必要です。