Google Dialogflow ES

Google Dialogflow ES ist eine Drittanbieterplattform, die sprachbasierte virtuelle Agenten bereitstellt. Virtuelle Agenten interpretieren, was Ihre Kontakte sagen, und reagieren entsprechend. Sie nutzen dazu Technologien wie:

Virtuelle Agenten sind flexibel und können eine Reihe von Funktionen anbieten, die den Anforderungen Ihres Unternehmens entsprechen. Sie können Ihren virtuellen Agenten zum Beispiel so gestalten, dass er einige einfache Aufgaben erledigt oder als komplexer interaktiver Agent fungiert.

CXone Mpower unterstützt die Verwendung des Google Dialogflow ES nur mit Sprachkanälen.

Vergleich von Google Dialogflow ES und CX

CXone Mpower unterstützt Google Dialogflow ES und CX. Die beiden Versionen sind ähnlich, weisen aber einige wesentliche Unterschiede auf.

Dialogflow ES eignet sich für kleine, einfache virtuelle AgentenGeschlossen Eine Softwareanwendung, die Kundeninteraktionen anstelle eines Live-Mitarbeiters abwickelt.. Es simuliert nichtlineare Gesprächsverläufe unter Verwendung einer flachen Struktur von Intentionen und Kontext als Leitfaden. Dieser Ansatz eignet sich nicht für große oder komplexe Bots. Sie können Kontexte mit der customPayload-Eigenschaft der Virtual Agent Hub Studio-Aktion übergeben, die Sie in Ihren Skripten verwenden. Diese Bots verwenden Kontextdaten, um die Absichten des Kontakts zu ermitteln.

Dialogflow CX unterstützt komplexe, nichtlineare Gesprächsabläufe, die für große, komplexe Bots geeignet sind. Es ermöglicht die Wiederverwendung von AbsichtenGeschlossen Die Bedeutung oder der Zweck hinter dem, was ein Kontakt sagt/tippt; was der Kontakt mitteilen oder erreichen möchte. und erfordert keine Kontextinformationen. Sie können customPayload-Daten übergeben, müssen aber keine Kontextinformationen angeben.

Google Dialogflow CX unterstützt Dialogflow benutzerdefinierte CX-Modelle. Dialogflow ES unterstützt keine benutzerdefinierten Google-Modelle.

Gesprächsablauf für sprach- virtuelle Agenten

Um eine Interaktion mit einem sprachbasierten virtuellen Agenten zu beginnen, rufen KontakteGeschlossen Die Person, die mit einem Agenten, IVR oder Bot in Ihrem Contact Center interagiert. eine Telefonnummer an und erreichen Ihre Organisation. Der Kontakt wird dann möglicherweise direkt mit dem virtuellen Agenten verbunden, vielleicht muss er aber auch erst eine Option in einem IVRGeschlossen Interactive Voice Response (Interaktive Sprachausgabe). Automatisiertes Telefonmenü, mit dem Anrufer durch Sprachbefehle oder Tasteneingaben interagieren, um Informationen zu erhalten, einen eingehenden Sprachanruf zu routen oder beides.-Menü wählen. Die ÄußerungenGeschlossen Was ein Kontakt sagt oder tippt. des Kontakts werden in Text transkribiertGeschlossen Dieses Verfahren, auch STT genannt, wandelt gesprochene Sprache in Text um., damit der virtuelle Agent sie verwenden kann.

Der virtuelle Agent analysiert die Äußerungen des Kontakts, um den Zweck oder die Bedeutung hinter den Worten zu verstehen. Dies wird als Absicht des Kontakts bezeichnet. Der Virtual Agent sendet eine entsprechende Antwort als Text. Die Antwort des virtuellen Agenten von einem Text-to-SpeechGeschlossen Ermöglicht den Benutzern die Eingabe von Ansagen als Text und die Verwendung einer computergenerierten Sprache für die Aussprache des Inhalts.-Dienst in Audio umgewandelt. Das Skript sendet es an den Kontakt. Transkription und Sprachsynthese können in CXone Mpower oder in einigen Fällen auf der Plattform des Anbieters erfolgen.

Anfragen und Antworten können Zug um Zug über Virtual Agent Hub und das Skript gesendet werden. Mit dieser Option kann das Verhalten des Bots des virtuellen Agentenvon Runde zu Runde angepasst werden. Für virtuelle Sprachagenten ist dies ist eine auf Äußerungen basierende Verbindungsmethode. Diese Methode wird von allen Anbietern textbasierter virtueller Agenten unterstützt.

Am Ende des Gesprächs sendet der virtuelle Agent ein Signal an das Skript. Er kann signalisieren, dass das Gespräch abgeschlossen ist oder dass der Kontakt an einen Live-Agenten weitergeleitet werden muss. Wenn das Gespräch abgeschlossen ist, endet die Interaktion. Wenn ein Live-Agent benötigt wird, erstellt das Skript eine entsprechende Anforderung. Der Kontakt wird an einen verfügbaren Agenten weitergeleitet,

Wenn die Konversation abgeschlossen ist, kann das Skript Aufgaben nach der Interaktion ausführen, beispielsweise das Aufzeichnen von Informationen in einem CRMGeschlossen Systeme von Drittanbietern, die z. B. Kontakte, Vertriebsinformationen, Supportdetails und Fallgeschichten verwalten..

Komponenten einer Integration

Zur Integration von Google Dialogflow ES gehören die folgenden Komponenten:

Gesprächstranskripte

Sie können das Transkript und die Absichtsinformationen von allen Google Dialogflow ES Sprach- Gesprächen erfassen. erfassen. Die erfassten Daten können Sie auf beliebige Weise verwenden. Sie könnten sie zum Beispiel diesem Agenten anzeigen, wenn die Interaktion an einen Live-Agenten weitergeleitet wird. Eine andere Möglichkeit ist, die Daten als dauerhafte Aufzeichnung des Gesprächs zu speichern. Sie haben die Wahl, ob Sie nur das Transkript, nur die Absichtsinformationen, beides oder keins davon erfassen.

Wenn Sie diese Informationen erfassen möchten, müssen Sie sie in den Google Dialogflow ES Konfigurationseinstellungen in Virtual Agent Hub. Sie müssen auch ein Studio-Skript konfigurieren, das für Ihren virtuellen Agenten verwendet wird. Das Skript muss eine -Aktion enthalten, die für die Verwaltung der erfassten Daten konfiguriert wurde. Erfasste Daten werden temporär gespeichert, solange die Kontakt-ID besteht. Wenn Sie die Daten dauerhaft speichern möchten, können Sie das Skript so konfigurieren, dass es die Daten an ein Archiv sendet. Sie sind für das Bereinigen persönlich identifizierbarer Informationen (PII) aus allen gespeicherten Daten verantwortlich.

Hinweise zum Sprachkontext

Hinweise zum Sprachkontext sind Wörter und Ausdrücke, die an den Transkriptionsdienst gesendet werden. Sie sind hilfreich, wenn es Wörter oder Phrasen gibt, die auf eine bestimmte Weise transkribiert werden müssen. Hinweise zum Sprachkontext können zu einer höheren Genauigkeit der Spracherkennung beitragen. Sie können sie zum Beispiel verwenden, um die Transkription von Informationen wie Adressnummern oder Währungsausdrücke zu verbessern.

Um Sprachkontexthinweise zu verwenden, müssen Sie diese im in Ihrem Studio-Skript konfigurieren.

Richtlinien für benutzerdefiniertes Scripting

Bevor Sie einen Virtual AgentGeschlossen Die Bedeutung oder der Zweck hinter dem, was ein Kontakt sagt/tippt; was der Kontakt mitteilen oder erreichen möchte. einbinden, müssen Sie wissen:

  • Welches Skript Sie um einen Virtual Agent erweitern möchten.
  • Die Studio -Aktion des virtuellen Agenten, die Sie verwenden müssen.

  • Wo die Studio Aktionen in Ihrem Skriptablauf platziert werden müssen.
  • Die Konfigurationsanforderungen, die für den von Ihnen verwendeten Virtual Agent gelten.
  • Anbieterspezifische Anforderungen. Nur für Autopilot Amelia gelten für das Skript die folgenden Anforderungen:
    • Beim Verschachteln von JavaScript in der JSON-Payload in virtuellen Agenten von Amelia verwenden Sie einzelne Anführungszeichen statt doppelter Escape Anführungszeichen mit einem Backslash-Zeichen ( \" ).

    • Die JSON-Struktur muss "contentType": "dfoMessage" lauten, wobei M in Message großgeschrieben wird. Es funktioniert mit einem kleingeschriebenen m nicht.

  • So schließen Sie das Skript ab, nachdem Sie die Aktion des Virtual Agent hinzugefügt haben. Sie müssen eventuell:

Stellen Sie sicher, dass alle Parameter in den Aktionen des virtuellen Agenten, die Sie Ihrem Skript hinzufügen, so konfiguriert sind, dass sie die richtigen Daten übergeben. In den Online-Hilfeseiten für die Aktionen wird die Konfiguration der einzelnen Parameter beschrieben.

Der virtuelle Agent muss auch vollständig auf Anbieterseite konfiguriert werden. Stellen Sie sicher, dass es mit allen möglichen Standardnachrichten konfiguriert ist, einschließlich Fehlermeldungen oder Nachrichten, die darauf hinweisen, dass eine Absicht erfüllt wurde.

Möglicherweise können Sie von CXone Mpower Expert Services Vorlagenskripts zur Verwendung mit virtuellen Agentenintegrationen erhalten. Wenn Sie Hilfe bei der Skripterstellung in Studio benötigen, wenden Sie sich an Kundenbetreuer, lesen Sie den Abschnitt Technisches Referenzhandbuch in der Online-Hilfe oder besuchen Sie die Website der CXone Mpower Community Ein Kästchen mit einem Pfeil, der von der Mitte aus nach oben rechts weist..

Unterstützte Aktionen für sprachbasierte virtuelle Agenten

Die Voicebot Exchange Aktion ist für komplexe virtuelle Agenten gedacht oder wenn Sie das Verhalten des virtuellen Agenten von Runde zu Runde anpassen müssen. Es überwacht Schritt für Schritt das Gespräch zwischen dem Kontakt und dem virtuellen Agenten. Es sendet jede transkribierte ÄußerungGeschlossen Was ein Kontakt sagt oder tippt. an den virtuellen Agenten. Der virtuelle Agent analysiert die Äußerung hinsichtlich AbsichtGeschlossen Die Bedeutung oder der Zweck hinter dem, was ein Kontakt sagt/tippt; was der Kontakt mitteilen oder erreichen möchte. und Kontext und bestimmt die passende Antwort. Die Aktion gibt die Antwort des virtuellen Agenten an den Kontakt weiter. Wenn das Gespräch beendet ist, fährt die Aktion mit dem Skript fort.

Wenn Sie "barge in" oder "no input" konfigurieren möchten, ist eine zusätzliche Skripterstellung erforderlich.