Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Artikel werden die features beschrieben, die in Copilot Studio für interaktive Sprachantwort mit Dynamics 365 Contact Center verfügbar sind.
Informationen zum Vorbereiten Ihres Agents für VoIP-Dienste finden Sie unter Integrieren eines sprachfähigen Agents mit Dynamics 365 Contact Center.
Eine Übersicht über die Sprachdienste finden Sie unter Verwenden der interaktiven Sprachantwort in Ihren Agenten.
Sprach- und DTMF-Modalität
Ein sprachgesteuerter Agent unterscheidet sich von einem chatbasierten Agenten. Der sprachaktivierte Agent enthält spezifische Themen des Sprachsystems für die Bearbeitung von Sprachszenarien. Ein chatbasierter Agent verwendet standardmäßig die Textmodalität. Ein sprachfähiger Agent verwendet die Modalität „Sprache und MFV“. Die beiden Modalitäten sind nicht miteinander kompatibel.
Mit Optimierung für Sprache können Sie sprachaktivierte Agenten über verschiedene Modalitäten hinweg verfassen und sicherstellen, dass sprachbezogene Funktionen korrekt verfasst werden.
Für Sprachanrufe optimieren
Wenn Sie Ihren Agent nicht mit der VoIP-Vorlage starten, müssen Sie die Option " Für VoIP optimieren" in den Einstellungen des Agents aktivieren.
Wenn ein Agent geöffnet ist, gehen Sie zu Einstellungen>Sprache.
Wählen Sie Für Sprache optimieren aus. Die Option Sprache als primären Erstellungsmodus verwenden ist ebenfalls standardmäßig aktiviert.
Wenn Sie "Optimieren für VoIP " und "VoIP als primären Erstellungsmodus verwenden" aktivieren, erhält Ihr Agent die folgenden Updates:
- Die Möglichkeit, Sprachfunktionen zu erstellen, wenn von Text auf Sprache und MFV umgeschaltet wird.
- Die Sprachsystemthemen Stille-Erkennung, Unerkannte Sprache und Unbekannt-Tastendruck werden automatisch hinzugefügt, um sprachbezogene Szenarien zu behandeln.
- Erhöhen Sie die Genauigkeit mit Agentendaten (standardmäßig aktiviert), wodurch die Genauigkeit der Spracherkennung verbessert wird.
- Es gibt keine Änderungen am vorhandenen Agentenflow, wie z. B. das Thema Hauptmenü zum Starten von Unterhaltungen mit zugeordneten DTMF-Triggern.
Wichtig
- Die Einstellung Für Sprache optimieren ändert nur die Funktionen zur Spracherstellung, nicht die Kanaleinstellung. Aktivieren Sie den Telefoniekanal für einen vollständig sprachaktivierten Agenten.
- Wenn Sie die Option Optimieren für Sprache für einen Agenten festlegen, der ursprünglich nicht für Sprachfunktionen konfiguriert wurde, hat der Agent das Thema Hauptmenü (Vorschauversion) nicht. Sie müssen das Thema bei Bedarf neu erstellen.
- Wenn Sie " Optimieren für VoIP" nicht aktivieren können, überprüfen Sie die Power Platform-Umgebung, in der Ihr Agent gehostet wird, und stellen Sie sicher, dass " Frühzeitiges Abrufen neuer Features " für diese Umgebung deaktiviert ist. Weitere Informationen finden Sie unter Optimierung für Sprache kann nicht aktiviert werden.
- Die Einstellung Genauigkeit mithilfe von Agentendaten erhöhen funktioniert nur, wenn der sprachfähige Agent Triggerausdrücke verwendet. Wenn der Agent für die Verwendung von Themenbeschreibungen konfiguriert ist, hat dies keine Auswirkung auf die Genauigkeit.
Optimierung für Sprache deaktivieren
Deaktivieren Sie "Optimieren für Sprache" in der Agentenerstellung, wenn Sie den Telefoniekanal nicht verwenden. Nachdem Sie "Optimieren für Sprache" deaktiviert haben, werden die folgenden Änderungen angezeigt:
- Keine Agent-Erstellung für Sprachfunktionen wie MFV und Unterbrechung.
- Die Standardmodalität ist auf Text festgelegt.
- Es gibt keine Verbesserung der Spracherkennung, da sie nicht vorhanden ist.
- Keine Sprachsystemthemen oder globalen DTMF-Themen.
Anmerkung
Einige Themen melden möglicherweise Fehler während der Veröffentlichung, wenn sie noch auf das DTMF-Thema verweisen (jetzt deaktiviert).
- Keine Änderung der Einstellungen für den Agentenflow und den Kanal, da durch das Deaktivieren der Optimierung der Telefoniekanal nicht entfernt wird.
- Das Aktivieren oder Deaktivieren der Option Optimieren für Sprache wird erst wirksam, wenn Sie Ihren Agent veröffentlichen. Wenn der Agent versehentlich aktiviert oder deaktiviert wird und zwischen den Betriebsarten wechselt, haben Sie Zeit, das Problem zu beheben.
Wichtig
Wenn Ihre Telefoniekanäle aktiviert sind, kann das Deaktivieren von Für Sprache optimieren Ihren Agenten beeinträchtigen, da alle DTMF-Trigger automatisch deaktiviert werden.
Verwenden Sie die Stimme als primären Erstellungsmodus
Wählen Sie die Sprach- und DTMF-Modalität für jeden Knoten in der Sprachfunktionserstellung aus. Wählen Sie als Einstellungsmodus für die Agentenerstellung Sprache als primären Erstellungsmodus. Diese Einstellung stellt sicher, dass alle Eingabefelder die richtige Modalität haben. Wenn Sie Für Sprache optimieren bereits aktiviert haben, ist die Option Stimme als primären Erstellungsmodus verwenden standardmäßig aktiviert.
Meldungs-Verfügbarkeit
Die Verwendung der Text- oder Sprachmodalität kann sich unterschiedlich auf Ihren Kanal auswirken.
| Textmodalität | Sprachmodalität | Text- und Sprachkanal für Agenten |
|---|---|---|
| Meldung verfügbar | Nachricht ist leer | Meldung verfügbar |
| Nachricht ist leer | Meldung verfügbar | Meldung nicht verfügbar |
Benutzerdefinierte automatische Spracherkennung
Sprachfähige Agents für eine bestimmte Domäne, z. B. medizinische oder Finanzwesen, können auf Benutzer stoßen, die Finanzbegriffe oder medizinisches Jargon verwenden. Einige Begriffe und Fachbegriffe sind für den sprachgesteuerten Agenten schwer von Sprache in Text umzuwandeln.
Anmerkung
Die Einstellung Genauigkeit der Agentendaten erhöhen funktioniert nur, wenn der sprachfähige Agent Auslösephrasen verwendet. Wenn der Agent für die Verwendung von Themenbeschreibungen konfiguriert ist, hat dies keine Auswirkung auf die Genauigkeit.
Um sicherzustellen, dass die Spracheingabe korrekt erkannt wird, verbessern Sie die Spracherkennung:
Wählen Sie "Einstellungen>" in Ihrem Agent aus.
Wählen Sie Genauigkeit mit Agentendaten erhöhen aus, um die benutzerdefinierten Standardeinstellungen für die automatische Spracherkennung des Agents zu aktivieren.
Wählen Sie Speichern aus, um Ihre Änderungen zu übernehmen.
Veröffentlichen Sie Ihren Agenten, um die neuen Änderungen zu sehen.
Referenz zu Sprachoptionen auf Agentenebene
Nutzen Sie die Spracheinstellungen , um Auszeiten für verschiedene stimmbezogene Funktionen einzustellen. Einstellungen, die Sie auf dieser Seite anwenden, werden zum Standard für Themen, die Sie in Ihrem Agent erstellen.
So nehmen Sie Änderungen an den Timeout-Optionen auf Agentenebene vor:
Gehen Sie zur Seite Einstellungen Ihres Agenten und wählen Sie Sprache.
Wählen Sie die gewünschten Einstellungen aus und passen Sie die Standardeinstellungen des Agenten an.
Wählen Sie Speichern aus, um Ihre Änderungen zu übernehmen.
Agentebeneneinstellungen
In der folgenden Tabelle sind die einzelnen Optionen und ihre Beziehung zu den Einstellungen auf Knotenebene aufgeführt.
| Abschnitt auf sprachgesteuerter Agent-Ebene | Einstellungen | Beschreibung | Standardwert | Knoteneinstellung außer Kraft setzen |
|---|---|---|---|---|
| MFV | Zwischenziffer-Timeout | Maximal zulässige Zeit in Millisekunden beim Warten auf die Eingabe der nächsten DTMF-Taste. Wendet mehrstellige DTMF-Eingaben nur an, wenn Benutzer die maximale Eingabelänge noch nicht erreicht haben. | 3000 ms | Frageknoten mit Stimmeigenschaften für mehrstellige DTMF-Eingabe |
| MFV | Abbruch-Timeout | Maximale Dauer in Millisekunden, um auf einen DTMF-Beendigungsschlüssel zu warten. Die Begrenzung gilt, wenn der Benutzer die maximale Eingabelänge erreicht und die Beendigungstaste nicht gedrückt hat. Gilt nur für mehrstellige DTMF-Eingaben. Nachdem das Limit abgelaufen ist und der MFV-Schlüssel nicht eintrifft, beendet der Agent die Erkennung und gibt das Ergebnis bis zu diesem Punkt zurück. Wenn diese Option auf „Fortsetzen ohne Wartezeit“ festgelegt ist, wartet der Agent nicht auf die Beendigungstaste. Der Agent reagiert sofort, nachdem der Nutzer die maximale Länge eingegeben hat. |
2000 ms | Frageknoten mit Stimmeigenschaften für mehrstellige DTMF-Eingabe |
| Stille-Erkennung | Timeout bei Stilleerkennung | Maximale Stille in Millisekunden, die beim Warten auf Benutzereingaben zulässig sind. Der Grenzwert gilt, wenn der Agent keine Benutzereingaben erkennt. Die Standardeinstellung ist kein Stille-Timeout. Agent wartet endlos auf die Eingabe des Benutzers. Die Sprachstilleerkennung misst die Zeitspanne, nachdem die Stimme zu Ende gesprochen hat. |
Kein Stille-Timeout | Frageknoten mit Stimmeigenschaften für mehrstellige DTMF-Eingabe Systemthema (Eigenschaften des Auslösers für Stilleerkennung) zum Konfigurieren der Stilleerkennung und Zeitüberschreitungen |
| Spracherfassung | Äußerungsende-Timeout | Die Begrenzung gilt, wenn der Benutzer während oder nach der Rede eine Pause macht. Wenn die Pause länger als das Timeout-Limit dauert, geht der Agent davon aus, dass der Benutzende zu Ende gesprochen hat. Der Maximalwert für das Timeout am Ende der Äußerung beträgt 3000 ms. Alles, was über 3000 ms liegt, reduziert sich auf 3000 ms. |
1500 ms | Fragenknotenpunkt mit Stimmeigenschaften |
| Spracherfassung | Spracherkennungs-Timeout | Legt fest, wie viel Zeit der Agent für die Eingabe des Benutzers einräumt, sobald er zu sprechen beginnt. Der Standardwert ist 12000 Millisekunden (ca. 12 Sekunden). Kein Erkennungs-Timeout bedeutet unendliche Zeit. Agent stellt die Frage erneut. Wenn keine Antwort erfolgt, ist das Timeout der Spracherkennung überschritten. | 12,000 ms | Fragenknotenpunkt mit Stimmeigenschaften |
| Latenznachrichten | Verzögerungsnachricht senden | Legt fest, wie lange der Agent wartet, bevor er die Latenznachricht übermittelt, nachdem eine Hintergrundvorgangsanforderung gestartet wurde. Die Zeit wird in Millisekunden eingestellt. | 500 ms | Aktionsknoteneigenschaften für lang andauernde Vorgänge |
| Latenznachrichten | Minimale Wiedergabezeit | Die Latenznachricht wird für eine Mindestzeit angezeigt, auch dann, wenn der Hintergrundvorgang während der Anzeige der Nachricht abgeschlossen wird. Die Zeit wird in Millisekunden eingestellt. | 5000 ms | Aktionsmoduseigenschaften für lang andauernde Vorgänge |
| Sprachsensitivität | Sensitivität | Steuert, wie das System die Erkennung von Sprache und Hintergrundgeräuschen ausgleicht. Verringern Sie die Sensitivität für laute Umgebungen, öffentliche Orte und den Freisprechbetrieb. Erhöhen Sie die Sensitivität für ruhige Umgebungen, leise sprechende Benutzende oder die Erkennung von Sprachbefehlen. Die Standardeinstellung ist 0.5. | 0.5 | Für dieses Steuerelement gibt es keine Überschreibungen auf Knotenebene. |
Anmerkung
- Die Veröffentlichung eines Agents mit langen Triggerausdrücken und Entitätsdimensionierungen dauert länger.
- Wenn mehrere Benutzende denselben Agenten gleichzeitig veröffentlichen, wird Ihre Veröffentlichungsaktion blockiert. Sie müssen den Agent erneut veröffentlichen, nachdem andere ihre vorhandenen Änderungen am Agent abgeschlossen haben.
Weitere Informationen zu den Grundlagen der Veröffentlichung finden Sie unter Hauptkonzepte: Veröffentlichen und Bereitstellen des Agents.
Unterbrechung aktivieren
Wenn Sie die Unterbrechung aktivieren, können Agent-Benutzer Ihren Agent unterbrechen. Dieses Feature ist nützlich, wenn der Agentbenutzer die gesamte Nachricht nicht hören muss. Beispielsweise ist es möglich, dass Anrufer die Menüoptionen bereits kennen, da sie diese schon einmal gehört haben. Bei Verwendung der Unterbrechung kann der Agent-Benutzer die gewünschte Option eingeben, selbst wenn der Agent noch nicht fertig ist, alle Optionen aufzulisten.
Gründe zum Deaktivieren der Unterbrechung
- Deaktivieren Sie die Barge-In-Funktion, wenn Sie kürzlich eine Agent-Nachricht aktualisiert haben oder wenn die Compliance-Nachricht nicht unterbrochen werden darf.
- Deaktivieren Sie Unterbrechung für die erste Agent-Nachricht, um sicherzustellen, dass Agent-Benutzer über neue oder wichtige Informationen informiert sind.
Spezifikationen
Unterbrechung unterstützt MFV- und sprachbasierte Unterbrechungen durch den Agent-Benutzer.
Sie können die Unterbrechung mit jeder Nachricht in einem Batch steuern. Platzieren Sie
barge-in-disabledKnoten in der Reihenfolge vor jedem Knoten, bei dem ein Barge-In zulässig ist. Andernfalls wird das System als Allow-Barge-In-Nachricht behandeltbarge-in-disabled.Wenn eine Batchwarteschlange abgeschlossen ist, wird die automatische Unterbrechungseinstellung für den nächsten Batch zurückgesetzt. Das Barge-In-Flag in jeder nachfolgenden Nachricht steuert den Prozess. Sie können deaktivierte Barge-In-Knoten platzieren, wenn die Sequenz erneut gestartet wird.
Tipp
Wenn aufeinander folgende Nachrichtenknoten von einem Frageknoten gefolgt werden, werden Sprachnachrichten für diese Knoten als ein Batch definiert. Ein Batch beginnt mit einem Nachrichtenknoten und stoppt am Frageknoten, der auf die Eingabe des Benutzers wartet.
Vermeiden Sie das Deaktivieren der Unterbrechung für lange Nachrichten, insbesondere dann, wenn Sie davon ausgehen, dass Agent-Benutzer häufig mit dem Agent interagieren. Wenn Ihr Agent-Benutzer die Menüoptionen bereits kennt, können Sie ihm die Möglichkeit geben, sich selbst zu bedienen und zu wählen, wohin sie gehen möchten.
Barge-In einrichten
Wählen Sie einen Knoten "Nachricht " oder " Frage " aus, und legen Sie die gewünschte Modalität auf "Speech & DTMF" fest.
Wählen Sie die drei Punkte (...) für den Knoten aus, und wählen Sie dann "Eigenschaften" aus.
Für Nachrichtenknoten öffnet sich der Bereich Eigenschaften der Sendeaktivität seitlich der Erstellungsfläche.
Wählen Sie Barge-in zulassen aus.
Für Fragen Knoten wird das Fenster Frageneigenschaften geöffnet. Wählen Sie dort Sprache aus.
Wählen Sie in den Eigenschaften von Voice die Option Barge-in zulassen aus.
Speichern Sie das Thema.
Stilleerkennung und Zeitüberschreitungen konfigurieren
Mit der Stilleerkennung können Sie konfigurieren, wie lange der Agent auf die Benutzereingabe wartet und welche Aktion ausgeführt wird, wenn der Agent keine Eingabe erhält. Die Stilleerkennung ist besonders nützlich, wenn Sie auf eine Frage auf Knotenebene antworten oder wenn der Agent auf eine Triggerphrase wartet, um ein neues Thema zu beginnen.
Sie können die Standard-Timeouts für Themen konfigurieren.
Zum Überschreiben des Standards für einen Knoten:
Wählen Sie die drei Punkte (...) für den Knoten aus, und wählen Sie dann "Eigenschaften" aus.
Der Bereich Frageeigenschaften wird geöffnet.
Wählen Sie Voice aus und nehmen Sie die folgenden Einstellungen vor:
Timeout-Option für Stilleerkennung Beschreibung Agenteinstellungen verwenden Node verwendet die globale Einstellung zur Stille Erkennung. Für diesen Knoten deaktivieren Der Agent wartet unbegrenzt auf eine Antwort. Anpassung in Millisekunden Der Agent wartet eine bestimmte Zeit, bevor er die Frage wiederholt.
Ausweichaktion
Sie können einige Verhaltensweisen als Fallback-Aktion konfigurieren:
- Wie oft der Agent eine Frage wiederholen soll
- Was die erneute Eingabeaufforderung enthalten soll
- Was der Agent nach einer bestimmten Anzahl an Wiederholungen tun soll
Spracheingabe
Geben Sie für die Spracheingabe Werte für die folgenden Einstellungen an:
- Ende-Timeout der Äußerung: Wie lange der Agent wartet, nachdem der Benutzer die Äußerung beendet hat.
- Timeout für die Spracherkennung: Wie viel Zeit der Agent dem Benutzer gibt, sobald er mit der Antwort beginnt.
Um das Verhalten der Stilleerkennung zu konfigurieren, wenn Ihr Agent auf eine Auslösephrase wartet, passen Sie die Einstellungen im Bei Stille Systemthema an.
Eine Meldung zur Latenz für einen zeitintensiven Vorgang hinzufügen
Bei langen Back-End-Vorgängen kann Ihr Agent eine Nachricht an die Benutzenden senden, um sie über die längeren Prozesse zu informieren. Agenten in einem Messaging-Kanal können ebenfalls eine Latenznachricht senden.
| Latenznachrichten-Audiowiedergabe | Latenzmeldung im Chat |
|---|---|
| Die Schleife wird fortgesetzt, bis der Vorgang abgeschlossen ist. | Wird nur einmal gesendet, wenn die angegebene Latenz erreicht wird. |
In Copilot Studio kann Ihr Agent eine Nachricht wiederholen, nachdem ein Power Automate Flow initiiert wurde.
Fügen Sie einen Aktion-Knoten hinzu, der einen Flow auslöst.
Wählen Sie die drei Punkte (...) des Knotens aus und wählen Sie dann Eigenschaften. Der Bereich Aktionseigenschaften wird geöffnet.
Wählen Sie Nachricht senden.
Geben Sie in das Textfeld ein, was der Agent sagen soll. Verwenden Sie SSML, um den Sound der Nachricht zu ändern. Der Agent wiederholt die Nachricht, bis der Ablauf abgeschlossen ist.
Sie können einstellen, wie lange der Agent warten soll, bevor er die Nachricht wiederholt. Dies erfolgt im Abschnitt Verzögerung. Legen Sie eine minimale Wartezeit fest, auch wenn der Ablauf abgeschlossen ist.
Anrufbeendigung konfigurieren
Um Ihren Agent so zu konfigurieren, dass der Anruf beendet und aufgehängt wird, fügen Sie einen neuen Knoten (+) hinzu, und wählen Sie "Themenverwaltung>beenden"-Unterhaltung aus.
Erkennen von Antwortcomputern
Sie können Ihren Agent so konfigurieren, sodass er einen Anrufbeantworter erkennt und eine Nachricht beim Agent-Nutzer hinterlässt, nachdem die Nachricht des Agent-Nutzers abgeschlossen wurde. Im Thema "Answering Machine Detection System" können Sie eine benutzerdefinierte Nachricht für Szenarien erstellen, wenn ihr Agent auf die Voicemail eines Benutzers trifft. Definieren Sie im Nachricht-Knoten die Nachricht, die hinterlassen wird, wenn der Agent auf einen Anrufbeantworter trifft.
Formatieren der Sprachsynthese mit SSML
Verwenden Sie die Sprachsynthesemarkupsprache (Speech Synthesis Markup Language, SSML), um zu ändern, wie der Agent klingt, wenn er Nachrichten laut vorliest. So können Sie beispielsweise die Tonhöhe bzw. Frequenz der gesprochenen Wörter, die Geschwindigkeit und die Lautstärke verändern.
SSML verwendet Tags, um den zu ändernden Text einzuschließen, ähnlich wie HTML. Verwenden Sie die folgenden Tags in Copilot Studio:
| SSML-Tag | Beschreibung | Link zur Dokumentation des Sprachdiensts |
|---|---|---|
<audio src="_URL to an audio file_"/> |
Fügen Sie innerhalb des Tags die URL zu einer Audiodatei hinzu. Der Agentenbenutzende muss auf die Datei zugreifen können. | Aufgezeichnetes Audio hinzufügen |
<break /> |
Fügen Sie Pausen oder Unterbrechungen zwischen Wörtern ein. Fügen Sie Unterbrechungsoptionen innerhalb des Tags ein. | Pause hinzufügen |
<emphasis>
Text, den Sie ändern möchten</emphasis> |
Fügen Sie Wörtern oder Sätzen Betonung hinzu. Fügen Sie im öffnenden Tag Hervorhebungsoptionen hinzu. Fügen Sie das schließende Tag nach dem Text hinzu, den Sie ändern möchten. | Hervorhebungsoptionen anpassen |
<prosody>
Text, den Sie ändern möchten</prosody> |
Geben Sie Änderungen an Tonhöhe, Kontur, Bereich, Rate und Lautstärke an. Fügen Sie Prosodie-Optionen im öffnenden Tag hinzu. Fügen Sie das schließende Tag nach dem Text hinzu, den Sie ändern möchten. | Prosodie-Optionen anpassen |
<lang xml:lang="xx-XX">
Text, den Sie ändern möchten</lang> |
Passen Sie die Sprechsprache innerhalb derselben Nachricht an, wenn Sie eine mehrsprachige neuronale Stimme verwenden. | Anpassen der gesprochenen Sprachen |
Anmerkung
Wenn Sie den <audio src="_URL to an audio file_"/>-Tag verwenden und die URL in einer Variablen speichern, codieren Sie die URL, bevor Sie sie in das Audio-SSML-Tag der Nachricht einfügen. Verwenden Sie die EncodeHTML Power Fx-Funktion, um die URL zu codieren, wenn sie einer Variablen in der Zuweisen-Aktion zugewiesen wird.
Suchen und Verwenden eines Tags
SSML verwendet Tags, um den zu ändernden Text einzuschließen, ähnlich wie HTML.
Verwenden Sie die folgenden Tags in Copilot Studio:
Wählen Sie einen Knoten "Nachricht " oder " Frage " aus. Ändern Sie den Modus in Sprache und DTMF.
Wählen Sie das Menü SSML-Tags und wählen Sie dann ein Tag aus.
Das Nachrichtenfeld wird mit dem Tag gefüllt. Wenn das Nachrichtenfeld bereits Text enthält, wird der Code des Tags an das Ende Ihrer Nachricht angehängt.
Umgeben Sie den Text, den Sie ändern möchten, mit den öffnenden und schließenden Tags. Dabei können Sie mehrere Tags kombinieren und einzelne Teile der Nachricht durch individuelle Tags individualisieren.
Tipp
Sie können SSML-Tags, die nicht im Hilfsmenü angezeigt werden, manuell eingeben. Weitere Informationen zu anderen verwendbaren Tags finden Sie unter Verbessern Sie die Synthese mit Speech Synthesis Markup Language.
Anruf an einen Mitarbeitenden oder an eine externe Telefonnummer weiterleiten
Sie können den Agent so einrichten, dass er den Anruf an eine externe Telefonnummer überträgt. Copilot Studio unterstützt blinde Übertragung auf eine PSTN-Telefonnummer und die direkte Routingnummer.
Anmerkung
Sie können auch SIP-X-Header verwenden, um Anrufübertragungen zu verarbeiten. Weitere Informationen finden Sie unter SIP X-Header konfigurieren für sprachgesteuerte Agenten.
Zum Weiterleiten an eine externe Telefonnummer:
Fügen Sie in dem Thema, das Sie ändern möchten, einen neuen Knoten (+) hinzu. Wählen Sie im Knotenmenü Themenverwaltung und wählen Sie dann Unterhaltung übertragen.
Wählen Sie unter Weiterleitungsart die Option Externe Rufnummernweiterleitung aus und geben Sie die Weiterleitungsnummer ein.
(Optional) Fügen Sie dem Telefonanruf einen SIP-Header (Session Initiation Protocol) für Benutzerinformationen (User to User Information, UUI) hinzu.
Dieser Header ist eine Zeichenfolge aus
key=value-Paaren ohne Leerzeichen oder Sonderzeichen, die für das Lesen durch externe Systeme angezeigt wird.Wählen Sie die drei Punkte (...) des Knotens aus und wählen Sie dann Eigenschaften. Das Panel für die Übertragung von Unterhaltungseigenschaften wird geöffnet.
Geben Sie unter SIP-UUI-Header die Informationen ein, die Sie mit der Anrufweiterleitung senden möchten. Bei der Weiterleitung auf eine externe Rufnummer werden Variablen nicht unterstützt.
Vorsicht
Nur die ersten 256 Zeichen der Zeichenkette werden gesendet. In der Kopfzeile sind nur Zahlen, Buchstaben, Gleichheitszeichen (
=) und Semikolons (;) zulässig. Alle anderen Zeichen, einschließlich Leerzeichen, Klammern und eckige Klammern sowie Formeln werden nicht unterstützt und können dazu führen, dass die Übertragung fehlschlägt.
Tipp
Fügen Sie in Ihrer Telefonnummer ein + für die entsprechende Landesvorwahl ein.
Für die ausgehende Übertragung mit SIP-UUI für die Zieltelefonnummer muss das direkte Routing verwendet werden. Telefonnummern im öffentlichen Telefonnetz (PSTN) unterstützen keine SIP-UUI-Header-Übertragungen.
Informationen zum Übertragen an einen Mitarbeitenden finden Sie unter Explizite Trigger.
Verwenden Sie Voice-Variablen
Copilot Studio unterstützt die Population von Variablen. Sie können vordefinierte Variablen verwenden oder benutzerdefinierte Variablen erstellen.
Anmerkung
- Weitere Informationen zur Verwendung und Erstellung von Variablen in Copilot Studio finden Sie unter Work with variables.
- Informationen zu anderen Aktivitäts- und Unterhaltungsvariablen, die für sprachaktivierte Agenten verfügbar sind, finden Sie unter Variablen für sprachaktivierte Agenten.
Ein sprachfähiger Agent in Copilot Studio unterstützt Kontextvariablen. Diese Variablen helfen Ihnen, die Gespräche Ihrer Agenten bei der Weiterleitung eines Anrufs an Dynamics 365 Contact Center zu integrieren.
Weitere Informationen zu Kontextvariablen in Dynamics 365 Contact Center finden Sie unter Context-Variablen für Copilot Studio-Bots.
Diese Integration unterstützt diese Szenarios mit den folgenden Variablen beim Übertragen:
| Variable | Typ | Beschreibung |
|---|---|---|
System.Activity.From.Name |
String | Die Anrufer-ID des Agentenbenutzers |
System.Activity.Recipient.Name |
String | Die Nummer, die zum Anrufen oder zum Herstellen einer Verbindung mit dem Agenten verwendet wird |
System.Conversation.SipUuiHeaderValue |
String | SIP-Headerwert bei der Weiterleitung über eine Direktverbindungsrufnummer |
System.Activity.UserInputType |
String | Ob der Agent-Benutzer DTMF oder Sprache in der Unterhaltung verwendet hat |
System.Activity.InputDTMFKey |
String | Die unformatierte MFV-Eingabe des Agent-Benutzers |
System.Conversation.OnlyAllowDTMF |
Boolesch | Die Sprachsteuerung ignoriert Spracheingaben, wenn sie auf true eingestellt ist. |
System.Activity.SpeechRecognition.Confidence |
Nummer | Der Konfidenzwert (zwischen 0 und 1) des letzten Spracherkennungsereignisses |
System.Activity.SpeechRecognition.MinimalFormattedText |
String | Ergebnisse der Spracherkennung (als Unformatierter Text), bevor Copilot Studio das dedizierte naturale Sprachverständnismodell angewendet hat |
Anmerkung
Wenn Sie die System.Conversation.OnlyAllowDTMF Variable auf true setzen, stellen Sie sicher, dass Sie die folgende Konfiguration verwenden:
- Alle Nachrichtenknoten, die keine Benutzereingaben erwarten, haben Barge-in deaktiviert oder werden von Frageknoten mit entsprechenden DTMF-Zuordnungen gefolgt.
- Vermeiden Sie das Senden von Informationsnachrichten zwischen Frageknoten, wenn DTMF-only global aktiviert ist.
- Verwenden Sie DTMF-Zuordnungen für jede Frage anstelle einer globalen DTMF-only-Konfiguration für eine bessere Kontrolle.
Informationsmeldungen, die gesendet werden, während der Modus "Nur DTMF" aktiviert ist, kann dazu führen, dass die Plattform leere DTMF-Grammatik generiert, was zu Telefoniefehlern führt. Aus diesem Grund wird empfohlen, die DTMF-Zuordnung pro Frage zu verwenden.