
Teilen Sie:
Benjamin Aronov ist ein Entwickler-Befürworter bei Vonage. Er ist ein bewährter Community Builder mit einem Hintergrund in Ruby on Rails. Benjamin genießt die Strände von Tel Aviv, das er sein Zuhause nennt. Von Tel Aviv aus kann er einige der besten Startup-Gründer der Welt treffen und von ihnen lernen. Außerhalb der Tech-Branche reist Benjamin gerne um die Welt auf der Suche nach dem perfekten Pain au Chocolat.
Steigerung des Chatbot-ROI: Ablenkung von Anfragen durch menschliche Agenten
Lesedauer: 6 Minuten
Im heutigen digitalen Zeitalter erwarten Kunden schnelle und effiziente Unterstützung. KI-Agenten können genau das bieten und gleichzeitig den Bedarf an menschlichen Kundendienstmitarbeitern reduzieren. Konversationstechnische KI-Agenten können nicht nur das Kundenerlebnis verbessern, indem sie viel schneller arbeiten, sondern auch Ihrem Unternehmen viel Geld sparen!
Im Februar 2024, berichtete Klarna dass sein neuer KI-Assistent in nur einem Monat zwei Drittel der Chats mit Kundenbetreuern abgewickelt hat. Das ist das Äquivalent von 700 menschlichen Mitarbeitern. Das Unternehmen schätzt, dass dieses Outsourcing in diesem Jahr einen zusätzlichen Gewinn von 40 Millionen Dollar einbringen wird.
Mit der no-code/low-code-Plattform AI Studio von Vonage können auch die kleinsten Unternehmen wie die Großen agieren und virtuelle Assistenten nutzen, um große Einsparungen zu erzielen. Aber selbst bei den am besten konzipierten Agenten werden einige Nutzer versuchen, das System zu umgehen und direkt mit einem menschlichen Agenten zu sprechen.
Zum Glück für Sie hat das Team von Vonage eine hocheffektive Strategie entwickelt, um unmittelbare Anfragen an menschliche Agenten abzuwehren. In der Praxis hat diese Strategie dazu beigetragen, die Anzahl der Agentenanfragen um bis zu 30 % zu senken! Darüber hinaus wurden weniger als 2 % der Anfragen sofort an einen Agenten weitergeleitet, d. h. die Anrufer konnten ihre Fragen zunächst von einem virtuellen Agenten beantworten lassen und sich dann an einen menschlichen Agenten wenden.
Dieses Tutorial zeigt Ihnen unsere Strategie für die Erstellung von Agenten, die diese Anfragen von menschlichen Agenten abwehren und stattdessen Ihre Benutzer zur Interaktion mit den virtuellen Assistenten anregen.
TLDR; Sie können den vollständig fertigen Agenten auf Github und importieren Sie ihn in AI Studio wie folgt diese Anweisungen.
Ein großes Lob an Kayla S., die das Genie hinter dieser Strategie war!
Wie man einen Inbound-Telefonie-Chatbot erstellt
Um Ihren Agenten zu erstellen, folgen Sie den Anweisungen in der AI Studio Dokumentation hier. Es gibt drei wichtige Optionen für unseren Agenten, die Sie auswählen können:
Art: Telefonie
Vorlage: Von Grund auf neu beginnen
Veranstaltung: Ausgehend von
In diesem Beispiel werden wir einen Agenten für eine Pizzeria erstellen. Die Benutzer können ein paar Dinge tun:
Eine Bestellung aufgeben
Shop-Standorte finden
Erfahren Sie mehr über aktuelle Coupon-Angebote
ihren Rewards-Saldo überprüfen
Fragen Sie nach einem menschlichen Mitarbeiter
Ein normaler Agent ohne Ablenkung durch menschliche Agenten würde folgendermaßen aussehen:
Simple Inbound Virtual Agent with Subflows
In diesem Ablauf sammeln und speichern wir die Anfrage des Benutzers in einem Parameter mit der Option Eingabe sammeln Knoten. Dann verwenden wir eine Klassifizierung Knoten, um die Anfrage unter unseren definierten Intentionen. Für jede Absicht leiten wir den Benutzer zu dem entsprechenden Unterablauf wo die Logik des jeweiligen Ablaufs entsprechend behandelt wird. Z.B. Flow "Bestellung aufgeben", Flow "Standorte suchen", Flow "Menschlicher Agent", usw.
In diesem Tutorial interessiert es uns nicht, was innerhalb dieser geschäftsspezifischen Subflows passiert. Stattdessen konzentrieren wir uns auf die Agent Deflection-Architektur, die sie umgibt.
Dies ist ein guter erster Schritt. Doch wie können wir unsere Nutzer dazu bringen, tatsächlich mit dem Voice-Agenten zu interagieren, anstatt sofort "Ich möchte mit einem Menschen sprechen" anzufordern?
Wie man Anfragen von menschlichen Agenten abwehrt
Um die Nutzer dazu zu bewegen, mit dem virtuellen Assistenten zu interagieren, anstatt sofort mit menschlichen Agenten verbunden zu werden, wird unsere Strategie ihnen zweimal vorschlagen, dass unsere virtuellen Assistenten helfen können, und ihnen die Möglichkeit geben, ihre Anfrage erneut zu stellen. Wenn der Nutzer dreimal hintereinander nach einem Agenten fragt, lassen wir ihn direkt zu einem menschlichen Mitarbeiter gehen.
Zunächst müssen wir einen neuen Parameter namens virtual_agent_interactions der Entität @sys.number erstellen und den Standardwert auf 0 setzen.
Create a New Custom Parameter to Track Virtual Interactions
Dann aktualisieren wir unseren Fluss durch Erstellen eines Bedingten Knoten direkt nach unserer Klassifizierung erstellen. Dieser Knoten wird Virtual_agent_interaction? heißen und nur eine einzige Bedingung enthalten, die prüft, ob unsere virtual_agent_interactions kleiner als 2 sind.
Create a Conditional to Check User Interactions
Jetzt verbinden wir die Absicht des menschlichen Agenten im Knoten Klassifizierung mit der Bedingung Virtual_agent_interaction? Aber was ist mit dem neuen bedingten Fluss? Womit soll er verbunden werden? Hierfür werden wir einen neuen Subflow namens Agent Deflection Flow erstellen.
In diesem Subflow aktualisieren wir als Erstes unsere virtual_agent_interactions und erhöhen ihren Wert um eins. Wir können dies mit dem Benutzerdefinierter Code-Knoten:
Use Custom Code to Increment User Interactions
Dann fragen wir unsere Benutzer erneut mit einem weiteren Collect Input-Knoten, was sie tun möchten, und verwenden denselben Anfrageparameter wie zuvor. Jetzt werden wir sie jedoch mit der folgenden Aufforderung anstupsen:
Use Nudging Language to Collect Inquiries
Wir können nun den Agent Deflection Subflow verlassen und ihn wieder mit dem Klassifizierungsknoten verbinden. Auf diese Weise werden die ersten beiden Male, in denen ein Benutzer unseren Human Agent Intent erreicht, an den Agent Deflection Subflow weitergeleitet. Sobald er ihn jedoch zweimal erreicht hat, wird er durch die Bedingung an den Subflow für menschliche Agenten weitergeleitet.
Aber wir haben ein kleines Problem. Was ist, wenn die Benutzer die anderen Ströme eingeben? Vielleicht wollen sie mehr als eine Frage stellen, oder? Wir sollten sie nicht dazu bringen, unseren virtuellen Assistenten für jede Anfrage erneut anzuwählen.
Wir können den Agenten mit einem Subflow namens "Weitere Anfrage" aktualisieren. Dieser Subflow fragt den Benutzer, ob er eine weitere Frage stellen möchte, verwendet eine Bedingung, um entweder eine weitere Anfrage zu sammeln oder den Agenten zu verlassen, und sendet schließlich die neue Anfrage erneut an den Klassifizierungsknoten.
Additional Request Flow
Aber wo liegt das Problem? Wenn ein Benutzer eine zweite Anfrage stellt, wird virtual_agent_interactions immer noch auf 0 gesetzt. Wir wollen unsere Benutzer nicht bestrafen, die vielleicht eine Pizza bestellt haben, aber dann dreimal nach einem menschlichen Agenten fragen müssen.
Wir können einfach einen Parameter setzen Knoten hinzufügen, nachdem sie den Ask Another? Fluss. Hier setzen wir unsere virtual_agent_interactions auf 2 und schicken unseren Benutzer zurück zum Klassifizierungsknoten.
Agent Deflection with Repeat Inquiry Flow
Wie man für breite Abfragen vorgeht
Eine weitere Quelle für viele Anfragen von menschlichen Agenten sind sehr weit gefasste Fragen von Benutzern, die viele Ihrer Absichten erfüllen und den Agenten verwirren könnten. Normalerweise würde ein Agent dann mit etwas wie "Tut mir leid, das habe ich nicht verstanden" antworten. Dadurch sinkt das Vertrauen des Anrufers in den virtuellen Agenten, so dass er darum bittet, mit einem menschlichen Mitarbeiter verbunden zu werden.
Stattdessen können wir eine Absichtserklärung "Allgemeine Anfragen" erstellen. Dieser gibt eine viel sanftere Nachricht aus und fragt erneut nach der Anfrage des Benutzers. Der Nutzer gewinnt jedoch an Vertrauen, da er glaubt, dass der Agent ihn tatsächlich versteht.
In unserem Beispiel mit dem Pizza-Agenten wären breite Abfragen Eingaben wie "Pizza", "Hilfe", "Frage", "Pizza-Frage" usw.
Auch hier erstellen wir einen Subflow namens Broad Queries. Erneut verwenden wir einen Collect Input-Knoten, um unsere Anfrageparameter zu sammeln. Allerdings werden wir hier etwas sagen wie: "Das ist eine tolle Frage! Können Sie genauer sein?" oder "Ich helfe Ihnen gerne. Wie lautet Ihre Frage?".
Deflecting Broad Queries with a Nudge
Bevor wir jedoch unseren Subflow verlassen und eine Verbindung zurück zu unserem Klassifizierungsknoten herstellen, müssen wir einen Set-Parameter verwenden und unseren Parameter virtual_agent_interactions auf 1 setzen. Damit wird der Versuch des Benutzers, den virtuellen Agenten zu benutzen, belohnt. Wenn er sofort nach einem menschlichen Agenten fragt, werden wir ihn nur einmal zurückweisen, anstatt zweimal. Das ist fair, denn es ist bereits das dritte Mal, dass der Benutzer aufgefordert wird, dem Agenten zu antworten.
Full Agent Deflection Flow
Schlussfolgerung
Wir haben jetzt gesehen, wie man einige sehr leistungsstarke Interaktionen mit Kunden über virtuelle Agenten implementieren kann. Unsere Chatbots tragen zur Steigerung der Unternehmenseffizienz bei, indem sie Nutzer dazu bringen, Anfragen zu lösen, ohne teure menschliche Mitarbeiter einzusetzen. Die Low-Code-Plattform von AI Studio ermöglicht es Unternehmen jeder Größe, diese lukrativen Kostensenkungsmaßnahmen zu nutzen.
Wenn Ihnen dieser Artikel gefallen hat, lassen Sie es uns auf Vonage Developer Gemeinschaft Slack. Dieser Beitrag wurde von realen Agenten inspiriert, die in großem Umfang eingesetzt werden. Teilen Sie Ihre Strategien und Erfahrungen mit AI Studio, damit wir uns alle verbessern können! Sie können uns auch folgen auf X, früher bekannt als Twitterfür die neuesten Vonage API-Nachrichten.
Zusätzliche Ressourcen
Teilen Sie:
Benjamin Aronov ist ein Entwickler-Befürworter bei Vonage. Er ist ein bewährter Community Builder mit einem Hintergrund in Ruby on Rails. Benjamin genießt die Strände von Tel Aviv, das er sein Zuhause nennt. Von Tel Aviv aus kann er einige der besten Startup-Gründer der Welt treffen und von ihnen lernen. Außerhalb der Tech-Branche reist Benjamin gerne um die Welt auf der Suche nach dem perfekten Pain au Chocolat.