
Compartir:
Benjamin Aronov es desarrollador de Vonage. Es un constructor de comunidades con experiencia en Ruby on Rails. Benjamin disfruta de las playas de Tel Aviv, a la que llama hogar. Su base en Tel Aviv le permite conocer y aprender de algunos de los mejores fundadores de startups del mundo. Fuera de la tecnología, a Benjamin le encanta viajar por el mundo en busca del perfecto pain au chocolat.
Aumentar el ROI de Chatbot: Desvío de solicitudes de agentes humanos
Tiempo de lectura: 6 minutos
En la era digital de hoy en día, los clientes esperan una asistencia rápida y eficaz, y los agentes de IA conversacional pueden proporcionarles precisamente eso al tiempo que reducen la necesidad de agentes humanos de asistencia al cliente. Los agentes de IA conversacional no solo pueden mejorar la experiencia del cliente trabajando mucho más rápido, sino que también pueden ahorrar mucho dinero a su empresa.
En febrero de 2024, Klarna informó que en solo un mes su nuevo asistente de IA gestionaba dos tercios de los chats de atención al cliente. Eso equivale a 700 agentes humanos. La empresa calcula que esta externalización generará 40 millones de dólares más de beneficios este año.
Con la plataforma sin código/de bajo código de Vonage llamada AI Studio, incluso las empresas más pequeñas pueden actuar como las grandes y aprovechar los asistentes virtuales para conseguir grandes ahorros. Pero incluso en los agentes mejor diseñados, algunos usuarios intentarán engañar al sistema y hablar directamente con un agente humano.
Afortunadamente para ti, el equipo de Vonage ha implementado una estrategia altamente efectiva para desviar las solicitudes inmediatas de agentes humanos. En agentes del mundo real, ¡esta estrategia ha ayudado a reducir las solicitudes de agentes hasta en un 30%! Además, las solicitudes inmediatas de agentes fueron inferiores al 2%, lo que significa que las personas que llamaron pudieron obtener respuestas a algunas preguntas primero por parte del agente virtual y luego continuaron con un agente humano.
Este tutorial le mostrará nuestra estrategia para construir agentes que desvíen estas peticiones de agentes humanos y en su lugar empujen a sus usuarios a interactuar con los asistentes virtuales.
TLDR; Puede encontrar el agente construido en Github e importarlo a AI Studio siguiendo estas instrucciones.
Un gran aplauso para Kayla S, el genio de esta estrategia.
Cómo crear un chatbot de telefonía entrante
Para crear su agente, siga las instrucciones de la documentación de AI Studio aquí. Hay tres opciones importantes para nuestro agente, para seleccionar:
Tipo: Telefonía
Plantilla: Empezar de cero
Evento: Salida
En este ejemplo, crearemos un agente para una pizzería. Los usuarios pueden hacer algunas cosas:
Hacer un pedido
Buscar tiendas
Conozca las ofertas de cupones actuales
Comprobar su saldo de recompensas
Solicite un agente humano
Un agente normal, sin desviación de agente humano, tendría este aspecto:
Simple Inbound Virtual Agent with Subflows
En este flujo, recogemos y almacenamos la consulta del usuario en un parámetro con la propiedad Recoger entrada . A continuación, utilizamos un nodo de Clasificación para clasificar la consulta entre nuestras Intentos. Para cada intención, dirigimos al usuario al correspondiente subflujo donde la lógica de cada flujo se gestiona en consecuencia. Por ejemplo, flujo de pedidos, flujo de búsqueda de ubicaciones, flujo de agentes humanos, etc.
En este tutorial, no nos importa lo que ocurre dentro de estos subflujos específicos de negocio. En su lugar, nos centraremos en la estructura de desvío de agentes que los rodea.
Es un gran primer paso. Sin embargo, ¿cómo podemos empujar a nuestros usuarios a interactuar realmente con el agente de voz en lugar de solicitar inmediatamente "Quiero hablar con un humano"?
Cómo desviar las peticiones de los agentes humanos
Para animar a los usuarios a interactuar con el asistente virtual en lugar de conectarse inmediatamente con agentes humanos, nuestra estrategia les sugerirá dos veces que nuestros asistentes virtuales pueden ayudarles y les dará la oportunidad de volver a introducir su consulta. Si el usuario pregunta 3 veces seguidas por un agente, le dejaremos pasar directamente a un humano.
En primer lugar, tendremos que crear un nuevo parámetro llamado virtual_agent_interactions de entidad @sys.number y establecer el valor predeterminado en 0.
Create a New Custom Parameter to Track Virtual Interactions
A continuación, actualizaremos nuestro flujo creando un nodo Nodo condicional directamente después de nuestra clasificación. Este nodo se llamará Virtual_agent_interaction? y tendrá una única condición que comprobará que nuestras virtual_agent_interactions sean inferiores a 2.
Create a Conditional to Check User Interactions
Ahora conectamos nuestra Intención del Agente Humano en el nodo Clasificación a nuestro condicional Virtual_agent_interaction? Pero, ¿qué pasa con el nuevo flujo condicional? ¿Dónde debería conectarse? Para esto, vamos a crear un nuevo sub-flujo llamado Flujo de Desviación de Agente.
En este sub-flujo, lo primero que haremos será actualizar nuestro virtual_agent_interactions e incrementar su valor en uno. Podemos hacer esto usando el Nodo de Código Personalizado:
Use Custom Code to Increment User Interactions
A continuación, volveremos a preguntar a nuestros usuarios, con otro nodo Collect Input, qué les gustaría hacer y reutilizaremos el mismo parámetro de consulta de antes. Sin embargo, ahora les empujaremos con la siguiente pregunta:
Use Nudging Language to Collect Inquiries
Ahora podemos salir del subflujo de Desviación de Agente y conectarlo de nuevo al nodo de clasificación. De esta forma las dos primeras veces que un usuario alcance nuestro Intent de Agente Humano, lo enviará al Subflujo de Desviación de Agente. Pero una vez que lo hayan alcanzado dos veces, el condicional los enviará ahora al Subflujo Agente Humano.
Pero tenemos un pequeño problema. ¿Qué pasa cuando los usuarios entran en los otros flujos? Es posible que quieran hacer más de una pregunta, ¿verdad? No deberíamos hacerles volver a llamar a nuestro asistente virtual para cada consulta.
Podemos actualizar el agente con un subflujo llamado "Otra consulta". Este subflujo pregunta al usuario si desea hacer otra pregunta, utiliza un condicional para recoger otra consulta o salir del agente, y finalmente envía la nueva consulta al nodo de clasificación de nuevo.
Additional Request Flow
Pero, ¿cuál es el problema? Cuando un usuario realice una segunda consulta, virtual_agent_interactions seguirá siendo igual a 0. No queremos penalizar a nuestros usuarios que quizás hayan pedido una pizza, pero hacerles preguntar 3 veces por un agente humano.
Podemos simplemente añadir un parámetro Establecer Parámetro después de que hayan salido del flujo ¿Preguntar a otro? Flow. Aquí establecemos nuestro virtual_agent_interactions a 2 y luego devolvemos a nuestro usuario al nodo de clasificación.
Agent Deflection with Repeat Inquiry Flow
Cómo gestionar las consultas amplias
Otra fuente de muchas peticiones de agentes humanos proviene de usuarios que hacen preguntas muy amplias que pueden coincidir con muchas de sus intenciones y confundir al agente. Normalmente, un agente respondería entonces con algo como: "Lo siento, no lo he entendido". Esto disminuye la confianza del llamante en el agente virtual, momento en el que pediría ser transferido a un humano.
En su lugar, podemos crear una intención "Consultas amplias". Dará un mensaje mucho más suave y preguntará de nuevo por la consulta del usuario. Sin embargo, el usuario ganará confianza al creer que el agente realmente le está entendiendo.
En nuestro ejemplo del agente de pizzas, las consultas amplias serían entradas como "pizza", "ayuda", "pregunta", "pregunta sobre pizza", etc.
De nuevo, crearemos un sub-flujo llamado Broad Queries. Una vez más, utilizaremos un nodo Collect Input para recoger nuestro parámetro de consulta. Sin embargo, aquí diremos algo como: "¡Qué buena pregunta! ¿Puede ser más específico?" o "Estoy encantado de ayudarle. ¿Cuál es su pregunta?".
Deflecting Broad Queries with a Nudge
Pero antes de dejar nuestro sub-flujo y conectarnos de nuevo a nuestro nodo de Clasificación, querremos usar un parámetro set y actualizar nuestro parámetro virtual_agent_interactions para que sea igual a 1. Esto da crédito al usuario por intentar utilizar el agente virtual. Si inmediatamente piden un agente humano, sólo se les devolverá una vez en lugar de dos. Esto es justo ya que será la tercera vez que se les pide que respondan al agente.
Full Agent Deflection Flow
Conclusión
Ya hemos visto cómo implementar unas cuantas interacciones muy potentes de experiencia del cliente a través de agentes virtuales. Nuestros chatbots ayudan a aumentar la eficiencia empresarial al empujar a los usuarios a resolver solicitudes sin incluir a costosos empleados humanos. Hacerlo con la plataforma de código bajo de AI Studio permite a empresas de todos los tamaños aprovechar estas lucrativas medidas de reducción de costes.
Si te ha gustado este artículo, háznoslo saber en Vonage Developer Comunidad Slack. Esta publicación se inspiró en agentes del mundo real que se usan a escala, ¡comparte tus estrategias y experiencias usando AI Studio para que todos podamos mejorar! También puedes seguirnos en X, antes conocido como Twitterpara conocer las últimas noticias sobre la API de Vonage.
Recursos adicionales
Compartir:
Benjamin Aronov es desarrollador de Vonage. Es un constructor de comunidades con experiencia en Ruby on Rails. Benjamin disfruta de las playas de Tel Aviv, a la que llama hogar. Su base en Tel Aviv le permite conocer y aprender de algunos de los mejores fundadores de startups del mundo. Fuera de la tecnología, a Benjamin le encanta viajar por el mundo en busca del perfecto pain au chocolat.