
Bots e IA: estado actual de madurez técnica
Tiempo de lectura: 7 minutos
Los bots han avanzado mucho desde los tiempos en que se utilizaban en los canales de IRC o en la mensajería instantánea. Pero, ¿hasta dónde han llegado desde el punto de vista tecnológico? Sí, todas las empresas y medios de comunicación hablan de ellos, pero ¿qué hay de verdad y qué es sólo publicidad? Para ayudarme a separar la realidad del marketing, hablé con Syd Lawrence, CEO y cofundador de The Bot Platform, y Martin Beeby, evangelista técnico de Microsoft, sobre el estado actual de los bots y la IA.
Vea el Video de nuestra conversación aquí, o desplácese por debajo del Video para leer la transcripción completa.
¿En qué fase de madurez técnica se encuentran los bots y la IA? (Transcripción completa)
Sam Machin (Nexmo Developer Advocate & Alexa Champion): Una de las cosas en las que hay que pensar es el estado actual de la unión, lo que entendemos por bots e IA y todas estas cosas. Se habla mucho de ello, pero una cosa que estaba pensando es ¿dónde estamos con la tecnología en términos de madurez? Si lo comparamos con el espacio de las PDA móviles, ¿estamos en los primeros días de PalmPilot, o en los días del reloj calculadora, o en los días del iPhone? ¿Dónde estamos?
Syd Lawrence (CEO/Cofundador de [The Bot Platform[(https://thebotplatform.com/)): Creo que estamos en la fase de los relojes calculadora. Estas cosas existen desde hace muchos años, pero no necesariamente en el espacio general, que es la mayor diferencia. Sí, creo que la mayoría de la gente está en la fase del reloj calculadora.
Obviamente, en los últimos 12 meses ha habido mucha prensa sobre que estas cosas son mucho mejores de lo que son en realidad. Afortunadamente, creo que la gente está empezando a entender mejor lo que son ahora. Quiero decir, hemos estado construyendo bots en IRC hace muchos años. Y ahora es sólo que está en las plataformas principales. Y en realidad no son tan diferentes de lo que solían ser. Es sólo que están en plataformas convencionales.
Llevamos muchos años creando bots en IRC... ahora es el momento de hacerlo en plataformas convencionales.
Martin Beeby (Evangelista técnico de Microsoft): Creo que hay un pequeño salto en cuanto a lo que son capaces de hacer en comparación con lo que hacían antes. Y eso es tratar de averiguar lo que una persona está diciendo realmente a un sistema. Quiero decir, la mayoría de los sistemas, la mayoría de las aplicaciones web, la mayoría de las aplicaciones móviles siempre han conducido a la gente por un tipo de menú muy específico para operar una aplicación. Y creo que con los chatbots y los bots de voz estamos llegando a un punto en el que el usuario puede pedir explícitamente lo que quiere. Y estamos llegando a un punto en el que entendemos lo que dice el usuario. Somos capaces de satisfacer ciertas necesidades que el usuario tiene en ese momento. Y creo que ahí es donde el verdadero avance va a venir con los robots es cuando empezamos a entender más y más de lo que la intención real del usuario es.
Ahí es donde el verdadero avance va a venir con los robots es cuando empezamos a entender más y más de lo que la intención real del usuario es
De momento, es un poco complicado. Somos capaces de entender la intención relativamente bien con los servicios cognitivos y los distintos sistemas de inteligencia artificial que están construyendo la mayoría de las grandes empresas. Pero creo que en los próximos dos o tres años empezaremos a ver saltos y avances en ese ámbito, en el que realmente entenderemos lo que dice el usuario a partir de un inglés libre, en lugar de tener que guiar al usuario por una estructura de menús muy específica.
Sam: Sí, y creo que es un buen punto. Creo que para mí el gran salto es la diferencia entre algo que es impulsado por la línea de comandos. Quiero decir, todos somos geeks; estamos acostumbrados a escribir comandos. Y realmente, la primera generación de cosas era un bot que se sentó en su canal de IRC o su Instant Messenger. Pero fundamentalmente estabas escribiendo un comando como una cadena y tenías que conseguirlo en un orden específico, en una sintaxis específica y ese tipo de cosas. Y supongo que el punto de inflexión que empieza a hacerlo un poco más IA es esta idea de que no tienes que estructurar tu petición. Puede averiguar a partir de las palabras clave lo que estás pidiendo, ¿no? Pero creo que aún es pronto. Probablemente todos estamos de acuerdo en eso.
Martin: Bueno, gran parte del trabajo que he estado haciendo recientemente, construimos un montón de chatbots. Pero la mayoría de los clientes con los que hablamos quieren crear algún tipo de sistema de voz o control de voz encima de ese chatbot, además de crear chatbots sencillos. Así que los sistemas de voz a texto creo que están en la fase de 2003 del tacto. Si nos fijamos en la metáfora táctil, de cómo eran los teléfonos táctiles en 2003, 2004, cuando eran sólo pantallas capacitivas y eran totalmente basura. Y que usted podría presionar sobre ellos, y usted podría martillar diferentes secciones, pero nunca realmente consiguió lo que quería.
Y de repente apareció el iPhone en 2007 y las interfaces táctiles cambiaron para siempre. Estamos en ese momento de 2004 con la detección del habla y la intención del habla, donde las cosas son una especie de acierto y error. Y sí, más o menos funciona, pero más o menos no también. Y es realmente frustrante y la mayoría de los usuarios lo evitan. Pero vamos a llegar a ese punto crucial en el que el habla y la intención sean totalmente comprendidas por los sistemas informáticos. Y entonces llegaremos a ese momento mágico en el que aceptaremos mucho mejor la tecnología. Pero por el momento, creo que para la gran mayoría de la gente pueden ser bastante frustrantes, estos sistemas de IA y estos sistemas de voz.
vamos a llegar a ese punto crucial en el que el habla y la intención sean plenamente comprendidos por los sistemas informáticos.
Sam: Sí. Creo que es muy interesante. Sólo un buen ejemplo en realidad, toda la interfaz táctil. Usted tiene el lápiz óptico, y en realidad era sólo un sustituto de una interfaz de ratón, que no era lo mismo. Y si tenías cuidado podías manejarlo. Pero para que estas cosas se conviertan en fáciles de usar, tienen que ser fáciles de hacer mientras haces varias cosas a la vez: mientras intentas sacar la compra del coche con una mano y luego sujetar la puerta con la otra y luego quieres poder gritarle. No sirve de nada reconocerlo si estoy en una habitación bonita y tranquila con un micrófono y me acerco al dispositivo y le pregunto en un inglés tranquilo y llano. Es cuando puede funcionar en ese escenario del mundo real.
para que estas cosas sean fáciles de usar, tienen que ser fáciles de hacer en multitarea
Martin: Sí, una de las grandes limitaciones actuales de los chatbots es la experiencia de incorporación. ¿Cómo le explicas al usuario lo que puede decirle al bot, qué frases tiene que hacer, cómo se estructuran las cosas? Y esa experiencia de incorporación es realmente dolorosa. Y también porque el bot no entiende el inglés libre. No entiende nada de lo que el usuario pueda decirle. Sólo, en general, sólo entiende un subconjunto de Inglés que ha sido programado para. Y creo que para que estas cosas realmente tengan éxito, vamos a tener que superar eso.
[Nota del editor debate completo de una hora sobre el estado de la tecnología bot de IA].