
Bots und KI: Der aktuelle Stand der technischen Reife
Lesedauer: 6 Minuten
Bots haben sich seit den Tagen der Verwendung von Chatbots in Ihrem IRC-Kanal oder Instant-Messenger weit entwickelt. Aber wie weit sind sie vom technischen Standpunkt aus gesehen gekommen? Ja, alle Unternehmen und Wirtschaftsmedien sprechen über sie, aber was ist wirklich dran und was ist nur ein Hype? Um die Realität vom Marketing zu unterscheiden, habe ich mit Syd Lawrence, CEO und Mitbegründer von The Bot Platform, und Martin Beeby, technischer Evangelist bei Microsoft, über den aktuellen Stand von Bots und KI gesprochen.
Sehen Sie sich hier das Video unseres Gesprächs an, oder scrollen Sie unter dem Video, um die vollständige Abschrift zu lesen.
In welchem Stadium der technischen Reife befinden sich Bots und KI? (Vollständiges Transkript)
Sam Machin (Nexmo Developer Advocate & Alexa Champion): Eine Sache, über die man nachdenken sollte, ist der aktuelle Stand der Dinge - was wir mit Bots und KI und all diesen Dingen meinen. Es wird viel darüber geredet, aber eine Sache, über die ich nachgedacht habe, ist, wo stehen wir mit der Technologie in Bezug auf die Reife? Wenn wir es mit dem Bereich der mobilen PDAs vergleichen, sind wir dann auf dem Stand der frühen PalmPilot-Tage, der Taschenrechner-Uhr-Tage oder der iPhone-Tage? Wo steht es?
Syd Lawrence (CEO/Mitbegründer von [The Bot Platform[(https://thebotplatform.com/)): Ich denke, wir befinden uns wahrscheinlich in der Phase der Taschenrechner-Uhren. Diese Dinge gibt es zwar schon seit vielen Jahren, aber nicht unbedingt im Mainstream-Bereich, und das ist der größte Unterschied. Ja, ich denke, für die meisten Menschen ist es wahrscheinlich das Stadium der Taschenrechner-Uhr.
In den letzten 12 Monaten wurde viel darüber geschrieben, dass diese Dinge viel besser seien, als sie es tatsächlich sind. Glücklicherweise beginnen die Leute jetzt zu verstehen, was sie wirklich sind. Ich meine, wir haben schon vor vielen Jahren Bots im IRC entwickelt. Und jetzt sind sie einfach auf Mainstream-Plattformen zu finden. Und sie unterscheiden sich nicht wirklich von dem, was sie früher waren. Es ist nur so, dass sie auf Mainstream-Plattformen laufen.
Wir haben [seit] vielen Jahren Bots im IRC entwickelt ... jetzt ist es einfach so, dass es auf Mainstream-Plattformen ist.
Martin Beeby (Technischer Evangelist bei Microsoft): Ich denke, dass es einen kleinen Sprung in Bezug auf die Möglichkeiten gibt, die sie im Vergleich zu früher haben. Und das ist der Versuch, herauszufinden, was eine Person tatsächlich zu einem System sagt. Ich meine, die meisten Systeme, die meisten Web-Applikationen, die meisten mobilen Applikationen haben die Menschen immer auf eine sehr spezifische menügesteuerte Art und Weise dazu gebracht, eine Applikation zu bedienen. Ich denke, mit Chatbots und Voice Bots kommen wir an einen Punkt, an dem der Benutzer explizit nach dem fragen kann, was er möchte. Und wir kommen an einen Punkt, an dem wir verstehen, was der Nutzer sagt. Wir sind in der Lage, bestimmte Bedürfnisse zu erfüllen, die der Nutzer zu diesem Zeitpunkt hat. Und ich glaube, dass der wirkliche Fortschritt bei den Bots dann eintritt, wenn wir mehr und mehr verstehen, was der Nutzer wirklich will.
Der wirkliche Fortschritt bei den Bots wird dann eintreten, wenn wir mehr und mehr verstehen, was die wirkliche Absicht des Nutzers ist.
Im Moment ist das noch ein bisschen schwierig. Mit den kognitiven Diensten und den verschiedenen Systemen der künstlichen Intelligenz, die die meisten großen Unternehmen entwickeln, können wir die Absicht relativ gut verstehen. Aber ich denke, in den nächsten zwei oder drei Jahren werden wir in diesem Bereich große Sprünge machen, so dass wir wirklich verstehen können, was der Nutzer in freiem Englisch sagt, anstatt den Nutzer durch eine sehr spezifische Menüstruktur zu führen.
Sam: Ja, und ich denke, das ist ein guter Punkt. Ich glaube, für mich ist der große Sprung der Unterschied zwischen etwas, das über die Befehlszeile gesteuert wird. Ich meine, wir sind alle Geeks; wir sind es gewohnt, Befehle einzugeben. Und die erste Generation war wirklich ein Bot, der in einem IRC-Kanal oder einem Instant Messenger saß. Aber im Grunde tippte man einen Befehl als String ein und musste ihn in einer bestimmten Reihenfolge, in einer bestimmten Syntax und so weiter eingeben. Und ich denke, der Wendepunkt, ab dem es vielleicht ein bisschen mehr KI wird, ist die Idee, dass man seine Anfrage nicht strukturieren muss. Sie kann aus den Schlüsselwörtern und anderen Dingen herausfinden, wonach Sie fragen, nicht wahr? Aber ich glaube, es ist noch sehr früh. Darin sind wir uns wahrscheinlich alle einig.
Martin: Nun, bei meiner Arbeit in letzter Zeit haben wir eine Menge Chatbots entwickelt. Aber die meisten Kunden, mit denen wir sprechen, wollen eine Art Sprachsystem oder Sprachsteuerung zusätzlich zu den Chatbots entwickeln. Ich denke also, dass Systeme, die Sprache in Text umwandeln, wirklich auf der Stufe des 2003er Stadiums der Berührung stehen. Wenn ich mir die Touch-Metapher anschaue, wie Touch-Telefone 2003, 2004 waren, als sie alle nur kapazitive Bildschirme hatten und totaler Müll waren. Man drückte auf sie und hämmerte auf verschiedene Bereiche, aber man bekam nie wirklich das, was man wollte.
Und dann kam 2007 plötzlich das iPhone auf den Markt, und die Touch-Oberflächen wurden für immer verändert. Wir befinden uns mit der Spracherkennung und der Sprachintention im Jahr 2004, wo die Dinge in gewisser Weise "hit and miss" sind. Und ja, es funktioniert irgendwie, aber es funktioniert auch irgendwie nicht. Das ist wirklich frustrierend und die meisten Benutzer meiden es. Aber wir werden den entscheidenden Punkt erreichen, wenn Sprache und Absicht von Computersystemen vollständig verstanden werden. Dann werden wir diesen magischen Moment erreichen, in dem wir die Technologie viel mehr akzeptieren. Aber im Moment denke ich, dass sie für die große Mehrheit der Menschen ziemlich frustrierend sein können, diese KI-Systeme und diese Sprachsysteme.
wir werden den entscheidenden Punkt erreichen, an dem Sprache und Absicht von Computersystemen vollständig verstanden werden.
Sam: Ja, ich denke, das ist ziemlich interessant. Ein wirklich gutes Beispiel ist die ganze Touch-Oberfläche. Man hat den Stylus, und der war wirklich nur ein Ersatz für eine Mausoberfläche, was nicht dasselbe war. Und wenn man vorsichtig war, konnte man ihn steuern. Aber damit dieses Zeug benutzerfreundlich wird, muss es einfach zu bedienen sein, während man Multitasking betreibt - während man versucht, mit einer Hand die Einkäufe aus dem Auto zu holen und mit der anderen die Tür zu halten, und dann möchte man es anschreien können. Es bringt nichts, wenn ich in einem schönen, ruhigen Raum mit einem Mikrofon auf das Gerät zugehe und es in ruhigem, klarem Englisch frage, wie es Sie erkennt. Das ist der Moment, in dem es in diesem realen Szenario funktionieren kann.
Damit diese Dinge benutzerfreundlich sind, müssen sie einfach zu erledigen sein, während man gleichzeitig mehrere Aufgaben erledigt.
Martin: Ja, eine der großen Einschränkungen von Chatbots ist derzeit das Onboarding-Erlebnis. Wie erklärt man dem Nutzer, was er dem Bot sagen kann, welche Sätze er tun muss, wie er die Dinge strukturiert? Und diese Einarbeitungszeit ist wirklich mühsam. Und das liegt auch daran, dass der Bot nicht wirklich Freiform-Englisch versteht. Er versteht nichts von dem, was der Benutzer ihm sagen könnte. Im Allgemeinen versteht er nur eine Teilmenge der englischen Sprache, auf die er programmiert wurde. Und ich denke, um diese Dinge wirklich erfolgreich zu machen, müssen wir das überwinden.
[Anmerkung der Redaktion: Sehen Sie sich die komplette einstündige Diskussion über den Stand der KI-Bot-Technologie].