https://a.storyblok.com/f/270183/1368x665/4f28e420c5/25may_dev-blog_knowledge-ai.jpg

Knowledge AI in AI Studio jetzt in der Public Beta

Zuletzt aktualisiert am June 24, 2025

Lesedauer: 4 Minuten

Bitte beachten Sie: Wissen AI in AI Studio ist jetzt Allgemein verfügbar

Wir freuen uns, Ihnen mitteilen zu können, dass Knowledge AI in AI Studio jetzt in der öffentlichen Beta-Phase ist und über die AI Studio Canvas zugänglich ist. Mit Wissen AI und dem neuen Q&A-Knoten, ykönnen Sie sich wiederholende Fragen und Antworten reduzieren und langwierige Support-Workflows automatisieren. Es vereinheitlicht Ihre Geschäftsinhalte in einer durchsuchbaren Wissensdatenbank, sodass Ihr Assistent mit präzisen, zuverlässigen Antworten antworten kann.

Zuverlässiger Einsatz von LLMs zur Verbesserung der Kundenerfahrung

Generative KI verändert die Art und Weise, wie Unternehmen ihre Kunden unterstützen. Unternehmen haben sich beeilt, die kostensparenden Möglichkeiten der KI in ihre Geschäftsprozesse zu implementieren. Ein wichtiger Bereich war die Erweiterung virtueller Agenten, um ein umfassenderes, natürlicheres Support-Erlebnis zu bieten.

Knowledge AI baut auf der programmierfreien und programmierarmen Plattform von AI Studio auf und vereinfacht den Prozess noch weiter. Teams müssen sich nicht mehr um Absichten, den Aufbau von Trainingssätzen oder die Ausarbeitung individueller Antworten kümmern. Durch den Einsatz von generativer KI können virtuelle Agenten ein viel breiteres Spektrum von Kundenanfragen bearbeiten und so das Kundenerlebnis verbessern.

Mit LLMs können die Benutzer natürlicher sprechen, indem sie ihre Alltagssprache verwenden, ohne strenge Befehlsformate befolgen oder bestimmte Schlüsselwörter verwenden zu müssen. Darüber hinaus haben LLMs die Flexibilität, neuartige Antworten zu erstellen, die dazu beitragen können, dieselbe Information auf viele verschiedene Arten zu erklären. Fast wie ein Mensch.

Eine Herausforderung bei LLMs und generativer KI ist jedoch, dass sie zu kreativ sein können zu kreativ sein können! Die KI will die Fragen der Nutzer beantworten, auch wenn sie nicht über die richtigen Informationen verfügt, um sie richtig zu beantworten. Dies wird als Halluzinationen bezeichnet und stellt ein großes Risiko für ein Unternehmen dar.


Wenn Sie beispielsweise ein Fahrradgeschäft betreiben, könnte ein Nutzer fragen: "Was kosten neue Bremsen?". Ihre Website enthält jedoch keine Angaben zu neuen Bremsen, sondern vielleicht nur die Kosten für ein komplettes Fahrrad. Der LLM wird dem Nutzer wahrscheinlich eine Antwort geben, die auf Informationen aus seinen Trainingsdaten basiert, auch wenn diese nicht die Preise Ihres Ladens enthalten. Der Benutzer wird also eine Halluzination bekommen; eine völlig falsche Antwort, die aber selbstbewusst gegeben wird, so dass er glaubt, es sei der echte Preis. LLMs können auch enttäuschende Antworten geben, indem sie sehr allgemeine Antworten geben, denen es an spezifischer geschäftlicher Relevanz fehlt, die Ihre Nutzer suchen. Dies geht Hand in Hand mit Antworten, die nicht mehr aktuell sind. Sie sind zwar schnell und bequem, können ungenaue oder generische Antworten die Nutzer frustrieren und das Vertrauen untergraben. Vonage hat Knowledge AI entwickelt, um diese LLM-Mängel zu beheben.

Stellen Sie sich vor, ein Nutzer fragt Ihren virtuellen Assistenten: "Wie kann ich meine Rechnungsdaten aktualisieren? Anstatt zu raten oder aus dem Nähkästchen zu plaudern, gibt er ihm die genauen Schritte vor, die er exklusiv im Help Center Ihres Unternehmens findet. Das ist Knowledge AI von Vonage. Sie verbindet Ihren Assistenten mit vertrauenswürdigen Echtzeit-Quellen wie CRMs und Wissensdatenbanken, so dass jede Antwort fundiert, genau und markengerecht ist.

Was ist KI?

Knowledge AI ist ein neuer Weg, Large Language Models (LLMs) zu nutzen, um Ihren Kundensupport zu skalieren und Ihrem Team die Möglichkeit zu geben, sich auf unternehmenskritische Aufgaben zu konzentrieren. Vor allem aber reduziert Knowledge AI das Problem der Halluzinationen, sodass Ihre virtuellen Agenten nur vertrauenswürdige Antworten geben.

Was gilt als Wissensdatenbank?

Um aktuelle, geschäftsspezifische Antworten geben zu können, müssen Sie für Knowledge AI eine spezielle Wissensdatenbank erstellen, die als Index für Ihren virtuellen Agenten. Dazu fügen Sie Folgendes hinzu Quellen zu einem Index hinzufügen. Bei den Quellen kann es sich um Dateien wie PDF, txt oder HTML handeln, aber auch um Websites oder öffentlich zugängliche Dateien auf einem Cloud-Server.

Animated walkthrough of the Knowledge AI dashboard where the user clicks 'Add Source' to connect documents or links that will feed the AI's knowledge base, displayed with a stylized AI chip and file icon illustration.GIF showing the process of adding content sources in Vonage Knowledge AI to power accurate, evidence-based LLM responses.

Um Ihren Index zu nutzen, fügen Sie einfach den Q&A-Knoten in den Ablauf Ihres Agenten ein. Dort wählen Sie aus, welcher Parameter an Knowledge AI gesendet werden soll und in welchem Parameter das Ergebnis gespeichert werden soll. Sie haben auch die Möglichkeit drei optionale Parameter zu konfigurieren,

Bei der Konfiguration des Q&A Knotens können Sie:

  1. Setzen Sie eine Antwortzeitgrenze in Millisekunden

  2. Definieren Sie eine durchschnittliche Antwortlänge (mindestens 20 Wörter)

  3. Fügen Sie bis zu 5 Antwortvorgaben (je 100 Wörter)

    So können Sie den Ton, den Stil, die Struktur und den Detaillierungsgrad Ihres Agenten an die Stimme Ihrer Marke oder Ihren Anwendungsfall anpassen.

Einige der Optionen für Reaktionsleitlinien sind:

  • Tonfall - Geben Sie an, ob der Assistent in einem förmlichen, freundlichen, lockeren oder prägnanten Ton antworten soll.

  • Themenbeschränkung - Legen Sie Richtlinien für Themen fest, die während des Gesprächs vermieden werden sollten, um sicherzustellen, dass der Assistent in der Spur bleibt.

  • Unternehmensspezifische Richtlinien - Achten Sie darauf, dass der Assistent die genaue Terminologie Ihres Unternehmens verwendet, z. B. "XYZ Corp" statt "XYZ" oder "wir", um die Markenkonsistenz zu wahren.

  • Benutzerdefinierte Leitplanken - Implementierung zusätzlicher Regeln auf der Grundlage von Problemen oder Lücken, die beim Testen festgestellt wurden, um die Antworten des Assistenten fein abzustimmen.

Vonage AI Studio interface showing a Q&A block with fields for user query parameter and response parameter, a slider to set response delay, answer length input, and a response guideline describing how a virtual assistant for a resort should behave.Screenshot of the Vonage AI Studio interface showing KAI configuration settings including response parameters, wait time, and guidelines for generating clear, helpful answers.

Starten Sie mit Knowledge AI

Sie können mehr über Knowledge AI erfahren, indem Sie die AI Studio-Dokumentation. Die Funktion Knowledge AI ist jetzt für alle Benutzer von AI Studio vollständig und kostenlos verfügbar. Dies kann sich in Zukunft ändern. Wir würden uns freuen zu hören, wie Sie LLMs und Low-Code-Tools in Ihrem Team einsetzen! Treten Sie der Vonage Entwickler-Community Slack oder folgen Sie uns auf X, früher bekannt als Twitter um Ihre spannenden Projekte und Erkenntnisse zu teilen.

Zusätzliche Ressourcen

Teilen Sie:

https://a.storyblok.com/f/270183/384x384/e4e7d1452e/benjamin-aronov.png
Benjamin AronovAdvokat für Entwickler

Benjamin Aronov ist ein Entwickler-Befürworter bei Vonage. Er ist ein bewährter Community Builder mit einem Hintergrund in Ruby on Rails. Benjamin genießt die Strände von Tel Aviv, das er sein Zuhause nennt. Von Tel Aviv aus kann er einige der besten Startup-Gründer der Welt treffen und von ihnen lernen. Außerhalb der Tech-Branche reist Benjamin gerne um die Welt auf der Suche nach dem perfekten Pain au Chocolat.