Ein Knowledge Graph im Support-Kontext ist eine strukturierte Darstellung von Beziehungen zwischen Konzepten, Produkten, Problemen und Lösungen – er ermöglicht eine semantische Suche, die relevante Inhalte der Wissensdatenbank basierend auf Bedeutung und Beziehungskontext findet, anstatt nur auf Keyword-Matching. Die semantische Suche verbessert die Selbstbedienungs-Lösungsraten und die Wissensfindung der Agenten erheblich.
?
Warum scheitert die Keyword-Suche in Support-Wissensdatenbanken und wie verbessert die semantische Suche die Ergebnisse?
Die Keyword-Suche – die Grundlage der meisten Suchsysteme in Help Centern und internen Wissensdatenbanken – erfordert, dass der Suchende genau die gleichen Wörter verwendet, die im Antwortdokument erscheinen. Ein Kunde, der nach „mein Konto lässt mich keine zweite E-Mail hinzufügen“ sucht, wird keinen Artikel mit dem Titel „Verwalten mehrerer Benutzeradressen“ finden, wenn weder „zweite E-Mail“ noch „lässt mich nicht hinzufügen“ im Artikeltext vorkommen. Das Ergebnis: hohes Suchvolumen mit geringer Klickrate, Kunden finden die gesuchten Antworten nicht und eröffnen dann Support-Tickets für Fragen, die die Wissensdatenbank bereits beantwortet. Die semantische Suche verwendet Embedding-Modelle (neuronale Netze, die Text in numerische Vektorrepräsentationen umwandeln), um Anfragen basierend auf der Bedeutung und nicht auf wörtlicher Wortübereinstimmung mit Dokumenten abzugleichen. Die Anfrage „mein Konto lässt mich keine zweite E-Mail hinzufügen“ ist semantisch nah an dem Artikel über die Verwaltung mehrerer Benutzeradressen, auch ohne gemeinsame Keywords – weil die Vektorrepräsentationen beider im Embedding-Raum ähnlich sind. Implementierungen der semantischen Suche zeigen durchweg Verbesserungen von 25–40 % bei den Klickraten von Self-Service-Artikeln und 15–25 % bei den Self-Service-Lösungsraten im Vergleich zur Keyword-Baseline. Für Support-Teams reduziert die semantische Suche im agentenseitigen Wissensportal auch die Artikelsuchzeit – einer der wichtigsten Treiber der AHT.
?
Wie implementieren Produkt- und Support-Teams die semantische Suche für eine Support-Wissensdatenbank?
Die Implementierung der semantischen Suche erfordert drei Komponenten. Embedding-Modell: ein Text-Embedding-Modell, das Wissensdatenbankartikel (und eingehende Anfragen) in Vektorrepräsentationen umwandelt. Optionen: OpenAI's text-embedding-ada-002 ist das am weitesten verbreitete kommerzielle Embedding-Modell für englischsprachige Support-Inhalte; Open-Source-Alternativen wie sentence-transformers-Modelle laufen On-Premises für datensensible Bereitstellungen. Vektordatenbank: eine Datenbank, die Millionen von Embedding-Vektoren effizient speichert und die Ähnlichkeitssuche ermöglicht. Optionen: Pinecone (verwaltet, am einfachsten einzurichten), Weaviate (Open-Source, mehr Kontrolle) oder pgvector (eine PostgreSQL-Erweiterung, die die Vektorsuche innerhalb einer bestehenden Postgres-Instanz ermöglicht). Search API: der Abfragefluss – die eingehende Suchanfrage wird vom Modell eingebettet, die Vektordatenbank führt eine ungefähre Nächste-Nachbarn-Suche über Artikel-Embeddings durch, und die Top-N ähnlichsten Artikel werden zurückgegeben und gerankt. Für die meisten SaaS-Support-Teams ist der schnellste Implementierungsweg: die Verwendung einer sofort einsatzbereiten semantischen Suchfunktion eines Wissensmanagement-Tools (Notion AI, Guru, Confluence mit Atlassian Intelligence) oder einer dedizierten Support-Suchplattform (Algolia NeuralSearch, Help Scout's Beacon Search) anstatt eine benutzerdefinierte Pipeline zu erstellen.
?
Wie bleibt ein Knowledge Graph aktuell und präzise, wenn sich ein Produkt weiterentwickelt?
Knowledge Graph- und semantische Suchsysteme verlieren an Genauigkeit, wenn die zugrunde liegende Wissensdatenbank veraltet ist – da die Embeddings den Inhalt zum Zeitpunkt ihrer Generierung repräsentieren. Wenn ein Artikel aktualisiert wird, muss das Embedding für diesen Artikel neu berechnet und in der Vektordatenbank ersetzt werden. Wartungsanforderungen: automatisierte Re-Embedding-Pipeline: Wann immer ein Wissensdatenbankartikel aktualisiert wird (erkannt durch einen Webhook vom CMS oder Wissensmanagement-Tool), wird der Artikel automatisch neu eingebettet und der Vektordatenbankeintrag aktualisiert. Dies sollte ein Hintergrundjob sein, der innerhalb von Minuten nach der Artikelaktualisierung abgeschlossen ist. Abdeckungsüberwachung: Verfolgen Sie den Prozentsatz der Agenten- und Kunden-Help-Center-Suchen, die eine Übereinstimmung mit hoher Konfidenz (über einem Ähnlichkeitsschwellenwert) im Vergleich zu einer geringen Konfidenz oder keiner Übereinstimmung zurückgeben. Eine sinkende Abdeckungsrate deutet darauf hin, dass die Wissensdatenbank dem Produkt hinterherhinkt – neue Funktionen und Probleme werden gesucht, aber Inhalte existieren noch nicht. Inhaltslücken-Benachrichtigungen: Wenn bestimmte Abfragen durchweg Übereinstimmungen mit geringer Konfidenz zurückgeben, benachrichtigen Sie das Content-Team mit dem genauen Abfragetext – dies sind Prioritäten für die Inhaltserstellung. Saisonale Neukalibrierung: Wenn sich Produktfunktionen erheblich weiterentwickeln, überprüfen Sie, ob das Embedding-Modell immer noch nützliche Repräsentationen für die spezifische Sprache der Domäne erzeugt.
Wissens-Challenge
Knowledge Graph & Semantische Suche im Support gemeistert? Versuchen Sie nun, das verwandte 5-Buchstaben-Wort zu erraten!
Tippen oder Tastatur benutzen