Un knowledge graph nei contesti di supporto è una rappresentazione strutturata delle relazioni tra concetti, prodotti, problemi e soluzioni, che abilita la ricerca semantica in grado di trovare contenuti pertinenti nella knowledge base basandosi sul significato e sul contesto delle relazioni piuttosto che sulla sola corrispondenza di parole chiave. La ricerca semantica migliora drasticamente i tassi di risoluzione self-service e la scoperta di conoscenze da parte degli agenti.
?
Perché la ricerca per parole chiave fallisce nelle knowledge base di supporto e come la ricerca semantica migliora i risultati?
La ricerca per parole chiave — il fondamento della maggior parte dei sistemi di ricerca dei centri di aiuto e delle knowledge base interne — richiede all'utente di utilizzare esattamente le stesse parole che appaiono nel documento di risposta. Un cliente che cerca "il mio account non mi permette di aggiungere una seconda email" non recupererà un articolo intitolato "Gestione di più indirizzi utente" se né "seconda email" né "non mi permette di aggiungere" appaiono nel testo dell'articolo. Il risultato: alto volume di ricerca con basso click-through, clienti che non riescono a trovare le risposte che cercano e che poi aprono ticket di supporto per domande a cui la knowledge base risponde già. La ricerca semantica utilizza modelli di embedding (reti neurali che convertono il testo in rappresentazioni vettoriali numeriche) per abbinare le query ai documenti basandosi sul significato, non sulla sovrapposizione letterale delle parole. La query "il mio account non mi permette di aggiungere una seconda email" è semanticamente vicina all'articolo sulla gestione di più indirizzi utente anche senza parole chiave condivise — perché le rappresentazioni vettoriali di entrambi sono simili nello spazio di embedding. Le implementazioni di ricerca semantica mostrano costantemente miglioramenti del 25–40% nei tassi di click-through degli articoli self-service e miglioramenti del 15–25% nei tassi di risoluzione self-service rispetto alla base di riferimento delle parole chiave. Per i team di supporto, la ricerca semantica nel portale di conoscenza rivolto agli agenti riduce anche il tempo di ricerca degli articoli — uno dei fattori più significativi di AHT.
?
Come i team di prodotto e di supporto implementano la ricerca semantica per una knowledge base di supporto?
L'implementazione della ricerca semantica richiede tre componenti. Modello di embedding: un modello di embedding testuale che converte gli articoli della knowledge base (e le query in arrivo) in rappresentazioni vettoriali. Opzioni: text-embedding-ada-002 di OpenAI è il modello di embedding commerciale più utilizzato per i contenuti di supporto in lingua inglese; alternative open-source come i modelli sentence-transformers vengono eseguiti on-premises per implementazioni sensibili ai dati. Database vettoriale: un database che memorizza in modo efficiente e consente la ricerca di similarità tra milioni di vettori di embedding. Opzioni: Pinecone (gestito, più facile da configurare), Weaviate (open-source, maggiore controllo) o pgvector (un'estensione PostgreSQL che abilita la ricerca vettoriale all'interno di un'istanza Postgres esistente). API di ricerca: il flusso della query — la query di ricerca in arrivo viene incorporata dal modello, il database vettoriale esegue una ricerca approssimata del vicino più prossimo tra gli embedding degli articoli e vengono restituiti e classificati i primi N articoli più simili. Per la maggior parte dei team di supporto SaaS, il percorso di implementazione più rapido è: utilizzare una funzionalità di ricerca semantica pronta all'uso da uno strumento di gestione della conoscenza (Notion AI, Guru, Confluence con Atlassian Intelligence) o una piattaforma di ricerca di supporto dedicata (Algolia NeuralSearch, Beacon search di Help Scout) piuttosto che costruire una pipeline personalizzata.
?
Come un knowledge graph rimane aggiornato e accurato man mano che un prodotto si evolve?
I sistemi di knowledge graph e di ricerca semantica perdono accuratezza quando la knowledge base sottostante diventa obsoleta — perché gli embedding rappresentano il contenuto al momento della loro generazione. Quando un articolo viene aggiornato, l'embedding per quell'articolo deve essere ricalcolato e sostituito nel database vettoriale. Requisiti di manutenzione: pipeline di re-embedding automatizzata: ogni volta che un articolo della knowledge base viene aggiornato (rilevato da un webhook dal CMS o dallo strumento di gestione della conoscenza), l'articolo viene automaticamente re-embedded e il record del database vettoriale viene aggiornato. Questo dovrebbe essere un lavoro in background che si completa entro pochi minuti dall'aggiornamento dell'articolo. Monitoraggio della copertura: tracciare la percentuale di ricerche degli agenti e dei clienti nel centro di aiuto che restituiscono una corrispondenza ad alta confidenza (al di sopra di una soglia di similarità) rispetto a una risposta a bassa confidenza o senza corrispondenza. Un tasso di copertura in calo indica che la knowledge base sta rimanendo indietro rispetto al prodotto — nuove funzionalità e problemi vengono cercati ma il contenuto non esiste ancora. Avvisi di lacune di contenuto: quando query specifiche restituiscono costantemente corrispondenze a bassa confidenza, avvisare il team di contenuto con il testo esatto della query — queste sono priorità di creazione di contenuto. Ricalibrazione stagionale: man mano che le funzionalità del prodotto si evolvono in modo significativo, rivalutare se il modello di embedding sta ancora producendo rappresentazioni utili per il linguaggio specifico del dominio.
Sfida di Conoscenza
Hai padroneggiato Knowledge Graph e Ricerca Semantica nel Supporto? Ora prova a indovinare la parola di 5 lettere correlata!
Digita o usa la tastiera