Customer Support Calls enthält eine Fülle von Informationen, aber es ist nicht einfach, die Zeit zu finden, diese Aufzeichnungen für Erkenntnisse manuell zu durchsuchen. Stellen Sie sich vor, Sie könnten diese langen Aufnahmen sofort in klare Zusammenfassungen umwandeln, verfolgen Sie, wie sich das Gefühl während des Anrufs verlagert, und erhalten Sie sogar maßgeschneiderte Erkenntnisse, basierend darauf, wie Sie die Konversation analysieren möchten. Klingt nützlich?
In diesem Artikel werden wir ein praktisches Tool erstellen, das ich Snapsynapse erstellt habe (klicken Sie hier), um genau das zu tun! Verwenden von Tools wie Pyannote.audio for Speaker Diarisierung (Identifikation), Flüstern für Transkription und Gemini-1.5 Pro für die Erzeugung von KI-gesteuerten Zusammenfassungen, ich werde zeigen, wie Sie den Prozess der Umwandlung von Support-Anrufaufzeichnungen in umsetzbare Erkenntnisse automatisieren können. Unterwegs sehen Sie, wie Sie Transkriptionen reinigen und verfeinern, benutzerdefinierte Zusammenfassungen basierend auf Benutzereingaben generieren und Stimmungstrends verfolgen-alle mit leicht zu befolgenden Code-Snippets. Dies ist ein praktischer Leitfaden zum Aufbau eines Tools, das über die Transkription hinausgeht, damit Sie Ihre Kundensupporterfahrung verstehen und verbessern können.
Dieser Artikel wurde als Teil des Data Science -Blogathons veröffentlicht.
Snapsynapse ist ein praktisches Tool, um Kundenunterstützungsanrufe in wertvolle Erkenntnisse zu verwandeln. Es wird Gespräche durch den Sprecher abgebaut, alles transkribiert und die allgemeine Stimmung und die wichtigsten Punkte hervorhebt, sodass Teams schnell verstehen können, was Kunden benötigen. Modelle wie Pyannote für die Diarisierung, Flüstern für Transkription und Gemini für Zusammenfassungen, Snapsynapse liefert klare Zusammenfassungen und Stimmungstrends ohne Probleme. Es soll dazu beitragen, die Teams zu unterstützen, die sich besser mit Kunden verbinden und den Service jeweils ein Gespräch verbessern können.
Im Folgenden finden Sie die wichtigen Schlüsselmerkmale von SnapSynapse:
In diesem Abschnitt werden wir die Kernfunktionen untersuchen, die SnapSynapse zu einem leistungsstarken Tool für die Kundensupportanalyse machen. Von der automatischen Durchdimension und Transkribierung von Aufrufen bis hin zur Generierung dynamischer Konversationszusammenfassungen werden diese Funktionen entwickelt, um die Effizienz des Support -Teams zu verbessern. Snapsynapse vereinfacht den Prozess des Verständnisses von Kundeninteraktionen.
Wenn Sie den gesamten Quellcode überprüfen möchten, lesen Sie die Dateien im Repo: repo_link
Wir werden eine offene AI -API und die Gemini -API benötigen, um dieses Projekt durchzuführen. Sie können die API hier bekommen - Gemini API, OpenAI API
Projektfluss:
Lautsprecherdurch Diatrisierung -> Transkription -> Zeitstempel -> Reinigung -> Zusammenfassung -> Stimmungsanalyse
Im ersten Schritt verwenden wir ein einzelnes Skript, um eine Audiodatei zu übernehmen, die Lautsprecher (Diarisierung) zu trennen, eine Transkription zu erstellen und Zeitstempel zuzuweisen. So funktioniert das Skript, einschließlich einer Aufschlüsselung des Codes und der Schlüsselfunktionen:
Dieses Python -Skript führt drei Hauptaufgaben auf einmal aus:
Die Kernfunktion transkribe_with_diarization () kombiniert alle Schritte:
Def transcribe_with_diarization (Datei_Path): Diarisierung_Result = Perform_diarization (Datei_Path) audio = audiosisment.from_file (file_path) Transkriptionen = [] Für Segment, _, Sprecher in Diarisierung_Result.iterTracks (rendat_label = true): start_time_ms = int (segment.start * 1000) end_time_ms = int (segment.end * 1000) chunk = audio [start_time_ms: end_time_ms] chunk_filename = f "{sprecher} _segment_ {int (segment.start)}. wav" Chunk.export (Chunk_FileName, format = "WAV") mit Open (Chunk_FileName, "RB") als audio_file: Transcription = client.audio.transcriptions.create ( model = "flüstere-1", Datei = audio_file, response_format = "json" ) Transcriptions.Append ({{{ "Sprecher": Sprecher, "start_time": segment.start, "end_time": segment.end, "Transkription": Transkription.text }) print (f "Transkription für {Chunk_FileName} von {Speaker} abgeschlossen.")
Ein Blick auf die erzeugte und wurde in diosured_transcription.py -Datei gespeichert:
# Funktion zum Reinigen des Transkriptionstextes Def Clean_Transcription (Text): # Liste der gängigen Füllwörter filler_words = [ "ähm", "äh", "wie", "Weißt du", "eigentlich", "im Grunde", "ich meine", "Art von", "irgendwie", "richtig", "okay", "so", "gut", "einfach" ] # Regex -Muster, um Füllwörter zu entsprechen (Fall unempfindlich) filler_pattern = re.comPile (r '\ b (' '|' .join (filler_words) r ') \ b', re.ignorecase) # Füllwörter entfernen cleaned_text = filler_pattern.sub ('', text) # Entfernen Sie zusätzliche Weißespace cleaned_text = re.sub (r '\ s', '', cleaned_text) .strip () return cleaned_text
Im nächsten Schritt verwenden wir die Gemini -API, um strukturierte Erkenntnisse und Zusammenfassungen auf der Grundlage der gereinigten Transkriptionen zu erzeugen. Wir verwenden das Gemini 1.5 -Pro -Modell für die Verarbeitung natürlicher Sprache, um Kundenunterstützungsanrufe zu analysieren und umsetzbare Zusammenfassungen zu erstellen.
Hier ist eine Aufschlüsselung der Funktionalität:
Ein kurzer Blick auf verschiedene verwendete Eingabeaufforderungen:
Ein Blick auf die erzeugte Ausgabe:
Darüber hinaus führen wir im nächsten Schritt die Stimmungsanalyse für Customer Support Call -Transkriptionen durch, um den emotionalen Ton während des gesamten Gesprächs zu bewerten. Es verwendet das Vader Sentiment Analysis -Tool von NLTK, um die Sentiment -Scores für jedes Segment der Konversation zu bestimmen.
Hier ist eine Aufschlüsselung des Prozesses:
# Berechnen Sie die Gesamtstimmung. insgesamt_sentiment_score = total_compound / len (sentiment_results) # Berechnen Sie die durchschnittliche Stimmung für Kunden und Agent durchschnitt_customer_sentiment = customer_sentiment / customer_count Wenn customer_count else 0 durchschnitt_agent_sentiment = agent_sentiment / agent_count Wenn Agent_Count else 0 # Bestimmen Sie die Gesamtstimmung als positiv, neutral oder negativ wenn insgesamt_sentiment_score> 0.05: insgesamt_sentiment = "positiv" ELIF Gesamt_Sentiment_Score <h4> Code verwendet zum Generieren des Diagramms</h4><pre class="brush:php;toolbar:false"> Def Plot_Sentiment_trend (Sentiment_Results): # Verbindungsstimmungswerte für die Darstellung extrahieren compuktion_scores = [Eintrag ['Sentiment'] ['Verbindungen'] für die Eingabe in Sentiment_Results] # Erstellen Sie ein einzelnes Zeilenplot, das den Sentiment -Trend zeigt Plt.Figure (AbbSize = (12, 6)) PLT.PLOT (compuktion_scores, color = 'lila', linestyle = '-', marker = 'o', markerSize = 5, Label = "Sentiment Trend") PLT.AXHLINE (0, color = 'Gray', linestyle = '-') # Fügen Sie eine Nullzeile für neutrales Gefühl hinzu PLT.TITLE ("SENTIMENT -Trend über das Kundensupport -Gespräch", fontsize = 16, fontgewicht = 'bett', color = "darkBlue") pt.xlabel ("Segmentindex") PLT.YLABEL ("Verbindungsgefühl") PLT.GRID (True, Linestyle = '-', Alpha = 0,5) Plt.Legend () Plt.Show ()
Erzeugte Sentiment -Analyse -Bewertungen:
Sentimentanalyse -Diagramm erzeugt:
Hier finden Sie das Code -Repository - repo_link
Gehen wir nun durch, wie Sie Snapsynapse auf Ihrer lokalen Maschine einrichten und ausführen:
Beginnen Sie mit der Klone des Projektrepositorys in Ihre lokale Maschine, um SnapSynapse zu verwenden. Dies bietet Zugriff auf den Quellcode der Anwendung und alle wesentlichen Komponenten.
Git Clone https://github.com/keerthanareddy95/snapsynapse.git CD Snapsynapse
Eine virtuelle Umgebung hilft, Abhängigkeiten zu isolieren und sicherzustellen, dass Ihr Projekt reibungslos läuft. In diesem Schritt wird ein unabhängiger Arbeitsbereich für SnapSynapse eingerichtet, der ohne Störungen von anderen Paketen betrieben wird.
# Für Windows: Python -m -Venv -Venv # Für macOS und Linux: Python3 -m Venven Venv
# Für Windows: . \ venv \ scripts \ aktivieren # Für macOS und Linux: Quelle Venv/bin/aktivieren
Mit der virtuellen Umgebung besteht der nächste Schritt darin, alle erforderlichen Bibliotheken und Tools zu installieren. Diese Abhängigkeiten ermöglichen die Kernfunktionalitäten von SnapSynapse, einschließlich Transkriptgenerierung, Sprecherdurch Diatrisierung, Zeitstempelerzeugung, Zusammenfassung der Erzeugung, Sentimentanalyse, Visualisierung und vielem mehr.
PIP Installation -r Anforderungen.txt
Um KI-gesteuerte Erkenntnisse, Diatrization, Transkription und Zusammenfassung zu nutzen, müssen Sie API-Schlüssel für Google Gemini und das Öffnen von AI Whisper konfigurieren.
Erstellen Sie eine .env -Datei im Stamm des Projekts und fügen Sie Ihre API -Schlüssel für Google Gemini hinzu und öffnen Sie AI Whisper.
Google_api_key = "your_google_api_key" Openai_api_key = "your_open_ai_api_key"
Schauen wir uns nun die Tools an, die in der Entwicklung für Snapsynapse unten verwendet werden:
Kurz gesagt, Snapsynapse revolutioniert die Kundensupport -Analyse, indem sie RAW -Call -Aufzeichnungen in umsetzbare Erkenntnisse umwandelt. Von der Sprecherdurchfall und der Transkription bis hin zur Erzeugung einer strukturierten Zusammenfassung und Stimmungsanalyse rationalisiert Snapsynapse jeden Schritt, um eine umfassende Sichtweise der Kundeninteraktionen zu erhalten. Mit der Kraft der maßgeschneiderten Eingabeaufforderungen des Gemini -Modells und der detaillierten Stimmungsverfolgung können Benutzer leicht Zusammenfassungen und Trends erhalten, die wichtige Erkenntnisse und Unterstützungsergebnisse hervorheben.
Ein großer Gruß an Google Gemini, Pyannote Audio und Whisper, um dieses Projekt mit ihren innovativen Tools zu betreiben!
Sie können sich das Repo hier ansehen.
A. Snapsynapse kann Audiodateien der Formate MP3 und WAV verarbeiten.
Q2. Wie geht Snapsynapse mit Transkriptionsgenauigkeit und Reinigung um?A. Snapsynapse verwendet Whisper für die Transkription, gefolgt von einem Reinigungsprozess, der Füllstoffwörter, Pausen und irrelevante Inhalte beseitigt.
Q3. Kann ich das Zusammenfassungsformat der Anrufanalyse anpassen?A. Ja! SnapSynapse bietet fünf unterschiedliche Eingabeaufforderungoptionen, mit der Sie ein zusammenfassendes Format auswählen können, das auf Ihre Anforderungen zugeschnitten ist. Dazu gehören Schwerpunktbereiche wie Aktionselemente, Eskalationsbedürfnisse und technische Probleme.
Q4. Welche Erkenntnisse bietet die Stimmungsanalyse und wie wird sie angezeigt?A. Snapsynapses Stimmungsanalyse bewertet den emotionalen Ton des Gesprächs und liefert eine Stimmungsbewertung und ein Trenddiagramm.
Q5. Was ist die Customer Call -Analyse und wie kann sie Unternehmen zugute kommen?A. Kundenaufrufanalyse verwendet KI-angetriebene Tools, um wertvolle Erkenntnisse aus Kundeninteraktionen zu transkribieren, zu analysieren und zu extrahieren, um Unternehmen zu verbessern, die Service zu verbessern, Trends zu identifizieren und die Kundenzufriedenheit zu verbessern.
Q6. Wie kann die Kundenaufrufanalyse die Qualität der Kundensupport verbessern?A. Durch Kundenaufrufanalyse können Unternehmen ein tieferes Verständnis der Kundenstimmung, der gemeinsamen Probleme und der Leistungserbringung erlangen, was zu fundierteren Entscheidungen und verbesserten Kundendienststrategien führt.
Die in diesem Artikel gezeigten Medien sind nicht im Besitz von Analytics Vidhya und werden nach Ermessen des Autors verwendet.
Das obige ist der detaillierte Inhalt vonKundenanalyse, die mit Snapsynapse einfach gemacht wurden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!