In der Ära der künstlichen Intelligenz suchen Unternehmen ständig nach innovativen Möglichkeiten zur Verbesserung der Kundenunterstützungsdienste. Ein solcher Ansatz ist die Nutzung von KI -Agenten, die gemeinsam dazu arbeiten, Kundenanfragen effizient zu lösen. In diesem Artikel wird die Implementierung eines gleichzeitigen Abfrageauflösungssystems mithilfe von Crewai, OpenAIs GPT -Modellen und Google Gemini untersucht. In diesem System werden mehrere spezialisierte Agenten verwendet, die parallel arbeiten, um Kundenabfragen nahtlos zu bearbeiten, um die Reaktionszeit zu verkürzen und die Genauigkeit zu verbessern.
Dieser Artikel wurde als Teil des Data Science -Blogathon veröffentlicht.
Inhaltsverzeichnis
, ausführen. Wie AI -Agenten zusammenarbeiten? Das System zur gleichzeitigen Abfrageauflösung verwendet ein Multi-Agent-Framework, wodurch jedem Agent eine bestimmte Rolle zugewiesen wird. Das System nutzt Crewai, einen Framework, mit dem AI -Agenten effektiv zusammenarbeiten können. Die Hauptkomponenten des Systems umfassen:
Um den AI -Agenten -Framework von Konzept in die Realität zu verwandeln, ist ein strukturierter Implementierungsansatz unerlässlich. Im Folgenden skizzieren wir die wichtigsten Schritte zum Einrichten und Integrieren von KI -Agenten für eine effektive Abfrageauflösung.
Die OpenAI -API -Schlüssel wird als Umgebungsvariable unter Verwendung des Betriebssystemmoduls gespeichert. Dies ermöglicht es dem System, API -Anfragen sicher ohne harten sensible Anmeldeinformationen zu authentifizieren.
import os # Set the API key as an environment variable os.environ["OPENAI_API_KEY"] = ""
Das System verwendet das Betriebssystemmodul, um mit dem Betriebssystem zu interagieren.
Das System legt den OpenAI_API_KEY als Umgebungsvariable fest, sodass es die Anforderungen an die OpenAI -API authentifizieren kann.
notwendige Bibliotheken werden importiert, einschließlich Asyncio zum Umgang mit asynchronen Operationen und Crewai -Komponenten wie Agent, Crew, Aufgabe und LLM. Diese sind wichtig für die Definition und Verwaltung von AI -Agenten.
import asyncio from crewai import Agent, Crew, Task, LLM, Process import google.generativeai as genai
Drei verschiedene LLM-Instanzen (GPT-4O und GPT-4) werden mit unterschiedlichen Temperatureinstellungen initialisiert. Die Temperatur steuert die Reaktion Kreativität und gewährleistet ein Gleichgewicht zwischen Genauigkeit und Flexibilität bei Antworten auf AI-generierte Antworten.
# Initialize the LLM with Gemini llm_1 = LLM( model="gpt-4o", temperature=0.7) llm_2 = LLM( model="gpt-4", temperature=0.2) llm_3 = LLM( model="gpt-4o", temperature=0.3)
Das System erstellt drei LLM -Instanzen mit jeweils eine andere Konfiguration.
Parameter:
Diese verschiedenen Modelle und Temperaturen helfen, Genauigkeit und Kreativität auszugleichen
Jeder Agent hat eine spezifische Rolle und vordefinierte Ziele. Es werden zwei AI -Agenten erstellt:
import os # Set the API key as an environment variable os.environ["OPENAI_API_KEY"] = ""
import asyncio from crewai import Agent, Crew, Task, LLM, Process import google.generativeai as genai
Dieser Abschnitt definiert Aufgaben, die AI -Agenten im System zur gleichzeitigen Abfrageauflösung zugewiesen wurden.
Was passiert hier?
# Initialize the LLM with Gemini llm_1 = LLM( model="gpt-4o", temperature=0.7) llm_2 = LLM( model="gpt-4", temperature=0.2) llm_3 = LLM( model="gpt-4o", temperature=0.3)
Dynamische Abfragehandhabung: Erwartete Ausgabe: Agentenzuweisung: Eine asynchrone Funktion wird erstellt, um eine Abfrage zu verarbeiten. Die Besatzungsklasse organisiert Agenten und Aufgaben, um sie nacheinander auszuführen, um eine ordnungsgemäße Abfrageauflösung und -produktion sicherzustellen. Diese Funktion definiert einen asynchronen Prozess zur Ausführung einer Abfrage. Es schafft eine Crew -Instanz, einschließlich: Die Funktion verwendet erwartet, um die AI -Agenten asynchron auszuführen und das Ergebnis zurückzugeben. Verwenden von asyncio.gather () können mehrere Abfragen gleichzeitig bearbeitet werden. Dies verkürzt die Reaktionszeit, indem AI -Agenten parallel mit unterschiedlichen Kundenproblemen umgehen können. Diese Funktion führt zwei Abfragen gleichzeitig aus. Asyncio.gather () verarbeitet beide Abfragen gleichzeitig und verkürzt die Reaktionszeit erheblich. Die Funktion gibt die Ergebnisse beider Abfragen zurück, sobald die Ausführung vollständig ist Entwickler definieren Beispielanfragen zum Testen des Systems und deckt häufig kundenspezifische Probleme wie Anmeldefehler und Zahlungsverarbeitungsfehler ab. Dies sind Stichprobenanfragen zum Testen des Systems. Abfrage 1 befasst sich mit Anmeldeproblemen, während Abfrage 2 sich auf Zahlungsgateway -Fehler bezieht. Das System initialisiert eine Ereignisschleife, um asynchrone Operationen zu verarbeiten. Wenn es keine vorhandene Schleife findet, wird eine neue zur Verwaltung der KI -Aufgabenausführung erstellt. Dieser Abschnitt stellt sicher, dass eine Ereignisschleife zur Ausführung asynchroner Aufgaben verfügbar ist. Wenn das System keine Ereignisschleife erkennt (RunTimeError), erstellt es eine neue und setzt es als aktive Schleife. Da Jupyter und Colab bereits vorhandene Ereignisschleifen haben, wird nest_asyncio.apply () verwendet, um Konflikte zu verhindern, um eine reibungslose Ausführung asynchroner Abfragen zu verhindern. Jupyter-Notizbücher und Google Colab haben bereits vorhandene Ereignisschleifen, was bei der Ausführung asynchronischer Funktionen Fehler verursachen kann. nest_asyncio.apply () erlaubt verschachtelte Ereignisschleifen, die Kompatibilitätsprobleme lösen. In der Ereignisschleife wird handle_two_queries () ausgeführt, um Abfragen gleichzeitig zu verarbeiten. Das System druckt die endgültigen Antworten auf AI-generierte und zeigt Abfrageauflösungen und Zusammenfassungen an. Loop.run_until_complete () startet die Ausführung von handle_two_queries (), die beide Abfragen gleichzeitig verarbeitet. Das System druckt die Ergebnisse und zeigt die AI-generierten Auflösungen für jede Abfrage an.
Das System zur gleichzeitigen Abfrageauflösung zeigt, wie die Kollaboration von AI-gesteuerten Multi-Agent-Zusammenarbeit den Kundensupport revolutionieren kann. Durch die Nutzung von Crewai, OpenAI -GPT -Modellen und Google Gemini können Unternehmen die Abfrage zur Handhabung der Abfrage automatisieren und die Effizienz und die Benutzerzufriedenheit verbessern. Dieser Ansatz ebnet den Weg für fortgeschrittenere KI-gesteuerte Service-Lösungen in der Zukunft. a. Crewai ist ein Rahmen, mit dem mehrere KI -Agenten gemeinsam an komplexen Aufgaben arbeiten können. Es ermöglicht die Aufgabenverwaltung, die Rollenspezialisierung und die nahtlose Koordination zwischen Agenten. a. Crewai definiert Agenten mit spezifischen Rollen, weist Aufgaben dynamisch zu und verarbeitet sie entweder nacheinander oder gleichzeitig. Es nutzt AI -Modelle wie OpenAIs GPT und Google Gemini, um Aufgaben effizient auszuführen. a. Crewai verwendet Pythons asyncio.gather (), um mehrere Aufgaben gleichzeitig auszuführen, um eine schnellere Abfrageauflösung ohne Leistungs Engpässe zu gewährleisten. a. Ja, Crewai unterstützt verschiedene große Sprachmodelle (LLMs), darunter OpenAIs GPT-4, GPT-4O und Googles Gemini, mit der Benutzer basierend auf Geschwindigkeits- und Genauigkeitsanforderungen auswählen können. a. Durch die Verwendung verschiedener KI -Modelle mit unterschiedlichen Temperatureinstellungen gleicht Crewai Kreativität und sachliche Korrektheit aus, um zuverlässige Antworten zu gewährleisten. Die in diesem Artikel gezeigten Medien sind nicht im Besitz von Analytics Vidhya und wird nach Ermessen des Autors verwendet.
Warum dies zählt
Schritt 6: Ausführen einer Abfrage mit AI -Agenten
import os
# Set the API key as an environment variable
os.environ["OPENAI_API_KEY"] = ""
Schritt 7: Umgang mit mehreren Abfragen gleichzeitig
import asyncio
from crewai import Agent, Crew, Task, LLM, Process
import google.generativeai as genai
Schritt 8: Beispielabfragen
definieren
# Initialize the LLM with Gemini
llm_1 = LLM(
model="gpt-4o",
temperature=0.7)
llm_2 = LLM(
model="gpt-4",
temperature=0.2)
llm_3 = LLM(
model="gpt-4o",
temperature=0.3)
Schritt 9: Einrichten der Ereignisschleife
import os
# Set the API key as an environment variable
os.environ["OPENAI_API_KEY"] = ""
Schritt 10: Ereignisschleifen in Jupyter Notebook/Google Colab
import asyncio
from crewai import Agent, Crew, Task, LLM, Process
import google.generativeai as genai
Schritt 11: Ausführen von Abfragen und Druckergebnissen
# Initialize the LLM with Gemini
llm_1 = LLM(
model="gpt-4o",
temperature=0.7)
llm_2 = LLM(
model="gpt-4",
temperature=0.2)
llm_3 = LLM(
model="gpt-4o",
temperature=0.3)
Vorteile des gleichzeitigen Abfrageauflösungssystems
Anwendungen des Systems zur gleichzeitigen Abfrageauflösung
Schlussfolgerung
Key Takeaways
häufig gestellte Fragen
Q1. Was ist Crewai?
Das obige ist der detaillierte Inhalt vonGleichzeitiger Abfrageauflösungssystem mit Crewai. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!