- Ejen Resolusi Pertanyaan: Bertanggungjawab untuk memahami pertanyaan pelanggan dan memberikan respons yang tepat.
- Ringkasan Ejen: meringkaskan proses resolusi untuk semakan cepat dan rujukan masa depan.
- LLMS (model bahasa besar): termasuk model seperti GPT-4O dan Gemini, masing-masing dengan konfigurasi yang berbeza untuk mengimbangi kelajuan dan ketepatan.
- Pengurusan Tugas: Menugaskan tugas secara dinamik kepada ejen untuk memastikan pemprosesan pertanyaan serentak.
pelaksanaan sistem resolusi pertanyaan serentak
Untuk mengubah rangka kerja agen AI dari konsep ke realiti, pendekatan pelaksanaan berstruktur adalah penting. Di bawah, kami menggariskan langkah -langkah utama yang terlibat dalam menubuhkan dan mengintegrasikan ejen AI untuk resolusi pertanyaan yang berkesan.
Langkah 1: Menetapkan kekunci API
Kunci API OpenAI disimpan sebagai pemboleh ubah persekitaran menggunakan modul OS. Ini membolehkan sistem mengesahkan permintaan API dengan selamat tanpa kelayakan sensitif yang mengasah.
import os
# Set the API key as an environment variable
os.environ["OPENAI_API_KEY"] = ""
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Sistem menggunakan modul OS untuk berinteraksi dengan sistem operasi.
Sistem ini menetapkan OpenAI_API_Key sebagai pemboleh ubah persekitaran, yang membolehkannya mengesahkan permintaan ke API Openai.
Langkah 2: Mengimport perpustakaan yang diperlukan
perpustakaan yang diperlukan diimport, termasuk Asyncio untuk mengendalikan operasi asynchronous dan komponen krew seperti ejen, krew, tugas, dan LLM. Ini penting untuk menentukan dan menguruskan ejen AI.
import asyncio
from crewai import Agent, Crew, Task, LLM, Process
import google.generativeai as genai
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
- Asyncio: modul terbina dalam Python untuk pengaturcaraan asynchronous, membolehkan pelaksanaan serentak.
- ejen: mewakili pekerja AI dengan tanggungjawab tertentu.
- Crew: Menguruskan pelbagai ejen dan interaksi mereka.
- tugas: mentakrifkan apa yang sepatutnya dilakukan oleh setiap ejen.
- llm: Menentukan model bahasa besar yang digunakan.
- Proses: Ia mentakrifkan bagaimana tugas melaksanakan, sama ada secara berurutan atau selari.
- Google.Generativeai: Perpustakaan untuk bekerja dengan model AI generatif Google (tidak digunakan dalam coretan ini, tetapi mungkin termasuk untuk pengembangan masa depan).
Langkah 3: Inisialisasi LLMS
Tiga contoh LLM yang berbeza (GPT-4O dan GPT-4) diasaskan dengan tetapan suhu yang berbeza-beza. Suhu mengawal kreativiti tindak balas, memastikan keseimbangan antara ketepatan dan fleksibiliti dalam jawapan yang dihasilkan AI.
# Initialize the LLM with Gemini
llm_1 = LLM(
model="gpt-4o",
temperature=0.7)
llm_2 = LLM(
model="gpt-4",
temperature=0.2)
llm_3 = LLM(
model="gpt-4o",
temperature=0.3)
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Sistem ini mencipta tiga contoh LLM, masing -masing dengan konfigurasi yang berbeza.
Parameter:
Model - : Menentukan model OpenAI yang digunakan (GPT-4O atau GPT-4).
- suhu: mengawal rawak dalam respons (0 = deterministik, 1 = lebih kreatif).
model dan suhu yang berbeza ini membantu mengimbangi ketepatan dan kreativiti
Langkah 4: Menentukan ejen AI
Setiap ejen mempunyai peranan khusus dan matlamat yang telah ditetapkan. Dua ejen AI dicipta:
mari kita lihat apa yang berlaku dalam blok kod ini import os
# Set the API key as an environment variable
os.environ["OPENAI_API_KEY"] = ""
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Penciptaan ejen: - The Query_resolution_agent adalah pembantu berkuasa AI yang bertanggungjawab untuk menyelesaikan pertanyaan pelanggan.
Pemilihan model: - Ia menggunakan LLM_1, dikonfigurasi sebagai GPT-4O dengan suhu 0.7. Baki ini membolehkan respons kreatif namun tepat.
Peranan: - Sistem menunjuk ejen sebagai resolver pertanyaan.
backstory: - Program pemaju ejen bertindak sebagai pembantu perkhidmatan pelanggan profesional, memastikan respons yang cekap dan profesional.
Matlamat: - untuk memberikan penyelesaian yang tepat kepada pertanyaan pengguna.
mod verbose: - verbose = true memastikan log terperinci, membantu pemaju debug dan menjejaki prestasinya.
Ringkasan Ejen
Apa yang berlaku di sini?
import asyncio
from crewai import Agent, Crew, Task, LLM, Process
import google.generativeai as genai
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
penciptaan ejen: Summary_agent direka untuk meringkaskan resolusi pertanyaan. -
Pemilihan model:
Menggunakan LLM_2 (GPT-4) dengan suhu 0.2, menjadikan responsnya lebih deterministik dan tepat. -
Peranan:
Ejen ini bertindak sebagai penjana ringkasan. -
backstory:
Ia meringkaskan resolusi pertanyaan dengan ringkas untuk rujukan cepat. -
Matlamat:
Ia memberikan ringkasan yang jelas dan ringkas tentang bagaimana pertanyaan pelanggan diselesaikan. -
mod verbose:
verbose = true memastikan maklumat debugging tersedia jika diperlukan. -
Langkah 5: Menentukan tugas
Sistem secara dinamik menyerahkan tugas untuk memastikan pemprosesan pertanyaan selari.
Bahagian ini mentakrifkan tugas yang diberikan kepada ejen AI dalam sistem resolusi pertanyaan serentak.
Apa yang berlaku di sini?
# Initialize the LLM with Gemini
llm_1 = LLM(
model="gpt-4o",
temperature=0.7)
llm_2 = LLM(
model="gpt-4",
temperature=0.2)
llm_3 = LLM(
model="gpt-4o",
temperature=0.3)
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Menentukan tugas:
- resolusi_task: Tugas ini mengarahkan ejen Resolver pertanyaan untuk menganalisis dan menyelesaikan pertanyaan pelanggan.
- summary_task: Tugas ini mengarahkan ejen ringkasan untuk menghasilkan ringkasan ringkas proses resolusi.
Pengendalian pertanyaan dinamik:
- Sistem menggantikan {query} dengan pertanyaan pelanggan sebenar ketika melaksanakan tugas.
- Ini membolehkan sistem mengendalikan sebarang pertanyaan pelanggan secara dinamik.
Output yang diharapkan:
- resolusi_task mengharapkan tindak balas terperinci kepada pertanyaan.
- Summary_Task menghasilkan ringkasan ringkas resolusi pertanyaan.
tugasan ejen:
- query_resolution_agent ditugaskan untuk mengendalikan tugas resolusi.
- Summary_agent ditugaskan untuk mengendalikan tugas ringkasan.
Kenapa perkara ini
- Pengkhususan tugas: Setiap ejen AI mempunyai pekerjaan tertentu, memastikan kecekapan dan kejelasan.
- Skalabiliti: Anda boleh menambah lebih banyak tugas dan ejen untuk mengendalikan pelbagai jenis interaksi sokongan pelanggan.
- Pemprosesan selari: Tugas boleh dilaksanakan secara serentak, mengurangkan masa tunggu pelanggan.
Langkah 6: Melaksanakan pertanyaan dengan ejen AI
Fungsi asynchronous dibuat untuk memproses pertanyaan. Kelas krew menganjurkan ejen dan tugas, melaksanakannya secara berurutan untuk memastikan resolusi dan ringkasan pertanyaan yang betul.
import os
# Set the API key as an environment variable
os.environ["OPENAI_API_KEY"] = ""
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Fungsi ini mentakrifkan proses tak segerak untuk melaksanakan pertanyaan. Ia mewujudkan contoh krew, yang termasuk:
Ejen - : Ejen AI yang terlibat dalam proses (pertanyaan Resolver dan penjana ringkasan).
Tugas -tugas yang diberikan kepada ejen (Resolusi dan Summarization). -
process = process.sequential:
Memastikan tugas dilaksanakan dalam urutan. -
verbose = true:
membolehkan pembalakan terperinci untuk penjejakan yang lebih baik. -
Fungsi menggunakan menunggu untuk melaksanakan agen AI secara tidak segerak dan mengembalikan hasilnya.
Langkah 7: Mengendalikan pelbagai pertanyaan secara serentak
Menggunakan asyncio.gather (), pelbagai pertanyaan boleh diproses serentak. Ini mengurangkan masa tindak balas dengan membenarkan ejen AI mengendalikan isu pelanggan yang berbeza selari.
Fungsi ini melaksanakan dua pertanyaan secara serentak. Asyncio.Gather () memproses kedua -dua pertanyaan secara serentak, dengan ketara mengurangkan masa tindak balas. Fungsi ini mengembalikan hasil kedua -dua pertanyaan apabila pelaksanaan selesai
import asyncio
from crewai import Agent, Crew, Task, LLM, Process
import google.generativeai as genai
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Langkah 8: Menentukan contoh pertanyaan
Pemaju menentukan pertanyaan sampel untuk menguji sistem, yang meliputi isu sokongan pelanggan yang sama seperti kegagalan log masuk dan kesilapan pemprosesan pembayaran.
Ini adalah pertanyaan sampel untuk menguji sistem.
pertanyaan 1 berurusan dengan isu log masuk, manakala pertanyaan 2 berkaitan dengan ralat gerbang pembayaran.
Langkah 9: Menyediakan gelung acara
Sistem ini memulakan gelung acara untuk mengendalikan operasi tak segerak. Jika ia tidak menemui gelung yang sedia ada, ia mewujudkan yang baru untuk menguruskan pelaksanaan tugas AI.
import os
# Set the API key as an environment variable
os.environ["OPENAI_API_KEY"] = ""
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Bahagian ini memastikan bahawa gelung acara tersedia untuk menjalankan tugas asynchronous.
Jika sistem tidak mengesan gelung peristiwa (runtimeerror berlaku), ia mewujudkan yang baru dan menetapkannya sebagai gelung aktif.
Langkah 10: Pengendalian gelung acara di Jupyter Notebook/Google Colab
Sejak Jupyter dan Colab mempunyai gelung acara yang sedia ada, NEST_ASYNCIO.Apply () digunakan untuk mencegah konflik, memastikan pelaksanaan lancar pertanyaan tak segerak.
import asyncio
from crewai import Agent, Crew, Task, LLM, Process
import google.generativeai as genai
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Notebook Jupyter dan Google Colab mempunyai gelung acara yang sedia ada, yang boleh menyebabkan kesilapan ketika menjalankan fungsi async.
nest_asyncio.apply () membolehkan gelung acara bersarang, menyelesaikan masalah keserasian.
Langkah 11: Melaksanakan pertanyaan dan hasil percetakan
gelung acara berjalan handle_two_queries () untuk memproses pertanyaan secara serentak. Sistem ini mencetak respons AI yang terakhir, memaparkan resolusi dan ringkasan pertanyaan.
# Initialize the LLM with Gemini
llm_1 = LLM(
model="gpt-4o",
temperature=0.7)
llm_2 = LLM(
model="gpt-4",
temperature=0.2)
llm_3 = LLM(
model="gpt-4o",
temperature=0.3)
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
loop.run_until_complete () memulakan pelaksanaan handle_two_queries (), yang memproses kedua -dua pertanyaan secara serentak.
Sistem mencetak hasilnya, memaparkan resolusi AI yang dihasilkan untuk setiap pertanyaan.
Kelebihan Sistem Resolusi Pertanyaan Serentak
Di bawah, kita akan melihat bagaimana sistem resolusi pertanyaan serentak meningkatkan kecekapan dengan memproses pelbagai pertanyaan secara serentak, yang membawa kepada masa tindak balas yang lebih cepat dan pengalaman pengguna yang lebih baik.
Masa tindak balas yang lebih cepat: pelaksanaan selari menyelesaikan pelbagai pertanyaan secara serentak. -
ketepatan yang lebih baik:
memanfaatkan banyak LLMS memastikan keseimbangan antara kreativiti dan ketepatan faktual. -
Skalabiliti:
Sistem boleh mengendalikan jumlah pertanyaan yang tinggi tanpa campur tangan manusia. -
Pengalaman pelanggan yang lebih baik:
ringkasan automatik memberikan gambaran ringkas mengenai resolusi pertanyaan. -
Aplikasi Sistem Resolusi Pertanyaan Serentak
Kami kini akan meneroka pelbagai aplikasi sistem resolusi pertanyaan serentak, termasuk automasi sokongan pelanggan, pengendalian pertanyaan masa nyata dalam chatbots, dan pemprosesan permintaan perkhidmatan berskala besar.
- Automasi Sokongan Pelanggan : Membolehkan chatbots yang didorong oleh AI untuk menyelesaikan pelbagai pertanyaan pelanggan serentak, mengurangkan masa tindak balas.
- Pemprosesan pertanyaan masa nyata : Meningkatkan sistem sokongan langsung dengan mengendalikan banyak pertanyaan secara selari, meningkatkan kecekapan.
- bantuan e-dagang : menyelaraskan pertanyaan produk, pengesanan pesanan, dan resolusi isu pembayaran dalam platform membeli-belah dalam talian.
- Pengurusan Helpdesk IT : Menyokong meja perkhidmatan IT dengan mendiagnosis dan menyelesaikan pelbagai isu teknikal secara serentak.
- Healthcare & Telemedicine : membantu menguruskan pertanyaan pesakit, penjadualan pelantikan, dan nasihat perubatan serentak.
Kesimpulan
Sistem Resolusi Pertanyaan Serentak menunjukkan bagaimana kolaborasi multi-agen yang didorong AI dapat merevolusikan sokongan pelanggan. Dengan memanfaatkan Crewai, model GPT OpenAI, dan Google Gemini, perniagaan boleh mengotomatisasi pengendalian pertanyaan, meningkatkan kecekapan dan kepuasan pengguna. Pendekatan ini membuka jalan bagi penyelesaian perkhidmatan yang lebih maju AI yang lebih maju pada masa akan datang.
Takeaways Key
- ejen AI menyelaraskan sokongan pelanggan, mengurangkan masa tindak balas.
- Crewai membolehkan ejen khusus bekerjasama dengan berkesan.
- Menggunakan Asyncio, pelbagai pertanyaan ditangani secara serentak.
- konfigurasi LLM yang berbeza mengimbangi ketepatan dan kreativiti.
- Sistem boleh menguruskan jumlah pertanyaan yang tinggi tanpa campur tangan manusia.
- Ringkasan automatik memberikan resolusi pertanyaan yang cepat dan jelas.
Soalan Lazim
Q1. Apa itu Crewai? a. Crewai adalah rangka kerja yang membolehkan pelbagai agen AI bekerjasama dengan tugas -tugas yang kompleks. Ia membolehkan pengurusan tugas, pengkhususan peranan, dan koordinasi lancar di kalangan ejen.
Q2. Bagaimana Crewai berfungsi? a. Crewai mentakrifkan ejen dengan peranan tertentu, memberikan tugas secara dinamik, dan memprosesnya sama ada secara berurutan atau serentak. Ia memanfaatkan model AI seperti GPT OpenAI dan Google Gemini untuk melaksanakan tugas dengan cekap.
Q3. Bagaimanakah Crewai mengendalikan pelbagai pertanyaan secara serentak? a. Crewai menggunakan asyncio.gather Python () untuk menjalankan pelbagai tugas secara serentak, memastikan resolusi pertanyaan yang lebih cepat tanpa kesesakan prestasi.
Q4. Bolehkah Crewai diintegrasikan dengan LLM yang berbeza? a. Ya, Crewai menyokong pelbagai model bahasa besar (LLMS), termasuk OpenAI's GPT-4, GPT-4O, dan Gemini Google, yang membolehkan pengguna memilih berdasarkan keperluan kelajuan dan ketepatan. Bagaimanakah Crewai memastikan ketepatan tugas?
a. Dengan menggunakan model AI yang berbeza dengan tetapan suhu yang berbeza -beza, krew mengimbangi kreativiti dan ketepatan faktual, memastikan tindak balas yang boleh dipercayai. Media yang ditunjukkan dalam artikel ini tidak dimiliki oleh Analytics Vidhya dan digunakan pada budi bicara penulis.