Izinkan saya mendahului blog ini dengan mengatakan ini bukan seperti blog saya yang lain di mana saya dapat melalui langkah-langkah yang saya ambil untuk menyelesaikan tugasan. Sebaliknya, ini lebih kepada refleksi tentang cabaran yang saya temui semasa cuba menambahkan ujian pada projek saya, gimme_readme dan perkara yang saya pelajari tentang menguji aplikasi berkuasa LLM sepanjang perjalanan.
Minggu ini, saya dan rakan sekelas Pembangunan Sumber Terbuka ditugaskan untuk menambah ujian pada alatan baris perintah kami yang menggabungkan Model Bahasa Besar (LLM). Ini kelihatan mudah pada mulanya, tetapi ia membawa saya ke dalam lubang arnab dengan kerumitan ujian yang tidak saya jangkakan.
Apabila saya mula-mula membina gimme_readme, saya menambahkan beberapa ujian asas menggunakan Jest.js. Ujian ini agak mudah, memfokuskan terutamanya pada:
Walaupun ujian ini memberikan beberapa liputan, mereka tidak menguji salah satu bahagian paling kritikal dalam aplikasi saya: interaksi LLM.
Ketika saya cuba menambah ujian yang lebih komprehensif, saya mendapat kesedaran yang menarik tentang cara aplikasi saya berkomunikasi dengan LLM. Pada mulanya, saya fikir saya boleh menggunakan Nock.js untuk mengejek permintaan HTTP kepada model bahasa ini. Lagipun, itulah kehebatan Nock - memintas dan mengejek permintaan HTTP untuk ujian.
Walau bagaimanapun, saya mendapati bahawa cara saya menggunakan LLM menyukarkan saya untuk menulis ujian menggunakan Nock.
Di sinilah perkara menjadi menarik. Aplikasi saya menggunakan pelanggan SDK rasmi yang disediakan oleh perkhidmatan LLM seperti Gemini dan Groq Google. SDK ini bertindak sebagai lapisan abstraksi yang mengendalikan semua komunikasi HTTP di sebalik tabir. Walaupun ini menjadikan kod lebih bersih dan lebih mudah untuk digunakan dalam pengeluaran, ia mewujudkan cabaran ujian yang menarik.
Pertimbangkan dua pendekatan ini untuk melaksanakan fungsi LLM:
// Approach 1: Using SDK const groq = new Groq({ apiKey }); const response = await groq.chat.completions.create({ messages: [{ role: "user", content: prompt }], model: "mixtral-8x7b-32768" }); // Approach 2: Direct HTTP requests const response = await fetch('https://api.groq.com/v1/completions', { method: 'POST', headers: { 'Authorization': `Bearer ${apiKey}`, 'Content-Type': 'application/json' }, body: JSON.stringify({ messages: [{ role: "user", content: prompt }], model: "mixtral-8x7b-32768" }) });
Pendekatan SDK adalah lebih bersih dan memberikan pengalaman pembangun yang lebih baik, tetapi ia menjadikan alat mengejek HTTP tradisional seperti Nock kurang berguna. Permintaan HTTP berlaku di dalam SDK, menjadikannya lebih sukar untuk memintas dengan Nock.
Pertimbangkan Strategi Pengujian Awal: Apabila memilih antara SDK dan permintaan HTTP langsung, pertimbangkan cara anda akan menguji pelaksanaan. Kadangkala kod pengeluaran "lebih bersih" mungkin menjadikan ujian lebih mencabar.
Pengujian SDK Memerlukan Alat Berbeza: Apabila menggunakan SDK, anda perlu mengejek pada tahap SDK dan bukannya tahap HTTP. Ini bermakna:
Imbangan Antara Kemudahan dan Kebolehujian: Walaupun SDK memberikan pengalaman pembangun yang hebat, mereka boleh menjadikan pendekatan ujian tertentu lebih sukar. Pertimbangan ini patut dipertimbangkan semasa mereka bentuk aplikasi anda.
Walaupun saya masih belum menyelesaikan sepenuhnya cabaran ujian saya, pengalaman ini telah mengajar saya pelajaran berharga tentang menguji aplikasi yang bergantung pada perkhidmatan luaran melalui SDK. Bagi sesiapa yang membina aplikasi serupa, saya akan mengesyorkan:
Menguji aplikasi LLM memberikan cabaran unik, terutamanya apabila mengimbangi kemudahan pembangunan moden seperti SDK dengan keperluan untuk ujian menyeluruh. Semasa saya masih berusaha untuk meningkatkan liputan ujian untuk gimme_readme, pengalaman ini telah memberikan saya pemahaman yang lebih baik tentang cara mendekati ujian dalam projek masa hadapan yang melibatkan perkhidmatan luaran dan SDK.
Adakah orang lain menghadapi cabaran yang sama semasa menguji aplikasi yang menggunakan LLM SDK? Saya ingin mendengar tentang pengalaman dan penyelesaian anda dalam ulasan!
Atas ialah kandungan terperinci Menguji Aplikasi LLM: Kesalahan dalam SDK Mengejek vs Permintaan HTTP Terus. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!