langchainjs: rangka kerja yang kuat untuk membina model dan ejen bahasa JavaScript AI-yang
mata teras:
Prasyarat:
untuk mempelajari artikel ini, buat folder baru dan pasang pakej NPM Langchain:
npm install -S langchain
untuk membuat fail modul JS baru (contohnya .mjs
). test1.mjs
ejen:
Di Langchain, ejen adalah entiti yang dapat memahami dan menghasilkan teks. Ejen-ejen ini boleh mengkonfigurasi tingkah laku dan sumber data tertentu dan dilatih untuk melaksanakan pelbagai tugas yang berkaitan dengan bahasa, menjadikannya alat pelbagai fungsi untuk pelbagai aplikasi.
Buat ejen Langchain: Agensi -agensi boleh dikonfigurasikan untuk menggunakan "alat" untuk mengumpul data yang diperlukan dan membangunkan respons yang baik. Sila lihat contoh di bawah. Ia menggunakan API SERP (API Carian Internet) untuk mencari maklumat yang berkaitan dengan soalan atau input dan menjawabnya. Ia juga menggunakan alat
untuk melaksanakan operasi matematik -contohnya, menukar unit atau mencari perubahan peratusan antara dua nilai:npm install -S langchain
Selepas membuat pembolehubah model menggunakan modelName: "gpt-3.5-turbo"
dan temperature: 0
, kami membuat pelaksana yang menggabungkan model yang dicipta dengan alat yang ditentukan (Serpapi dan kalkulator). Dalam input, saya meminta LLM untuk mencari Internet (menggunakan Serpapi) dan mengetahui artis mana yang telah mengeluarkan lebih banyak album sejak 2010 -Nas atau Boldy James -dan menunjukkan perbezaan peratusan (menggunakan kalkulator).
Dalam contoh ini, saya perlu memberitahu LLM secara eksplisit untuk "Melalui Cari Internet ..." untuk mendapatkannya menggunakan Internet untuk mendapatkan data sehingga hari ini, dan bukannya menggunakan OpenAI Default hingga 2021 sahaja.
output adalah seperti berikut:
import { initializeAgentExecutorWithOptions } from "langchain/agents"; import { ChatOpenAI } from "langchain/chat_models/openai"; import { SerpAPI } from "langchain/tools"; import { Calculator } from "langchain/tools/calculator"; process.env["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY" process.env["SERPAPI_API_KEY"] = "YOUR_SERPAPI_KEY" const tools = [new Calculator(), new SerpAPI()]; const model = new ChatOpenAI({ modelName: "gpt-3.5-turbo", temperature: 0 }); const executor = await initializeAgentExecutorWithOptions(tools, model, { agentType: "openai-functions", verbose: false, }); const result = await executor.run("通过搜索互联网,查找Boldy James自2010年以来发行了多少张专辑,以及Nas自2010年以来发行了多少张专辑?找出谁发行了更多专辑,并显示百分比差异。"); console.log(result);
Model (model):
Terdapat tiga jenis model di Langchain: LLM, model sembang, dan model penyembuhan teks. Mari kita meneroka setiap jenis model dengan beberapa contoh.
Model Bahasa:
Langchain menyediakan cara untuk menggunakan model bahasa dalam JavaScript untuk menghasilkan output teks berdasarkan input teks. Ia tidak begitu rumit seperti model sembang dan paling sesuai untuk tugas bahasa input-output mudah. Berikut adalah contoh menggunakan OpenAI:
<code>// 输出将取决于互联网搜索结果</code>
seperti yang anda lihat, ia menggunakan model gpt-3.5-turbo
untuk menyenaraikan semua beri merah. Dalam contoh ini, saya menetapkan suhu kepada 0 untuk memberikan ketepatan LLM de facto.
output:
import { OpenAI } from "langchain/llms/openai"; const llm = new OpenAI({ openAIApiKey: "YOUR_OPENAI_KEY", model: "gpt-3.5-turbo", temperature: 0 }); const res = await llm.call("列出所有红色的浆果"); console.log(res);
Model sembang:
Jika anda mahukan jawapan dan perbualan yang lebih kompleks, anda perlu menggunakan model sembang. Secara teknikal, bagaimana model sembang berbeza dari model bahasa? Dalam kata -kata dokumentasi Langchain:
Model sembang adalah varian model bahasa. Walaupun model sembang menggunakan model bahasa di latar belakang, mereka menggunakan antara muka yang sedikit berbeza. Daripada menggunakan "input teks, output teks" API, mereka menggunakan "mesej sembang" sebagai antara muka untuk input dan output.
Ini adalah skrip model sembang javascript yang mudah (agak tidak berguna tetapi menarik):
<code>// 输出将列出红色的浆果</code>
Seperti yang anda lihat, kod pertama menghantar mesej sistem dan memberitahu chatbot untuk menjadi pembantu puitis yang selalu menjawab dengan puisi, dan kemudian ia menghantar mesej manusia yang memberitahu chatbot untuk memberitahu saya siapa pemain tenis yang lebih baik: De Jokovic, Federer atau Nadal. Sekiranya anda menjalankan model chatbot ini, anda akan melihat sesuatu seperti ini:
import { ChatOpenAI } from "langchain/chat_models/openai"; import { PromptTemplate } from "langchain/prompts"; const chat = new ChatOpenAI({ openAIApiKey: "YOUR_OPENAI_KEY", model: "gpt-3.5-turbo", temperature: 0 }); const prompt = PromptTemplate.fromTemplate(`你是一个诗意的助手,总是用押韵来回答:{question}`); const runnable = prompt.pipe(chat); const response = await runnable.invoke({ question: "谁更好,德约科维奇、费德勒还是纳达尔?" }); console.log(response);
Embeddings:
Model Embing menyediakan cara untuk menukar perkataan dan nombor dalam teks ke dalam vektor yang kemudiannya boleh dikaitkan dengan perkataan atau nombor lain. Ini mungkin terdengar abstrak, jadi mari kita lihat contoh:
<code>// 输出将是一个用押韵回答的问题</code>
ini akan mengembalikan senarai panjang nombor terapung:
import { OpenAIEmbeddings } from "langchain/embeddings/openai"; process.env["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY" const embeddings = new OpenAIEmbeddings(); const res = await embeddings.embedQuery("谁创造了万维网?"); console.log(res)
Ini adalah apa yang kelihatan seperti. Terdapat banyak nombor titik terapung dalam hanya enam perkataan!
ini dibenamkan kemudian boleh digunakan untuk mengaitkan teks input dengan jawapan yang berpotensi, teks yang berkaitan, nama, dll.
mari kita lihat kes penggunaan untuk model tertanam sekarang ...
Sekarang, ini adalah skrip yang akan menggunakan embeds untuk mendapatkan soalan "Apakah haiwan yang paling berat?"
npm install -S langchain
ketulan:
Model Langchain tidak dapat memproses teks besar dan menggunakannya untuk menghasilkan respons. Di sinilah segmentasi chunking dan teks dimainkan. Biarkan saya menunjukkan kepada anda dua cara mudah untuk memecah data teks ke dalam ketulan sebelum memberi makan kepada Langchain.
segmen oleh watak:
Untuk mengelakkan gangguan secara tiba -tiba dalam chunking, anda boleh memecah teks dengan perenggan dengan memisahkan setiap kejadian watak baru:
import { initializeAgentExecutorWithOptions } from "langchain/agents"; import { ChatOpenAI } from "langchain/chat_models/openai"; import { SerpAPI } from "langchain/tools"; import { Calculator } from "langchain/tools/calculator"; process.env["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY" process.env["SERPAPI_API_KEY"] = "YOUR_SERPAPI_KEY" const tools = [new Calculator(), new SerpAPI()]; const model = new ChatOpenAI({ modelName: "gpt-3.5-turbo", temperature: 0 }); const executor = await initializeAgentExecutorWithOptions(tools, model, { agentType: "openai-functions", verbose: false, }); const result = await executor.run("通过搜索互联网,查找Boldy James自2010年以来发行了多少张专辑,以及Nas自2010年以来发行了多少张专辑?找出谁发行了更多专辑,并显示百分比差异。"); console.log(result);
. n
rekursively segmenting chunking:
Jika anda ingin membahagikan teks dengan ketat oleh watak -watak panjang tertentu, anda boleh menggunakan: RecursiveCharacterTextSplitter
<code>// 输出将取决于互联网搜索结果</code>
saiz blok dan tumpang tindih:
Dengan melihat contoh -contoh ini, anda mungkin mula tertanya -tanya apa saiz chunking dan parameter bertindih dan bagaimana ia mempengaruhi prestasi. Ok, izinkan saya menerangkan dua perkara secara ringkas.
rantai:
Bab pada dasarnya adalah pelbagai fungsi LLM yang dikaitkan bersama untuk melakukan tugas yang lebih kompleks, jika tidak, ia tidak dapat dilakukan melalui input LLM yang mudah; Mari lihat contoh yang sejuk:
import { OpenAI } from "langchain/llms/openai"; const llm = new OpenAI({ openAIApiKey: "YOUR_OPENAI_KEY", model: "gpt-3.5-turbo", temperature: 0 }); const res = await llm.call("列出所有红色的浆果"); console.log(res);
Beyond Openai:
Walaupun saya telah menggunakan model OpenAI sebagai contoh fungsi Langchain yang berlainan, ia tidak terhad kepada model OpenAI. Anda boleh menggunakan Langchain dengan banyak perkhidmatan LLM dan AI yang lain. Anda boleh mencari senarai lengkap Langchain dan JavaScript Integrated LLMS dalam dokumentasi mereka.Sebagai contoh, anda boleh menggunakan Cohere dengan Langchain. Selepas memasang Cohere, menggunakan
, anda boleh membuat kod Q & A yang mudah menggunakan Langchain dan Cohere, seperti yang ditunjukkan di bawah: npm install cohere-ai
<code>// 输出将列出红色的浆果</code>
import { ChatOpenAI } from "langchain/chat_models/openai"; import { PromptTemplate } from "langchain/prompts"; const chat = new ChatOpenAI({ openAIApiKey: "YOUR_OPENAI_KEY", model: "gpt-3.5-turbo", temperature: 0 }); const prompt = PromptTemplate.fromTemplate(`你是一个诗意的助手,总是用押韵来回答:{question}`); const runnable = prompt.pipe(chat); const response = await runnable.invoke({ question: "谁更好,德约科维奇、费德勒还是纳达尔?" }); console.log(response);
Kesimpulan:
Dalam panduan ini, anda telah melihat pelbagai aspek dan fungsi Langchain dalam JavaScript. Anda boleh dengan mudah membangunkan aplikasi web berkuasa AI di JavaScript menggunakan Langchain dan bereksperimen dengan LLM. Pastikan anda merujuk kepada dokumentasi Langchainjs untuk maklumat lanjut mengenai ciri -ciri tertentu.Saya doakan anda gembira dengan pengekodan dan bereksperimen dengan Langchain di JavaScript! Jika anda suka artikel ini, anda juga mungkin ingin membaca artikel tentang menggunakan Langchain dengan Python.
Atas ialah kandungan terperinci Panduan Lengkap untuk Langchain di JavaScript. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!