Rumah > hujung hadapan web > tutorial js > Panduan Lengkap untuk Langchain di JavaScript

Panduan Lengkap untuk Langchain di JavaScript

William Shakespeare
Lepaskan: 2025-02-08 10:24:13
asal
829 orang telah melayarinya

langchainjs: rangka kerja yang kuat untuk membina model dan ejen bahasa JavaScript AI-yang

A Complete Guide to LangChain in JavaScript

mata teras:

    Langchainjs adalah rangka kerja JavaScript yang kuat yang membolehkan pemaju membina dan mencuba dengan model bahasa dan ejen yang didorong oleh AI yang disepadukan dengan lancar ke dalam aplikasi web.
  • Rangka kerja ini membolehkan penciptaan ejen yang dapat memanfaatkan pelbagai alat dan sumber data untuk melaksanakan tugas bahasa yang kompleks seperti carian internet dan pengiraan matematik, dengan itu meningkatkan ketepatan dan kaitan respons.
  • Langchain menyokong pelbagai model, termasuk model bahasa untuk output teks mudah, model sembang untuk perbualan interaktif, dan membenamkan model untuk menukar teks ke dalam vektor angka, dengan itu memudahkan pembangunan pelbagai aplikasi NLP.
  • Data teks boleh diuruskan dan diproses dengan cekap melalui kaedah chunking yang disesuaikan, memastikan prestasi optimum dan kaitan kontekstual apabila memproses teks besar.
  • Selain menggunakan model OpenAI, Langchain serasi dengan model bahasa besar (LLMS) dan perkhidmatan AI yang lain, menyediakan keupayaan fleksibiliti dan lanjutan untuk pemaju meneroka integrasi AI yang berbeza dalam projek mereka.
Panduan ini akan menyelam ke dalam komponen utama Langchain dan menunjukkan cara memanfaatkan kuasa dalam JavaScript. Langchainjs adalah rangka kerja JavaScript biasa yang membolehkan pemaju dan penyelidik membuat, mencuba dan menganalisis model dan ejen bahasa. Ia menyediakan peminat pemprosesan bahasa semulajadi (NLP) dengan banyak keupayaan, dari membina model tersuai untuk memanipulasi data teks yang cekap. Sebagai rangka kerja JavaScript, ia juga membolehkan pemaju dengan mudah mengintegrasikan aplikasi AI mereka ke dalam aplikasi web.

Prasyarat:

untuk mempelajari artikel ini, buat folder baru dan pasang pakej NPM Langchain:

npm install -S langchain
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk
Selepas membuat folder baru, gunakan akhiran

untuk membuat fail modul JS baru (contohnya .mjs). test1.mjs

ejen:

Di Langchain, ejen adalah entiti yang dapat memahami dan menghasilkan teks. Ejen-ejen ini boleh mengkonfigurasi tingkah laku dan sumber data tertentu dan dilatih untuk melaksanakan pelbagai tugas yang berkaitan dengan bahasa, menjadikannya alat pelbagai fungsi untuk pelbagai aplikasi.

Buat ejen Langchain: Agensi -agensi boleh dikonfigurasikan untuk menggunakan "alat" untuk mengumpul data yang diperlukan dan membangunkan respons yang baik. Sila lihat contoh di bawah. Ia menggunakan API SERP (API Carian Internet) untuk mencari maklumat yang berkaitan dengan soalan atau input dan menjawabnya. Ia juga menggunakan alat

untuk melaksanakan operasi matematik -contohnya, menukar unit atau mencari perubahan peratusan antara dua nilai:

npm install -S langchain
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk

Selepas membuat pembolehubah model menggunakan modelName: "gpt-3.5-turbo" dan temperature: 0, kami membuat pelaksana yang menggabungkan model yang dicipta dengan alat yang ditentukan (Serpapi dan kalkulator). Dalam input, saya meminta LLM untuk mencari Internet (menggunakan Serpapi) dan mengetahui artis mana yang telah mengeluarkan lebih banyak album sejak 2010 -Nas atau Boldy James -dan menunjukkan perbezaan peratusan (menggunakan kalkulator).

Dalam contoh ini, saya perlu memberitahu LLM secara eksplisit untuk "Melalui Cari Internet ..." untuk mendapatkannya menggunakan Internet untuk mendapatkan data sehingga hari ini, dan bukannya menggunakan OpenAI Default hingga 2021 sahaja.

output adalah seperti berikut:

import { initializeAgentExecutorWithOptions } from "langchain/agents";
import { ChatOpenAI } from "langchain/chat_models/openai";
import { SerpAPI } from "langchain/tools";
import { Calculator } from "langchain/tools/calculator";

process.env["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY"
process.env["SERPAPI_API_KEY"] = "YOUR_SERPAPI_KEY"

const tools = [new Calculator(), new SerpAPI()];
const model = new ChatOpenAI({ modelName: "gpt-3.5-turbo", temperature: 0 });

const executor = await initializeAgentExecutorWithOptions(tools, model, {
  agentType: "openai-functions",
  verbose: false,
});

const result = await executor.run("通过搜索互联网,查找Boldy James自2010年以来发行了多少张专辑,以及Nas自2010年以来发行了多少张专辑?找出谁发行了更多专辑,并显示百分比差异。");
console.log(result);
Salin selepas log masuk
Salin selepas log masuk

Model (model):

Terdapat tiga jenis model di Langchain: LLM, model sembang, dan model penyembuhan teks. Mari kita meneroka setiap jenis model dengan beberapa contoh.

Model Bahasa:

Langchain menyediakan cara untuk menggunakan model bahasa dalam JavaScript untuk menghasilkan output teks berdasarkan input teks. Ia tidak begitu rumit seperti model sembang dan paling sesuai untuk tugas bahasa input-output mudah. Berikut adalah contoh menggunakan OpenAI:

<code>// 输出将取决于互联网搜索结果</code>
Salin selepas log masuk
Salin selepas log masuk

seperti yang anda lihat, ia menggunakan model gpt-3.5-turbo untuk menyenaraikan semua beri merah. Dalam contoh ini, saya menetapkan suhu kepada 0 untuk memberikan ketepatan LLM de facto.

output:

import { OpenAI } from "langchain/llms/openai";

const llm = new OpenAI({
  openAIApiKey: "YOUR_OPENAI_KEY",
  model: "gpt-3.5-turbo",
  temperature: 0
});

const res = await llm.call("列出所有红色的浆果");

console.log(res);
Salin selepas log masuk
Salin selepas log masuk

Model sembang:

Jika anda mahukan jawapan dan perbualan yang lebih kompleks, anda perlu menggunakan model sembang. Secara teknikal, bagaimana model sembang berbeza dari model bahasa? Dalam kata -kata dokumentasi Langchain:

Model sembang adalah varian model bahasa. Walaupun model sembang menggunakan model bahasa di latar belakang, mereka menggunakan antara muka yang sedikit berbeza. Daripada menggunakan "input teks, output teks" API, mereka menggunakan "mesej sembang" sebagai antara muka untuk input dan output.

Ini adalah skrip model sembang javascript yang mudah (agak tidak berguna tetapi menarik):

<code>// 输出将列出红色的浆果</code>
Salin selepas log masuk
Salin selepas log masuk

Seperti yang anda lihat, kod pertama menghantar mesej sistem dan memberitahu chatbot untuk menjadi pembantu puitis yang selalu menjawab dengan puisi, dan kemudian ia menghantar mesej manusia yang memberitahu chatbot untuk memberitahu saya siapa pemain tenis yang lebih baik: De Jokovic, Federer atau Nadal. Sekiranya anda menjalankan model chatbot ini, anda akan melihat sesuatu seperti ini:

import { ChatOpenAI } from "langchain/chat_models/openai";
import { PromptTemplate } from "langchain/prompts";

const chat = new ChatOpenAI({
  openAIApiKey: "YOUR_OPENAI_KEY",
  model: "gpt-3.5-turbo",
  temperature: 0
});
const prompt = PromptTemplate.fromTemplate(`你是一个诗意的助手,总是用押韵来回答:{question}`);
const runnable = prompt.pipe(chat);
const response = await runnable.invoke({ question: "谁更好,德约科维奇、费德勒还是纳达尔?" });
console.log(response);
Salin selepas log masuk
Salin selepas log masuk

Embeddings:

Model Embing menyediakan cara untuk menukar perkataan dan nombor dalam teks ke dalam vektor yang kemudiannya boleh dikaitkan dengan perkataan atau nombor lain. Ini mungkin terdengar abstrak, jadi mari kita lihat contoh:

<code>// 输出将是一个用押韵回答的问题</code>
Salin selepas log masuk

ini akan mengembalikan senarai panjang nombor terapung:

import { OpenAIEmbeddings } from "langchain/embeddings/openai";

process.env["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY"

const embeddings = new OpenAIEmbeddings();
const res = await embeddings.embedQuery("谁创造了万维网?");
console.log(res)
Salin selepas log masuk

Ini adalah apa yang kelihatan seperti. Terdapat banyak nombor titik terapung dalam hanya enam perkataan!

ini dibenamkan kemudian boleh digunakan untuk mengaitkan teks input dengan jawapan yang berpotensi, teks yang berkaitan, nama, dll.

mari kita lihat kes penggunaan untuk model tertanam sekarang ...

Sekarang, ini adalah skrip yang akan menggunakan embeds untuk mendapatkan soalan "Apakah haiwan yang paling berat?"

npm install -S langchain
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk

ketulan:

Model Langchain tidak dapat memproses teks besar dan menggunakannya untuk menghasilkan respons. Di sinilah segmentasi chunking dan teks dimainkan. Biarkan saya menunjukkan kepada anda dua cara mudah untuk memecah data teks ke dalam ketulan sebelum memberi makan kepada Langchain.

segmen oleh watak:

Untuk mengelakkan gangguan secara tiba -tiba dalam chunking, anda boleh memecah teks dengan perenggan dengan memisahkan setiap kejadian watak baru:

import { initializeAgentExecutorWithOptions } from "langchain/agents";
import { ChatOpenAI } from "langchain/chat_models/openai";
import { SerpAPI } from "langchain/tools";
import { Calculator } from "langchain/tools/calculator";

process.env["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY"
process.env["SERPAPI_API_KEY"] = "YOUR_SERPAPI_KEY"

const tools = [new Calculator(), new SerpAPI()];
const model = new ChatOpenAI({ modelName: "gpt-3.5-turbo", temperature: 0 });

const executor = await initializeAgentExecutorWithOptions(tools, model, {
  agentType: "openai-functions",
  verbose: false,
});

const result = await executor.run("通过搜索互联网,查找Boldy James自2010年以来发行了多少张专辑,以及Nas自2010年以来发行了多少张专辑?找出谁发行了更多专辑,并显示百分比差异。");
console.log(result);
Salin selepas log masuk
Salin selepas log masuk
Ini adalah cara yang berguna untuk memecah teks. Walau bagaimanapun, anda boleh menggunakan mana -mana watak sebagai pemisah, bukan hanya

. n

rekursively segmenting chunking:

Jika anda ingin membahagikan teks dengan ketat oleh watak -watak panjang tertentu, anda boleh menggunakan

: RecursiveCharacterTextSplitter

<code>// 输出将取决于互联网搜索结果</code>
Salin selepas log masuk
Salin selepas log masuk
Dalam contoh ini, teks dibahagikan setiap 100 aksara, dan ketulan bertindih hingga 15 aksara.

saiz blok dan tumpang tindih:

Dengan melihat contoh -contoh ini, anda mungkin mula tertanya -tanya apa saiz chunking dan parameter bertindih dan bagaimana ia mempengaruhi prestasi. Ok, izinkan saya menerangkan dua perkara secara ringkas.

    Saiz bahagian menentukan bilangan aksara dalam setiap bahagian. Semakin besar saiz bahagian, semakin banyak data yang ada di bahagian, semakin lama ia mengambil langchain untuk memprosesnya dan menghasilkan output, dan sebaliknya.
  • Blok bertindih adalah kandungan yang berkongsi maklumat antara blok supaya mereka berkongsi beberapa konteks. Semakin tinggi tumpang tindih, semakin berlebihan potongan anda; Biasanya, tumpang tindih yang baik adalah kira -kira 10% hingga 20% daripada saiz chunking, walaupun tumpang tindih yang dikehendaki bervariasi dengan jenis teks yang berbeza dan kes penggunaan.

rantai:

Bab pada dasarnya adalah pelbagai fungsi LLM yang dikaitkan bersama untuk melakukan tugas yang lebih kompleks, jika tidak, ia tidak dapat dilakukan melalui input LLM yang mudah; Mari lihat contoh yang sejuk:

import { OpenAI } from "langchain/llms/openai";

const llm = new OpenAI({
  openAIApiKey: "YOUR_OPENAI_KEY",
  model: "gpt-3.5-turbo",
  temperature: 0
});

const res = await llm.call("列出所有红色的浆果");

console.log(res);
Salin selepas log masuk
Salin selepas log masuk

Beyond Openai:

Walaupun saya telah menggunakan model OpenAI sebagai contoh fungsi Langchain yang berlainan, ia tidak terhad kepada model OpenAI. Anda boleh menggunakan Langchain dengan banyak perkhidmatan LLM dan AI yang lain. Anda boleh mencari senarai lengkap Langchain dan JavaScript Integrated LLMS dalam dokumentasi mereka.

Sebagai contoh, anda boleh menggunakan Cohere dengan Langchain. Selepas memasang Cohere, menggunakan

, anda boleh membuat kod Q & A yang mudah menggunakan Langchain dan Cohere, seperti yang ditunjukkan di bawah: npm install cohere-ai

<code>// 输出将列出红色的浆果</code>
Salin selepas log masuk
Salin selepas log masuk
output:

import { ChatOpenAI } from "langchain/chat_models/openai";
import { PromptTemplate } from "langchain/prompts";

const chat = new ChatOpenAI({
  openAIApiKey: "YOUR_OPENAI_KEY",
  model: "gpt-3.5-turbo",
  temperature: 0
});
const prompt = PromptTemplate.fromTemplate(`你是一个诗意的助手,总是用押韵来回答:{question}`);
const runnable = prompt.pipe(chat);
const response = await runnable.invoke({ question: "谁更好,德约科维奇、费德勒还是纳达尔?" });
console.log(response);
Salin selepas log masuk
Salin selepas log masuk

Kesimpulan:

Dalam panduan ini, anda telah melihat pelbagai aspek dan fungsi Langchain dalam JavaScript. Anda boleh dengan mudah membangunkan aplikasi web berkuasa AI di JavaScript menggunakan Langchain dan bereksperimen dengan LLM. Pastikan anda merujuk kepada dokumentasi Langchainjs untuk maklumat lanjut mengenai ciri -ciri tertentu.

Saya doakan anda gembira dengan pengekodan dan bereksperimen dengan Langchain di JavaScript! Jika anda suka artikel ini, anda juga mungkin ingin membaca artikel tentang menggunakan Langchain dengan Python.

Atas ialah kandungan terperinci Panduan Lengkap untuk Langchain di JavaScript. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Artikel terbaru oleh pengarang
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan