Rumah > hujung hadapan web > tutorial js > Menjalankan LLM tempatan (Ollama) dalam projek nodejs anda.

Menjalankan LLM tempatan (Ollama) dalam projek nodejs anda.

Barbara Streisand
Lepaskan: 2024-11-28 18:45:13
asal
1019 orang telah melayarinya

Kita semua menyukai AI, dan sejak beberapa tahun kebelakangan ini ledakan dalam Kecerdasan Buatan telah mengubah dunia dan membawanya ke era baharu. Untuk sebarang masalah penggunaan, terdapat kes penggunaan AI, iaitu bertanya Gemini tentang resipi masakan, Chatgpt untuk tugasan, Claude untuk pengaturcaraan, V0 untuk reka bentuk bahagian hadapan, pembangun dan pelajar sangat bergantung pada AI pada hari ini yang membawa kepada hampir setiap hari baharu permulaan muncul yang menampilkan AI.

Running local LLM (Ollama) in your nodejs project.

Ini membawa kepada calon pembangun seperti saya soalan tentang bagaimana saya boleh membuat sesuatu seperti ini? Jawapannya ada dalam gambar di atas sahaja. Panggilan API kepada model ini. Tetapi, mereka tidak murah dan pelajar yang menganggur seperti saya tidak mempunyai cara untuk membeli langganan. Ini membawa kepada idea untuk menjalankan AI secara tempatan dan kemudian menyampaikannya pada port untuk panggilan api. Artikel ini akan memberi anda panduan langkah demi langkah tentang cara anda boleh menyediakan Ollama dan mengakses LLM melalui kod nodej anda.

Memasang Ollama

Langkah ini adalah untuk pengguna windows. Jika anda menggunakan sistem pengendalian lain, ikuti panduan ini.

  • Pergi ke Ollama, dan muat turun pemasang mereka.

Running local LLM (Ollama) in your nodejs project.

  • Setelah selesai, hidupkan persediaan dan Pasang aplikasi.

Running local LLM (Ollama) in your nodejs project.

  • Ini kemudiannya akan memasang klien pada mesin anda, dan kini anda boleh pergi ke bahagian perpustakaan tapak web rasmi ollama untuk memilih model yang anda mahu gunakan.

Running local LLM (Ollama) in your nodejs project.

  • Di sini, saya akan menggunakan codellama:7b untuk mesin saya.
  • Buka CMD atau Powershell anda dan jalankan perintah ollama run , ini akan memuat turun model pada mesin anda jika ia sudah tidak wujud dan kemudian akan menjalankannya.

Menyajikan LLM di Pelabuhan

  • Kini anda mempunyai Ollama pada sistem anda dan juga mempunyai LLM yang diperlukan, jadi langkah seterusnya ialah menyampaikannya pada port mesin anda untuk apl nod anda mengaksesnya.
  • Sebelum meneruskan, tutup Ollama dari latar belakang dan semak sama ada port lalai yang diberikan kepada ollama kosong atau tidak dengan menggunakan arahan ini Servis ollama, jika ini menimbulkan ralat maka ini bermakna pelabuhan telah diduduki.
  • Anda perlu mengosongkan port itu sebelum meneruskan, port lalai untuk Ollama ialah 11434
  • Gunakan arahan berikut untuk menyemak proses yang sedang berjalan pada port tersebut netstat -ano | findstr :11434
  • Catat PID daripada hasil di atas dan gunakan arahan ini untuk mengosongkan port. taskkill /PID /F
  • Setelah selesai buka terminal cmd baharu dan jalankan arahan berikut ollama berkhidmat
  • Kini anda akan melihat sesuatu seperti ini yang bermaksud LLM anda kini boleh diakses melalui panggilan API.

Running local LLM (Ollama) in your nodejs project.

Menggunakan pakej npm ollama untuk pengendalian respons req

  • Mulakan projek nod anda dengan mengikut arahan
npm init -y
npm i typescript ollama
npx tsc --init
Salin selepas log masuk
  • ini akan membuat repo untuk anda mula bekerja, mula-mula pergi ke fail tsconfig.json, nyahkomen dan tetapkan nilai ini
"rootDir": "./src",
"outDir": "./dist",
Salin selepas log masuk
  • Buat folder src dan di dalam folder buat fail index.js.
import ollama from 'ollama';

async function main() {
    const response = await ollama.chat({
        model: 'codellama:7b',
        messages: [
            {
                role: 'user', 
                content: 'What color is the sky?'
            }
        ],
    })
    console.log(response.message.content)

}

main()

Salin selepas log masuk
  • Sekarang sebelum menjalankan kod, edit skrip dalam package.json
"scripts": {
    "dev": "tsc -b && node dist/index.js"
  },
Salin selepas log masuk
  • Ini akan membina kod ts menjadi kod js untuk dijalankan.
  • Jalankan aplikasi dengan menggunakan arahan npm jalankan dev di dalam terminal.

Running local LLM (Ollama) in your nodejs project.

  • Ada anda. Akhirnya dapat mengakses LLM tempatan anda dengan nodejs.
  • Anda boleh membaca lebih lanjut tentang pakej nod ollama di sini.

Terima kasih kerana membaca, Harap artikel ini dapat membantu anda dalam apa jua keadaan dan jika ia boleh, sila hubungi sosial saya!

Linkedin | Github

Atas ialah kandungan terperinci Menjalankan LLM tempatan (Ollama) dalam projek nodejs anda.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

sumber:dev.to
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Artikel terbaru oleh pengarang
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan