


Bahagian Melaksanakan Carian Vektor dengan Ollama
Bahagian 1 meliputi PostgreSQL dengan persediaan pgvector dan Bahagian 2 melaksanakan carian vektor menggunakan pembenaman OpenAI. Bahagian akhir ini menunjukkan cara menjalankan carian vektor secara setempat menggunakan Ollama! ✨
Kandungan
- Kandungan
- Kenapa Ollama?
- Menyediakan Ollama dengan Docker
- Kemas Kini Pangkalan Data
- Pelaksanaan
- Pertanyaan Carian
- Petua Prestasi
- Menyelesaikan masalah
- OpenAI lwn. Ollama
- Selesaikan
Kenapa Ollama? ?
Ollama membolehkan anda menjalankan model AI secara setempat dengan:
- Pengendalian luar talian untuk privasi data yang lebih baik
- Tiada kos API
- Masa respons yang pantas
Kami akan menggunakan model nomic-embed-text dalam Ollama, yang mencipta vektor 768 dimensi (berbanding dengan 1536 dimensi OpenAI).
Menyediakan Ollama dengan Docker ?
Untuk menambahkan Ollama pada persediaan Docker anda, tambahkan perkhidmatan ini ke compose.yml:
services: db: # ... (existing db service) ollama: image: ollama/ollama container_name: ollama-service ports: - "11434:11434" volumes: - ollama_data:/root/.ollama data_loader: # ... (existing data_loader service) environment: - OLLAMA_HOST=ollama depends_on: - db - ollama volumes: pgdata: ollama_data:
Kemudian, mulakan perkhidmatan dan tarik model:
docker compose up -d # Pull the embedding model docker compose exec ollama ollama pull nomic-embed-text # Test embedding generation curl http://localhost:11434/api/embed -d '{ "model": "nomic-embed-text", "input": "Hello World" }'
Kemas Kini Pangkalan Data ?
Kemas kini pangkalan data untuk menyimpan benam Ollama:
-- Connect to the database docker compose exec db psql -U postgres -d example_db -- Add a column for Ollama embeddings ALTER TABLE items ADD COLUMN embedding_ollama vector(768);
Untuk pemasangan baharu, kemas kini postgres/schema.sql:
CREATE TABLE items ( id SERIAL PRIMARY KEY, name VARCHAR(255) NOT NULL, item_data JSONB, embedding vector(1536), # OpenAI embedding_ollama vector(768) # Ollama );
Perlaksanaan ?
Kemas kini requirements.txt untuk memasang pustaka Ollama Python:
ollama==0.3.3
Berikut ialah contoh kemas kini untuk load_data.py untuk menambah benam Ollama:
import ollama # New import def get_embedding_ollama(text: str): """Generate embedding using Ollama API""" response = ollama.embed( model='nomic-embed-text', input=text ) return response["embeddings"][0] def load_books_to_db(): """Load books with embeddings into PostgreSQL""" books = fetch_books() for book in books: description = ( f"Book titled '{book['title']}' by {', '.join(book['authors'])}. " f"Published in {book['first_publish_year']}. " f"This is a book about {book['subject']}." ) # Generate embeddings with both OpenAI and Ollama embedding = get_embedding(description) # OpenAI embedding_ollama = get_embedding_ollama(description) # Ollama # Store in the database store_book(book["title"], json.dumps(book), embedding, embedding_ollama)
Perhatikan bahawa ini ialah versi ringkas untuk kejelasan. Kod sumber penuh ada di sini.
Seperti yang anda lihat, struktur API Ollama adalah serupa dengan OpenAI!
Pertanyaan Carian ?
Pertanyaan carian untuk mendapatkan semula item yang serupa menggunakan benam Ollama:
-- View first 5 dimensions of an embedding SELECT name, (replace(replace(embedding_ollama::text, '[', '{'), ']', '}')::float[])[1:5] as first_dimensions FROM items; -- Search for books about web development: WITH web_book AS ( SELECT embedding_ollama FROM items WHERE name LIKE '%Web%' LIMIT 1 ) SELECT item_data->>'title' as title, item_data->>'authors' as authors, embedding_ollama <=> (SELECT embedding_ollama FROM web_book) as similarity FROM items ORDER BY similarity LIMIT 3;
Petua Prestasi ?
Tambah Indeks
CREATE INDEX ON items USING ivfflat (embedding_ollama vector_cosine_ops) WITH (lists = 100);
Keperluan Sumber
- RAM: ~2GB untuk model
- Pertanyaan pertama: Jangkakan sedikit kelewatan untuk pemuatan model
- Pertanyaan seterusnya: ~50ms masa tindak balas
Sokongan GPU
Jika memproses set data yang besar, sokongan GPU boleh mempercepatkan penjanaan pembenaman. Untuk butiran, rujuk imej Ollama Docker.
Menyelesaikan masalah ?
Ralat Sambungan Ditolak
Perpustakaan Ollama perlu tahu di mana untuk mencari perkhidmatan Ollama. Tetapkan pembolehubah persekitaran OLLAMA_HOST dalam perkhidmatan data_loader:
data_loader: environment: - OLLAMA_HOST=ollama
Ralat Model Tidak Ditemui
Tarik model secara manual:
docker compose exec ollama ollama pull nomic-embed-text
Sebagai alternatif, anda boleh menambah skrip untuk menarik model secara automatik dalam kod Python anda menggunakan fungsi ollama.pull(
Penggunaan Memori Tinggi
- Mulakan semula perkhidmatan Ollama
- Pertimbangkan untuk menggunakan model yang lebih kecil
OpenAI lwn. Ollama ⚖️
Feature | OpenAI | Ollama |
---|---|---|
Vector Dimensions | 1536 | 768 |
Privacy | Requires API calls | Fully local |
Cost | Pay per API call | Free |
Speed | Network dependent | ~50ms/query |
Setup | API key needed | Docker only |
Bungkus?
Tutorial ini hanya merangkumi cara menyediakan carian vektor tempatan dengan Ollama. Aplikasi dunia nyata selalunya termasuk ciri tambahan seperti:
- Pengoptimuman pertanyaan dan prapemprosesan
- Carian hibrid (menggabungkan dengan carian teks penuh)
- Integrasi dengan antara muka web
- Pertimbangan keselamatan dan prestasi
Kod sumber penuh, termasuk API ringkas yang dibina dengan FastAPI, tersedia di GitHub. PR dan maklum balas adalah dialu-alukan!
Sumber:
- Dokumentasi Ollama
- Perpustakaan Ollama Python
- Model Pembenaman Ollama
Soalan atau maklum balas? Tinggalkan komen di bawah! ?
Atas ialah kandungan terperinci Bahagian Melaksanakan Carian Vektor dengan Ollama. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas











Python lebih mudah dipelajari dan digunakan, manakala C lebih kuat tetapi kompleks. 1. Sintaks Python adalah ringkas dan sesuai untuk pemula. Penaipan dinamik dan pengurusan memori automatik menjadikannya mudah digunakan, tetapi boleh menyebabkan kesilapan runtime. 2.C menyediakan kawalan peringkat rendah dan ciri-ciri canggih, sesuai untuk aplikasi berprestasi tinggi, tetapi mempunyai ambang pembelajaran yang tinggi dan memerlukan memori manual dan pengurusan keselamatan jenis.

Adakah cukup untuk belajar Python selama dua jam sehari? Ia bergantung pada matlamat dan kaedah pembelajaran anda. 1) Membangunkan pelan pembelajaran yang jelas, 2) Pilih sumber dan kaedah pembelajaran yang sesuai, 3) mengamalkan dan mengkaji semula dan menyatukan amalan tangan dan mengkaji semula dan menyatukan, dan anda secara beransur-ansur boleh menguasai pengetahuan asas dan fungsi lanjutan Python dalam tempoh ini.

Python lebih baik daripada C dalam kecekapan pembangunan, tetapi C lebih tinggi dalam prestasi pelaksanaan. 1. Sintaks ringkas Python dan perpustakaan yang kaya meningkatkan kecekapan pembangunan. 2. Ciri-ciri jenis kompilasi dan kawalan perkakasan meningkatkan prestasi pelaksanaan. Apabila membuat pilihan, anda perlu menimbang kelajuan pembangunan dan kecekapan pelaksanaan berdasarkan keperluan projek.

Python dan C masing -masing mempunyai kelebihan sendiri, dan pilihannya harus berdasarkan keperluan projek. 1) Python sesuai untuk pembangunan pesat dan pemprosesan data kerana sintaks ringkas dan menaip dinamik. 2) C sesuai untuk prestasi tinggi dan pengaturcaraan sistem kerana menaip statik dan pengurusan memori manual.

Pythonlistsarepartofthestandardlibrary, sementara

Python cemerlang dalam automasi, skrip, dan pengurusan tugas. 1) Automasi: Sandaran fail direalisasikan melalui perpustakaan standard seperti OS dan Shutil. 2) Penulisan Skrip: Gunakan Perpustakaan Psutil untuk memantau sumber sistem. 3) Pengurusan Tugas: Gunakan perpustakaan jadual untuk menjadualkan tugas. Kemudahan penggunaan Python dan sokongan perpustakaan yang kaya menjadikannya alat pilihan di kawasan ini.

Aplikasi Python dalam pengkomputeran saintifik termasuk analisis data, pembelajaran mesin, simulasi berangka dan visualisasi. 1.Numpy menyediakan susunan pelbagai dimensi yang cekap dan fungsi matematik. 2. Scipy memanjangkan fungsi numpy dan menyediakan pengoptimuman dan alat algebra linear. 3. Pandas digunakan untuk pemprosesan dan analisis data. 4.Matplotlib digunakan untuk menghasilkan pelbagai graf dan hasil visual.

Aplikasi utama Python dalam pembangunan web termasuk penggunaan kerangka Django dan Flask, pembangunan API, analisis data dan visualisasi, pembelajaran mesin dan AI, dan pengoptimuman prestasi. 1. Rangka Kerja Django dan Flask: Django sesuai untuk perkembangan pesat aplikasi kompleks, dan Flask sesuai untuk projek kecil atau sangat disesuaikan. 2. Pembangunan API: Gunakan Flask atau DjangorestFramework untuk membina Restfulapi. 3. Analisis Data dan Visualisasi: Gunakan Python untuk memproses data dan memaparkannya melalui antara muka web. 4. Pembelajaran Mesin dan AI: Python digunakan untuk membina aplikasi web pintar. 5. Pengoptimuman Prestasi: Dioptimumkan melalui pengaturcaraan, caching dan kod tak segerak
