Rumah > Peranti teknologi > AI > Bagaimana untuk menjalankan model Deepseek secara tempatan dalam 5 minit?

Bagaimana untuk menjalankan model Deepseek secara tempatan dalam 5 minit?

Christopher Nolan
Lepaskan: 2025-03-07 09:59:09
asal
642 orang telah melayarinya

DeepSeek telah mengambil komuniti AI dengan ribut, dengan 68 model yang tersedia pada muka memeluk sehingga hari ini. Keluarga model sumber terbuka ini boleh diakses melalui muka yang memeluk atau ollama, manakala DeepSeek-R1 dan DeepSeek-V3 boleh digunakan secara langsung untuk kesimpulan melalui DeepSeek Chat . Dalam blog ini, kami akan meneroka barisan model DeepSeek dan membimbing anda melalui menjalankan model ini menggunakan Google Colab dan Ollama.

Jadual Kandungan

    Gambaran keseluruhan model DeepSeek
  • Running DeepSeek R1 pada ollama
    • Langkah 1: Pasang ollama
    • DeepSeek-Janus-Pro-1b di Google Colab
    • Langkah 1: Klon Repositori DeepSeek-Janus
    • Langkah 2: Pasang dependencies
  • Langkah 3:
  • Gambaran Keseluruhan Model DeepSeek
    • DeepSeek menawarkan pelbagai model, masing -masing dioptimumkan untuk tugas yang berbeza. Berikut adalah pecahan model mana yang sesuai dengan keperluan anda:
    • untuk pemaju & pengaturcara:
    • model DeepSeek-Coder dan DeepSeek-Coder-V2 direka untuk tugas pengekodan seperti menulis dan debugging kod.
    untuk pengguna umum:
  • model DeepSeek-V3
  • adalah pilihan serba boleh yang mampu mengendalikan pelbagai pertanyaan, dari perbualan kasual ke penjanaan kandungan yang kompleks.

untuk penyelidik & pengguna lanjutan:

model DeepSeek-R1

mengkhususkan diri dalam analisis penalaran dan logik lanjutan, menjadikannya sesuai untuk penyelesaian masalah dan penyelidikan.

  • Untuk tugas-tugas penglihatan: Keluarga DeepSeek-Janus dan model DeepSeek-VL disesuaikan untuk tugas multimodal, termasuk penjanaan imej dan pemprosesan.
  • Juga baca: Membina aplikasi AI dengan DeepSeek-V3 menjalankan deepseek r1 pada ollama
  • Langkah 1: Pasang Ollama
  • Untuk menjalankan model DeepSeek pada mesin tempatan anda, anda perlu memasang Ollama:
  • Muat turun Ollama:
  • Klik di sini untuk memuat turun

untuk pengguna Linux: jalankan arahan berikut di terminal anda: Bashcopyedit

Langkah 2: Tarik model DeepSeek R1

Setelah Ollama dipasang, buka antara muka baris arahan anda (CLI) dan tarik model:

  • Anda boleh meneroka model DeepSeek lain yang terdapat di Ollama di sini: Carian Model Ollama. Langkah ini mungkin mengambil sedikit masa, jadi tunggu muat turun selesai.
  • Langkah 3: Jalankan model tempatan Setelah model dimuat turun, anda boleh menjalankannya menggunakan arahan:
curl -fsSL https://ollama.com/install.sh | sh
Salin selepas log masuk

Bagaimana untuk menjalankan model Deepseek secara tempatan dalam 5 minit?

Model kini tersedia untuk digunakan di mesin tempatan dan menjawab soalan saya tanpa sebarang cegukan.

menjalankan deepseek-janus-pro-1b di google colab

Dalam bahagian ini, kami akan mencuba DeepSeek-Janus-Pro-1B menggunakan Google Colab. Sebelum memulakan, pastikan untuk menetapkan runtime ke T4 GPU untuk prestasi optimum.

Langkah 1: Klon repositori Deepseek-Janus

Jalankan arahan berikut dalam buku nota Colab:

ollama pull deepseek-r1:1.5b
Salin selepas log masuk

? Terokai lebih banyak model DeepSeek di GitHub: DeepSeek Ai GitHub Repository

Langkah 2: Pasang Ketergantungan

Navigasi ke direktori klon dan pasangkan pakej yang diperlukan:

ollama pull deepseek-r1:1.5b

pulling manifest 
pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB                         
pulling 369ca498f347... 100% ▕████████████████▏  387 B                         
pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB                         
pulling f4d24e9138dd... 100% ▕████████████████▏  148 B                         
pulling a85fe2a2e58e... 100% ▕████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success 
Salin selepas log masuk

Langkah 3: Muatkan model dan gerakkannya ke GPU

Sekarang, kami akan mengimport perpustakaan yang diperlukan dan memuatkan model ke

cuda (gpu) :

ollama run deepseek-r1:1.5b
Salin selepas log masuk
Langkah 4: Lulus imej untuk diproses

Sekarang, mari lulus imej

ke model dan menghasilkan respons.

? Imej input

Bagaimana untuk menjalankan model Deepseek secara tempatan dalam 5 minit? memulakan peranan prompt dan sistem

memproses input
!git clone https://github.com/deepseek-ai/Janus.git
Salin selepas log masuk

output:
%cd Janus
!pip install -e .
!pip install flash-attn
Salin selepas log masuk

& lt; | user | & gt ;: Apa yang ada dalam imej?

& lt; | pembantu | & gt;: Imej mempunyai bahagian yang berjudul "Artikel Terkini" dengan fokus pada catatan blog. Siaran blog membincangkan "Bagaimana untuk mengakses Deepseek Janus Pro 7b?" dan menonjolkan keupayaan AI multimodalnya dalam penalaran, teks-ke-imej, dan arahan yang mengikuti. Imej itu juga termasuk logo DeepSeek (lumba -lumba) dan corak heksagon di latar belakang.

kita dapat melihat bahawa model itu dapat membaca teks dalam imej dan juga melihat logo DeepSeek dalam imej. Tayangan awal, ia berfungsi dengan baik.

Juga baca: Bagaimana untuk mengakses Deepseek Janus Pro 7b?

Kesimpulan

DeepSeek berkembang pesat sebagai kekuatan yang kuat di AI, menawarkan pelbagai model untuk pemaju, penyelidik, dan pengguna umum. Memandangkan ia bersaing dengan gergasi industri seperti Openai dan Gemini, model kos efektif dan berprestasi tinggi mungkin mendapat penggunaan yang meluas.

Aplikasi model DeepSeek tidak terbatas, mulai dari bantuan pengekodan ke keupayaan penalaran dan multimodal yang maju. Dengan pelaksanaan tempatan yang lancar melalui ollama dan pilihan kesimpulan berasaskan awan, DeepSeek bersedia untuk menjadi penukar permainan dalam penyelidikan dan pembangunan AI.

Jika anda mempunyai sebarang pertanyaan atau menghadapi masalah, jangan ragu untuk bertanya di bahagian komen!

Atas ialah kandungan terperinci Bagaimana untuk menjalankan model Deepseek secara tempatan dalam 5 minit?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Artikel terbaru oleh pengarang
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan