Rumah > pembangunan bahagian belakang > Tutorial Python > Membuat Apl Sembang AI Pertama Saya: Belajar Daripada DevOps Pass Integrasi Ollama AI

Membuat Apl Sembang AI Pertama Saya: Belajar Daripada DevOps Pass Integrasi Ollama AI

Barbara Streisand
Lepaskan: 2024-12-23 10:33:20
asal
344 orang telah melayarinya

Making My First AI Chat App: Learning From DevOps Pass AI

Blog yang saya gunakan sebagai sumber:

https://dev.to/devopspass-ai/workshop-make-your-first-ai-app-in-a-few-clicks-with-pythonollamallama3-31ib

Selepas menemui panduan DevOps Pass AI tentang membina apl AI dengan Ollama, saya memutuskan untuk meneroka cara ia berfungsi dan mendokumentasikan soalan dan pembelajaran saya sepanjang perjalanan. Inilah yang saya temui semasa membina aplikasi sembang AI pertama saya.

Soalan Awal Saya Ada

Apabila saya mula-mula membaca tutorial, beberapa soalan muncul di fikiran:

  1. Mengapa menggunakan Ollama dan bukannya membuat panggilan API terus ke OpenAI atau perkhidmatan lain?
  2. Apakah yang menjadikan Llama3 pilihan yang baik untuk model AI tempatan?
  3. Bagaimanakah ketekunan sejarah sembang berfungsi, dan mengapa ia penting?

Mari kita pelajari apa yang saya pelajari sambil meneroka setiap aspek ini.

Memahami Persediaan AI Setempat

Perkara menarik pertama yang saya perhatikan ialah penggunaan AI tempatan melalui Ollama. Selepas bertanya dan menguji, saya mendapati beberapa kelebihan utama:

  • Tiada kos API atau had penggunaan
  • Privasi lengkap kerana semuanya berjalan secara setempat
  • Tiada pergantungan internet selepas muat turun model awal
  • Prestasi yang mengejutkan dengan Llama3

Proses persediaan adalah mudah: (Bash)

hidangkan ollama
ollama tarik llama3

Saya pada mulanya bimbang tentang saiz model 4.7GB, tetapi muat turun adalah pantas pada sambungan saya dan ia berjalan lancar walaupun pada mesin pembangunan sederhana saya.

Meneroka Aplikasi Sembang

Bahagian yang paling menarik ialah betapa mudahnya lagi berfungsi aplikasi sembang. Mari kita pecahkan apa yang saya pelajari tentang setiap komponen:

Pengurusan Sejarah Sembang

Saya sangat ingin tahu tentang cara sejarah sembang berfungsi. Kod menggunakan pendekatan bijak: (python)

laluan_fail = sys.argv[1] '.json'
jika os.path.exists(file_path):
dengan open(file_path, 'r') sebagai f:
mesej = json.load(f)

Ini bermakna setiap sesi sembang mengekalkan fail sejarahnya sendiri. Saya menguji ini dengan memulakan berbilang perbualan: (Bash)

python app1.py coding_help
python app1.py devops_queries

bashCopypython app1.py coding_help
python app1.py devops_queries
Masing-masing mencipta fail JSON sendiri, memastikan perbualan berasingan dan berterusan.
Pengendalian Respons AI
Satu perkara yang menarik perhatian saya ialah pelaksanaan respons penstriman:
pythonCopystream = ollama.chat(
model='llama3',
mesej=mesej,
stream=Benar,
)

untuk bahagian dalam strim:
print(chunk['message']['content'], end='', flush=True)
Ini memberikan rasa yang lebih semula jadi kepada perbualan, kerana respons muncul secara beransur-ansur seperti menaip manusia dan bukannya serentak.
Menguji Kes Penggunaan Berbeza
Saya bereksperimen dengan pelbagai jenis soalan untuk memahami keupayaan model:

Soalan Teknikal
Salin>>> Bagaimanakah saya boleh menyediakan pemantauan Kubernetes?
Jawapannya adalah terperinci dan tepat dari segi teknikal.
Penjanaan Kod
Salin>>> Tulis fungsi Python untuk memantau penggunaan CPU
Ia memberikan contoh kod kerja dengan penjelasan.
Perbualan Kontekstual
Salin>>> Apakah amalan terbaik untuk itu?
Model mengekalkan konteks daripada soalan sebelumnya dengan berkesan.

Apa yang Saya Pelajari Tentang Prestasi
Beberapa pemerhatian menarik tentang menjalankan AI secara tempatan:

Respons pertama selepas bermula adalah perlahan sedikit (pemanasan model)
Maklum balas seterusnya adalah pantas
Kualiti respons sepadan dengan banyak perkhidmatan berasaskan awan
Tiada had pendikitan atau kadar untuk dibimbangkan

Soalan Saya Masih Ada
Selepas membina dan menguji aplikasi, saya ingin tahu tentang:

Bagaimana untuk memperhalusi model untuk kes penggunaan tertentu?
Bolehkah kita mengoptimumkan model untuk respons yang lebih pantas?
Apakah cara terbaik untuk menangani ralat atau respons yang tidak dijangka?

Kesimpulan: Adakah Ia Berbaloi Dibina?
Selepas bereksperimen dengan persediaan ini, saya akan katakan ia pasti berbaloi untuk dicuba jika anda:

Ingin belajar tentang integrasi AI
Perlukan penyelesaian AI yang memfokuskan privasi
Berminat untuk membina alatan AI tersuai
Ingin mengelakkan kos API untuk perkhidmatan AI

Keluk pembelajaran sangat lembut dan hasilnya mengagumkan untuk persediaan tempatan.
Soalan untuk Komuniti

Adakah sesiapa yang membina aplikasi AI tempatan yang serupa?
Apakah model lain yang telah anda cuba dengan Ollama?
Bagaimanakah anda mengendalikan kes ralat dalam aplikasi AI anda?

Beri tahu saya dalam ulasan - Saya amat berminat untuk mendengar tentang kes penggunaan dan penambahbaikan yang berbeza!

Atas ialah kandungan terperinci Membuat Apl Sembang AI Pertama Saya: Belajar Daripada DevOps Pass Integrasi Ollama AI. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

sumber:dev.to
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Artikel terbaru oleh pengarang
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan