Blog yang saya gunakan sebagai sumber:
https://dev.to/devopspass-ai/workshop-make-your-first-ai-app-in-a-few-clicks-with-pythonollamallama3-31ib
Selepas menemui panduan DevOps Pass AI tentang membina apl AI dengan Ollama, saya memutuskan untuk meneroka cara ia berfungsi dan mendokumentasikan soalan dan pembelajaran saya sepanjang perjalanan. Inilah yang saya temui semasa membina aplikasi sembang AI pertama saya.
Soalan Awal Saya Ada
Apabila saya mula-mula membaca tutorial, beberapa soalan muncul di fikiran:
Mari kita pelajari apa yang saya pelajari sambil meneroka setiap aspek ini.
Memahami Persediaan AI Setempat
Perkara menarik pertama yang saya perhatikan ialah penggunaan AI tempatan melalui Ollama. Selepas bertanya dan menguji, saya mendapati beberapa kelebihan utama:
Proses persediaan adalah mudah: (Bash)
hidangkan ollama
ollama tarik llama3
Saya pada mulanya bimbang tentang saiz model 4.7GB, tetapi muat turun adalah pantas pada sambungan saya dan ia berjalan lancar walaupun pada mesin pembangunan sederhana saya.
Meneroka Aplikasi Sembang
Bahagian yang paling menarik ialah betapa mudahnya lagi berfungsi aplikasi sembang. Mari kita pecahkan apa yang saya pelajari tentang setiap komponen:
Pengurusan Sejarah Sembang
Saya sangat ingin tahu tentang cara sejarah sembang berfungsi. Kod menggunakan pendekatan bijak: (python)
laluan_fail = sys.argv[1] '.json'
jika os.path.exists(file_path):
dengan open(file_path, 'r') sebagai f:
mesej = json.load(f)
Ini bermakna setiap sesi sembang mengekalkan fail sejarahnya sendiri. Saya menguji ini dengan memulakan berbilang perbualan: (Bash)
python app1.py coding_help
python app1.py devops_queries
bashCopypython app1.py coding_help
python app1.py devops_queries
Masing-masing mencipta fail JSON sendiri, memastikan perbualan berasingan dan berterusan.
Pengendalian Respons AI
Satu perkara yang menarik perhatian saya ialah pelaksanaan respons penstriman:
pythonCopystream = ollama.chat(
model='llama3',
mesej=mesej,
stream=Benar,
)
untuk bahagian dalam strim:
print(chunk['message']['content'], end='', flush=True)
Ini memberikan rasa yang lebih semula jadi kepada perbualan, kerana respons muncul secara beransur-ansur seperti menaip manusia dan bukannya serentak.
Menguji Kes Penggunaan Berbeza
Saya bereksperimen dengan pelbagai jenis soalan untuk memahami keupayaan model:
Soalan Teknikal
Salin>>> Bagaimanakah saya boleh menyediakan pemantauan Kubernetes?
Jawapannya adalah terperinci dan tepat dari segi teknikal.
Penjanaan Kod
Salin>>> Tulis fungsi Python untuk memantau penggunaan CPU
Ia memberikan contoh kod kerja dengan penjelasan.
Perbualan Kontekstual
Salin>>> Apakah amalan terbaik untuk itu?
Model mengekalkan konteks daripada soalan sebelumnya dengan berkesan.
Apa yang Saya Pelajari Tentang Prestasi
Beberapa pemerhatian menarik tentang menjalankan AI secara tempatan:
Respons pertama selepas bermula adalah perlahan sedikit (pemanasan model)
Maklum balas seterusnya adalah pantas
Kualiti respons sepadan dengan banyak perkhidmatan berasaskan awan
Tiada had pendikitan atau kadar untuk dibimbangkan
Soalan Saya Masih Ada
Selepas membina dan menguji aplikasi, saya ingin tahu tentang:
Bagaimana untuk memperhalusi model untuk kes penggunaan tertentu?
Bolehkah kita mengoptimumkan model untuk respons yang lebih pantas?
Apakah cara terbaik untuk menangani ralat atau respons yang tidak dijangka?
Kesimpulan: Adakah Ia Berbaloi Dibina?
Selepas bereksperimen dengan persediaan ini, saya akan katakan ia pasti berbaloi untuk dicuba jika anda:
Ingin belajar tentang integrasi AI
Perlukan penyelesaian AI yang memfokuskan privasi
Berminat untuk membina alatan AI tersuai
Ingin mengelakkan kos API untuk perkhidmatan AI
Keluk pembelajaran sangat lembut dan hasilnya mengagumkan untuk persediaan tempatan.
Soalan untuk Komuniti
Adakah sesiapa yang membina aplikasi AI tempatan yang serupa?
Apakah model lain yang telah anda cuba dengan Ollama?
Bagaimanakah anda mengendalikan kes ralat dalam aplikasi AI anda?
Beri tahu saya dalam ulasan - Saya amat berminat untuk mendengar tentang kes penggunaan dan penambahbaikan yang berbeza!
Atas ialah kandungan terperinci Membuat Apl Sembang AI Pertama Saya: Belajar Daripada DevOps Pass Integrasi Ollama AI. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!