Rumah > Peranti teknologi > AI > Tutorial TorchChat Pytorch ' s: Persediaan Tempatan dengan Python

Tutorial TorchChat Pytorch ' s: Persediaan Tempatan dengan Python

Christopher Nolan
Lepaskan: 2025-03-04 09:21:10
asal
372 orang telah melayarinya

TorchChat: Membawa kesimpulan model bahasa yang besar ke mesin tempatan anda

Model bahasa yang besar (LLMS) sedang mengubah teknologi, namun menggunakannya pada peranti peribadi telah mencabar kerana batasan perkakasan. Rangka kerja TorchChat yang baru di Pytorch menangani ini, membolehkan pelaksanaan LLM yang cekap merentasi pelbagai platform perkakasan, dari komputer riba ke peranti mudah alih. Artikel ini menyediakan panduan praktikal untuk menubuhkan dan menggunakan Torchchat secara tempatan dengan Python.

Pytorch, Rangka Kerja Pembelajaran Mesin Sumber Sumber AI (adil) Facebook, yang menyokong TorchChat. Fleksibilitasnya meluas ke penglihatan komputer dan pemprosesan bahasa semulajadi.

Ciri -ciri Utama Torchchat:

Torchchat menawarkan empat fungsi teras:

  1. Python/Pytorch LLM Execution: Run LLMS pada mesin dengan python dan pytorch dipasang, berinteraksi secara langsung melalui terminal atau pelayan API REST. Artikel ini memberi tumpuan kepada persediaan ini.
  2. Penyebaran model yang serba lengkap: menggunakan induktor AOT (induktor di hadapan), Torchchat mencipta eksekutif yang serba lengkap (perpustakaan dinamik) bebas daripada Python dan Pytorch. Ini memastikan runtime model stabil dalam persekitaran pengeluaran tanpa rekompilasi. Induktor AOT mengoptimumkan penggunaan melalui format binari yang cekap, melampaui overhead obor.
  3. Pelaksanaan Peranti Mudah Alih: Memanfaatkan Executorch, TorchChat mengoptimumkan model untuk peranti mudah alih dan tertanam, menghasilkan artifak PTE untuk pelaksanaan.
  4. Penilaian Model: Menilai prestasi LLM menggunakan rangka kerja lm_eval, penting untuk penyelidikan dan penandaarasan.

mengapa llms llms secara tempatan?

Pelaksanaan LLM tempatan menawarkan beberapa kelebihan:

  • Privasi yang dipertingkatkan: sesuai untuk data sensitif dalam sektor penjagaan kesihatan, kewangan, dan undang -undang, memastikan data kekal dalam infrastruktur organisasi.
  • Prestasi masa nyata: meminimumkan latensi untuk aplikasi yang memerlukan respons pesat, seperti chatbots interaktif dan penjanaan kandungan masa nyata.
  • keupayaan luar talian: membolehkan penggunaan LLM di kawasan yang mempunyai sambungan internet terhad atau tiada.
  • Pengoptimuman Kos: lebih berkesan kos daripada penggunaan API awan untuk aplikasi volum tinggi.

Persediaan Tempatan dengan Python: Panduan Langkah demi Langkah

  1. klon repositori: klon repositori obor menggunakan git:

    git clone git@github.com:pytorch/torchchat.git
    Salin selepas log masuk
    Salin selepas log masuk

    Sebagai alternatif, muat turun terus dari antara muka GitHub.

    PyTorch's torchchat Tutorial: Local Setup With Python

  2. Pemasangan: Dengan mengandaikan Python 3.10 dipasang, buat persekitaran maya:

    python -m venv .venv
    source .venv/bin/activate
    Salin selepas log masuk
    Salin selepas log masuk
    Pasang kebergantungan menggunakan skrip yang disediakan:

    ./install_requirements.sh
    Salin selepas log masuk
    Salin selepas log masuk
    Sahkan pemasangan:

    git clone git@github.com:pytorch/torchchat.git
    Salin selepas log masuk
    Salin selepas log masuk
  3. Menggunakan TorchChat:

    • Penyenaraian model yang disokong:

      python -m venv .venv
      source .venv/bin/activate
      Salin selepas log masuk
      Salin selepas log masuk

      PyTorch's torchchat Tutorial: Local Setup With Python

    • Muat turun model: Pasang CLI muka yang memeluk (), buat akaun muka yang memeluk, menjana token akses, dan log masuk (pip install huggingface_hub). Muat turun model (mis., huggingface-cli login): stories15M

      ./install_requirements.sh
      Salin selepas log masuk
      Salin selepas log masuk
    • menjalankan model: menghasilkan teks:

      python torchchat.py --help
      Salin selepas log masuk
      atau gunakan mod sembang:

      python torchchat.py list
      Salin selepas log masuk
    • Meminta akses: Untuk model yang memerlukan akses (mis., ), ikuti arahan dalam mesej ralat. llama3

    PyTorch's torchchat Tutorial: Local Setup With Python

    Penggunaan Lanjutan: Prestasi Penalaan Fine

Kawalan ketepatan ():
    Laraskan jenis data untuk kelajuan/ketepatan trade-off (mis.,
  • ). --dtype kompilasi Just-in-Time (JIT) (--dtype fast):
  • Meningkatkan kelajuan kesimpulan (tetapi meningkatkan masa permulaan).
  • --compile kuantisasi (): mengurangkan saiz model dan meningkatkan kelajuan menggunakan fail konfigurasi JSON.
  • Spesifikasi peranti
  • (): --quantize Nyatakan peranti (mis., ).
  • Kesimpulan --device TorchChat memudahkan pelaksanaan LLM tempatan, menjadikan AI maju lebih mudah diakses. Panduan ini menyediakan asas untuk meneroka keupayaannya. Siasatan lanjut ke atas ciri -ciri Torchchat sangat disyorkan.

Atas ialah kandungan terperinci Tutorial TorchChat Pytorch ' s: Persediaan Tempatan dengan Python. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Artikel terbaru oleh pengarang
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan