


Melatih versi Cina ChatGPT tidaklah begitu sukar: anda boleh melakukannya dengan sumber terbuka Alpaca-LoRA+RTX 4090 tanpa A100
Pada tahun 2023, nampaknya hanya tinggal dua kem dalam medan chatbot: "OpenAI's ChatGPT" dan "Others".
ChatGPT berkuasa, tetapi hampir mustahil untuk OpenAI membuka sumbernya. Kem "lain" menunjukkan prestasi yang buruk, tetapi ramai orang mengusahakan sumber terbuka, seperti LLaMA, yang sumber terbuka oleh Meta suatu ketika dahulu.
LLaMA ialah nama umum untuk siri model dengan kuantiti parameter antara 7 bilion hingga 65 bilion Antaranya, model LLaMA 13 bilion boleh mengatasi parameter "pada kebanyakan penanda aras " GPT-3 dengan jumlah 175 bilion. Walau bagaimanapun, model tersebut belum menjalani penalaan arahan (instruct tuning), jadi kesan penjanaan adalah lemah.
Untuk meningkatkan prestasi model, penyelidik dari Stanford membantunya menyelesaikan kerja penalaan halus arahan dan melatih model baharu 7 bilion parameter yang dipanggil Alpaca (berdasarkan LLaMA 7B) . Secara khusus, mereka meminta model teks-davinci-003 OpenAI untuk menjana 52K sampel mengikut arahan dengan cara arahan kendiri sebagai data latihan untuk Alpaca. Keputusan eksperimen menunjukkan bahawa banyak gelagat Alpaca serupa dengan text-davinci-003. Dalam erti kata lain, prestasi model ringan Alpaca dengan hanya parameter 7B adalah setanding dengan model bahasa berskala sangat besar seperti GPT-3.5.
Bagi penyelidik biasa, ini adalah cara yang praktikal dan murah untuk memperhalusi, tetapi jumlah pengiraan masih memerlukan banyak (kata penulis Mereka memperhalusinya selama 3 jam pada lapan 80GB A100s). Selain itu, tugas benih Alpaca semuanya dalam bahasa Inggeris, dan data yang dikumpul juga dalam bahasa Inggeris, jadi model terlatih tidak dioptimumkan untuk bahasa Cina.
Untuk mengurangkan lagi kos penalaan halus, penyelidik lain dari Stanford, Eric J. Wang, menggunakan teknologi LoRA (penyesuaian peringkat rendah) untuk menghasilkan semula hasil Alpaca . Secara khusus, Eric J. Wang menggunakan kad grafik RTX 4090 untuk melatih model yang setara dengan Alpaca dalam masa 5 jam sahaja, mengurangkan keperluan kuasa pengkomputeran model sedemikian kepada tahap pengguna. Selain itu, model ini boleh dijalankan pada Raspberry Pi (untuk penyelidikan).
Prinsip teknikal LoRA. Idea LoRA adalah untuk menambah pintasan di sebelah PLM asal dan melakukan pengurangan dimensi dan kemudian operasi dimensi untuk mensimulasikan kedudukan intrinsik yang dipanggil. Semasa latihan, parameter PLM ditetapkan, dan hanya matriks pengurangan dimensi A dan matriks peningkatan dimensi B dilatih. Dimensi input dan output model kekal tidak berubah, dan parameter BA dan PLM ditindih semasa output. Mulakan A dengan taburan Gaussian rawak dan mulakan B dengan matriks 0 untuk memastikan matriks pintasan masih matriks 0 pada permulaan latihan (dipetik daripada: https://finisky.github.io/lora/). Kelebihan terbesar LoRA ialah ia lebih pantas dan menggunakan kurang memori, jadi ia boleh dijalankan pada perkakasan gred pengguna.
Projek Alpaca-LoRA disiarkan oleh Eric J. Wang.
Alamat projek: https://github.com/tloen/alpaca-lora
Untuk kelas yang ingin melatih diri Ini sudah pasti satu kejutan besar bagi penyelidik yang menggunakan model ChatGPT (termasuk versi Cina ChatGPT) tetapi tidak mempunyai sumber pengkomputeran peringkat atas. Oleh itu, selepas kemunculan projek Alpaca-LoRA, tutorial dan hasil latihan di sekitar projek itu terus muncul, dan artikel ini akan memperkenalkan beberapa daripadanya.
Cara menggunakan Alpaca-LoRA untuk memperhalusi LLaMA
Dalam projek Alpaca-LoRA, penulis menyebut bahawa untuk menyesuaikan dengan murah dan cekap, mereka menggunakan PEFT Hugging Face . PEFT ialah perpustakaan (LoRA ialah salah satu teknologi yang disokongnya) yang membolehkan anda mengambil pelbagai model bahasa berasaskan Transformer dan memperhalusinya menggunakan LoRA. Faedahnya ialah ia membolehkan anda memperhalusi model anda dengan murah dan cekap pada perkakasan sederhana, dengan output yang lebih kecil (mungkin boleh digubah).
Dalam blog baru-baru ini, beberapa penyelidik memperkenalkan cara menggunakan Alpaca-LoRA untuk memperhalusi LLaMA.
Terdapat beberapa prasyarat sebelum menggunakan Alpaca-LoRA. Yang pertama ialah pilihan GPU Terima kasih kepada LoRA, anda kini boleh melengkapkan penalaan halus pada GPU spesifikasi rendah seperti NVIDIA T4 atau 4090 GPU pengguna selain itu, anda juga perlu memohon pemberat LLaMA kerana pemberatnya tidak terbuka.
Sekarang prasyarat dipenuhi, langkah seterusnya ialah cara menggunakan Alpaca-LoRA. Mula-mula anda perlu mengklon repositori Alpaca-LoRA, kodnya adalah seperti berikut:
git clone https://github.com/daanelson/alpaca-lora cd alpaca-lora
Kedua, dapatkan pemberat LLaMA. Simpan nilai berat yang dimuat turun dalam folder bernama unconverted-weights Hierarki folder adalah seperti berikut:
unconverted-weights ├── 7B │ ├── checklist.chk │ ├── consolidated.00.pth │ └── params.json ├── tokenizer.model └── tokenizer_checklist.chk
Selepas pemberat disimpan, gunakan arahan berikut Tukar PyTorch. pemberat pusat pemeriksaan ke dalam format yang serasi dengan pengubah:
cog run python -m transformers.models.llama.convert_llama_weights_to_hf --input_dir unconverted-weights --model_size 7B --output_dir weights
Struktur direktori akhir hendaklah seperti ini:
weights ├── llama-7b └── tokenizermdki
Selepas pengendalian dua langkah di atas, datang ke langkah ketiga dan pasang Cog:
sudo curl -o /usr/local/bin/cog -L "https://github.com/replicate/cog/releases/latest/download/cog_$(uname -s)_$(uname -m)" sudo chmod +x /usr/local/bin/cog
Langkah keempat ialah memperhalusi model Secara lalai, GPU dikonfigurasikan pada fine-. skrip penalaan Kurang berkuasa, tetapi jika anda mempunyai GPU yang lebih baik, anda boleh meningkatkan MICRO_BATCH_SIZE dalam finetune.py kepada 32 atau 64. Selain itu, jika anda mempunyai arahan untuk menala set data, anda boleh mengedit DATA_PATH dalam finetune.py untuk menghala ke set data anda sendiri. Perlu diingatkan bahawa operasi ini harus memastikan bahawa format data adalah sama dengan alpaca_data_cleaned.json. Seterusnya jalankan skrip penalaan halus:
cog run python finetune.py
Proses penalaan halus mengambil masa 3.5 jam pada GPU A100 40GB dan lebih banyak masa pada GPU yang kurang berkuasa.
Langkah terakhir ialah menjalankan model dengan Cog:
$ cog predict -i prompt="Tell me something about alpacas." Alpacas are domesticated animals from South America. They are closely related to llamas and guanacos and have a long, dense, woolly fleece that is used to make textiles. They are herd animals and live in small groups in the Andes mountains. They have a wide variety of sounds, including whistles, snorts, and barks. They are intelligent and social animals and can be trained to perform certain tasks.
Pengarang tutorial mengatakan bahawa selepas melengkapkan langkah di atas , anda boleh terus mencuba pelbagai Cara bermain, termasuk tetapi tidak terhad kepada:
- Bawa set data anda sendiri dan perhalusi LoRA anda sendiri, seperti penalaan halus LLaMA untuk menjadikannya bercakap seperti watak anime. Lihat: https://replicate.com/blog/fine-tune-llama-to-speak-like-homer-simpson
- Sebarkan model ke platform awan;
- Gabungkan dengan LoRA lain, seperti Stable Diffusion LoRA, dan gunakan ini pada medan imej
- Gunakan set data Alpaca (atau set data lain; ) untuk memperhalusi kemas kini model LLaMA yang besar dan melihat prestasinya. Ini boleh dilakukan dengan PEFT dan LoRA, walaupun ia memerlukan GPU yang lebih besar.
Projek terbitan Alpaca-LoRA
Walaupun prestasi Alpaca setanding dengan GPT 3.5, tugas benihnya semuanya dalam bahasa Inggeris dan data yang dikumpul juga dalam bahasa Inggeris , jadi model terlatih tidak mesra Cina. Untuk meningkatkan keberkesanan model dialog dalam bahasa Cina, mari kita lihat beberapa projek yang lebih baik.
Yang pertama ialah model bahasa Cina sumber terbuka Luotuo (Luotuo) oleh tiga pembangun individu dari Central China Normal University dan institusi lain Projek ini berdasarkan LLaMA, Stanford Alpaca, Alpaca LoRA , Japanese-Alpaca -Apabila LoRA selesai, penggunaan latihan boleh diselesaikan dengan satu kad. Menariknya, mereka menamakan model unta kerana kedua-dua LLaMA (llama) dan alpaca (alpaca) tergolong dalam ordo Artiodactyla - keluarga Camelidae. Dari sudut ini, nama ini juga diharapkan.
Model ini berdasarkan LLaMA sumber terbuka Meta dan dilatih dalam bahasa Cina dengan merujuk kepada projek Alpaca dan Alpaca-LoRA.
Alamat projek: https://github.com/LC1332/Chinese-alpaca-lora
Pada masa ini, projek itu telah mengeluarkan dua model, luotuo-lora-7b-0.1 dan luotuo-lora-7b-0.3, dan satu lagi model dirancang:
Berikut ialah paparan kesan:
Tetapi luotuo-lora-7b-0.1 (0.1 ) , luotuo-lora-7b-0.3 (0.3) masih mempunyai jurang Apabila pengguna meminta alamat Central China Normal University, 0.1 menjawab salah:
Selain perbualan ringkas, terdapat juga orang yang telah melakukan pengoptimuman model dalam bidang berkaitan insurans. Menurut pengguna Twitter ini, dengan bantuan projek Alpaca-LoRA, dia memasukkan beberapa data soal jawab insurans Cina, dan keputusan akhir adalah baik.
Secara khusus, penulis menggunakan lebih daripada 3K korpus insurans soal jawab bahasa Cina untuk melatih versi Cina Alpaca LoRa Proses pelaksanaan menggunakan kaedah LoRa dan memperhalusi model Alpaca 7B , yang mengambil masa 240 minit Kehilangan Akhir 0.87.
Sumber imej: https://twitter.com/nash_su/status/1639273900222586882
Berikut ialah proses dan keputusan latihan:
Keputusan ujian menunjukkan bahawa: 1. Kandungan yang berkaitan dengan korpus latihan boleh dijawab secara kasar dan munasabah, tetapi hanya jika ia bukan karut 2. Kandungan yang berkaitan dengan bukan korpus akan membalas secara paksa data dalam korpus tertentu 3. Penaakulan logik dan pengiraan matematik tidak mempunyai keupayaan ini.
Selepas melihat keputusan ini, netizen menjerit bahawa mereka akan kehilangan pekerjaan:
Akhir sekali, kami menantikan lebih banyak model dialog Cina ditambah.
Atas ialah kandungan terperinci Melatih versi Cina ChatGPT tidaklah begitu sukar: anda boleh melakukannya dengan sumber terbuka Alpaca-LoRA+RTX 4090 tanpa A100. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

AI memang mengubah matematik. Baru-baru ini, Tao Zhexuan, yang telah mengambil perhatian terhadap isu ini, telah memajukan keluaran terbaru "Buletin Persatuan Matematik Amerika" (Buletin Persatuan Matematik Amerika). Memfokuskan pada topik "Adakah mesin akan mengubah matematik?", ramai ahli matematik menyatakan pendapat mereka Seluruh proses itu penuh dengan percikan api, tegar dan menarik. Penulis mempunyai barisan yang kuat, termasuk pemenang Fields Medal Akshay Venkatesh, ahli matematik China Zheng Lejun, saintis komputer NYU Ernest Davis dan ramai lagi sarjana terkenal dalam industri. Dunia AI telah berubah secara mendadak Anda tahu, banyak artikel ini telah dihantar setahun yang lalu.

Boston Dynamics Atlas secara rasmi memasuki era robot elektrik! Semalam, Atlas hidraulik hanya "menangis" menarik diri daripada peringkat sejarah Hari ini, Boston Dynamics mengumumkan bahawa Atlas elektrik sedang berfungsi. Nampaknya dalam bidang robot humanoid komersial, Boston Dynamics berazam untuk bersaing dengan Tesla. Selepas video baharu itu dikeluarkan, ia telah pun ditonton oleh lebih sejuta orang dalam masa sepuluh jam sahaja. Orang lama pergi dan peranan baru muncul. Ini adalah keperluan sejarah. Tidak dinafikan bahawa tahun ini adalah tahun letupan robot humanoid. Netizen mengulas: Kemajuan robot telah menjadikan majlis pembukaan tahun ini kelihatan seperti manusia, dan tahap kebebasan adalah jauh lebih besar daripada manusia Tetapi adakah ini benar-benar bukan filem seram? Pada permulaan video, Atlas berbaring dengan tenang di atas tanah, seolah-olah terlentang. Apa yang berikut adalah rahang-jatuh

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Prestasi JAX, yang dipromosikan oleh Google, telah mengatasi Pytorch dan TensorFlow dalam ujian penanda aras baru-baru ini, menduduki tempat pertama dalam 7 penunjuk. Dan ujian tidak dilakukan pada TPU dengan prestasi JAX terbaik. Walaupun dalam kalangan pembangun, Pytorch masih lebih popular daripada Tensorflow. Tetapi pada masa hadapan, mungkin lebih banyak model besar akan dilatih dan dijalankan berdasarkan platform JAX. Model Baru-baru ini, pasukan Keras menanda aras tiga hujung belakang (TensorFlow, JAX, PyTorch) dengan pelaksanaan PyTorch asli dan Keras2 dengan TensorFlow. Pertama, mereka memilih satu set arus perdana

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

Pengesanan objek ialah masalah yang agak matang dalam sistem pemanduan autonomi, antaranya pengesanan pejalan kaki adalah salah satu algoritma terawal untuk digunakan. Penyelidikan yang sangat komprehensif telah dijalankan dalam kebanyakan kertas kerja. Walau bagaimanapun, persepsi jarak menggunakan kamera fisheye untuk pandangan sekeliling agak kurang dikaji. Disebabkan herotan jejari yang besar, perwakilan kotak sempadan standard sukar dilaksanakan dalam kamera fisheye. Untuk mengurangkan perihalan di atas, kami meneroka kotak sempadan lanjutan, elips dan reka bentuk poligon am ke dalam perwakilan kutub/sudut dan mentakrifkan metrik mIOU pembahagian contoh untuk menganalisis perwakilan ini. Model fisheyeDetNet yang dicadangkan dengan bentuk poligon mengatasi model lain dan pada masa yang sama mencapai 49.5% mAP pada set data kamera fisheye Valeo untuk pemanduan autonomi

Kertas kerja ini meneroka masalah mengesan objek dengan tepat dari sudut pandangan yang berbeza (seperti perspektif dan pandangan mata burung) dalam pemanduan autonomi, terutamanya cara mengubah ciri dari perspektif (PV) kepada ruang pandangan mata burung (BEV) dengan berkesan dilaksanakan melalui modul Transformasi Visual (VT). Kaedah sedia ada secara amnya dibahagikan kepada dua strategi: penukaran 2D kepada 3D dan 3D kepada 2D. Kaedah 2D-ke-3D meningkatkan ciri 2D yang padat dengan meramalkan kebarangkalian kedalaman, tetapi ketidakpastian yang wujud dalam ramalan kedalaman, terutamanya di kawasan yang jauh, mungkin menimbulkan ketidaktepatan. Manakala kaedah 3D ke 2D biasanya menggunakan pertanyaan 3D untuk mencuba ciri 2D dan mempelajari berat perhatian bagi kesesuaian antara ciri 3D dan 2D melalui Transformer, yang meningkatkan masa pengiraan dan penggunaan.
