Rumah > Peranti teknologi > AI > PHI-4: Menentukan semula model bahasa dengan data sintetik

PHI-4: Menentukan semula model bahasa dengan data sintetik

尊渡假赌尊渡假赌尊渡假赌
Lepaskan: 2025-03-14 09:27:10
asal
474 orang telah melayarinya

Landskap AI berkembang pesat, dan model bahasa, terutamanya yang direka untuk penalaran dan tugas menyelesaikan masalah, berada di tengah-tengah revolusi ini. Salah satu kejayaan dalam AI ialah PHI-4, model parameter 14 bilion yang dibangunkan oleh Microsoft Research. Apa yang membezakan PHI-4 selain daripada pendahulunya dan model lain adalah pendekatan inovatif untuk latihan-terutamanya penggunaan data sintetik. Dengan mengutamakan kualiti data berbanding kuantiti semata-mata, PHI-4 menunjukkan peningkatan yang luar biasa dalam keupayaan penalaran, menjawab soalan yang berfokus pada STEM, dan tugas pengekodan.

Dalam blog ini, kami akan meneroka PHI-4 secara terperinci, menganalisis setiap komponen seni bina, proses latihan, dan inovasi pasca latihan. Kami akan memecahkan kekuatan utamanya, membincangkan bidang penambahbaikan, dan menerangkan bagaimana ia mengatasi banyak model bahasa lain -walaupun saiz yang lebih besar. Menjelang akhir menyelam yang mendalam ini, anda akan memahami mengapa PHI-4 bukan sekadar model lain, tetapi lonjakan sebenar ke hadapan dalam bidang pemprosesan bahasa semulajadi (NLP).

Objektif pembelajaran

  • Ketahui mengapa data sintetik adalah penting untuk pembangunan PHI-4 dan bagaimana ia meningkatkan prestasi dalam tugas-tugas konteks panjang.
  • Ketahui bagaimana pasukan melatih PHI-4 menggunakan sumber data yang pelbagai, termasuk data sintetik dan bukan sintetik, di tiga peringkat latihan.
  • Ketahui bagaimana panjang konteks PHI-4 meningkat dari 4K hingga 16K token di midtraining dan kesannya terhadap prestasi.
  • Lihat bagaimana PHI-4 menjalani penilaian terhadap tugas-tugas dunia nyata seperti menjawab soalan, ringkasan, dan generasi pengambilan semula, dan membandingkan prestasinya.
  • Dapatkan panduan untuk menjalankan PHI-4 secara tempatan, meliputi persediaan teknikal, keperluan sistem, dan cabaran seperti pencemaran data dan pencemaran data.

Artikel ini diterbitkan sebagai sebahagian daripada Blogathon Sains Data.

Jadual Kandungan

  • Mengapa data sintetik penting?
  • Mengapa data sintetik adalah kunci untuk phi-4?
  • Bagaimana Phi-4 dilatih?
  • Wawasan dari fasa latihan pertengahan
  • Hasil dan pantulan dari selepas latihan
  • Prestasi pada tanda aras utama
  • Cara menjalankan phi-4 secara tempatan
  • Cabaran: Berurusan dengan pencemaran data yang terlalu tinggi dan data
  • Kesimpulan
  • Soalan yang sering ditanya

Mengapa data sintetik penting?

Pada terasnya, PHI-4 adalah model bahasa parameter 14 bilion yang dibangunkan oleh Microsoft Research. Model ini membina kejayaan lelaran sebelumnya dalam keluarga Phi, seperti PHI-3, tetapi memperkenalkan beberapa inovasi utama yang meningkatkan prestasinya terhadap tugas-tugas yang berat. Tidak seperti banyak model bahasa besar lain (LLM) yang bergantung terutamanya kepada sejumlah besar data organik (seperti kandungan web, buku, dan repositori kod), PHI-4 secara strategik menggabungkan sejumlah besar data sintetik dalam saluran paip latihannya. Tumpuan ini pada data sintetik, digabungkan dengan inovasi latihan lain, membolehkan PHI-4 untuk mencapai prestasi yang lebih baik dalam bidang utama-soalan yang berkaitan dengan STEM menjawab dan penyelesaian masalah yang kompleks.

Mengapa data sintetik adalah kunci untuk phi-4?

Dalam komuniti AI, data adalah model latihan model latihan. Biasanya, LLM dilatih menggunakan dataset besar -besaran yang dikikis dari web atau dikendalikan dari buku dan kertas. Walaupun data organik ini berguna, ia sering mengandungi ketidakkonsistenan, maklumat yang tidak relevan, atau kekurangan cabaran berstruktur yang akan mendorong kebolehan penalaran model. Di sinilah data sintetik masuk.

Peranan data sintetik dalam phi-4

Pasukan ini secara buatan menghasilkan data sintetik untuk memenuhi objektif latihan tertentu, menjadikannya alat yang sangat berkesan untuk membimbing proses pembelajaran model. Untuk PHI-4, data sintetik membantu membina dataset berkualiti tinggi yang menggalakkan penalaran yang kuat dan kebolehan menyelesaikan masalah.

  • Pembelajaran berstruktur: Tidak seperti data organik, yang sering memerlukan model untuk menguraikan hubungan kompleks, tidak langsung antara token, data sintetik membolehkan PHI-4 untuk mempelajari lebih sistematik. Sebagai contoh, dalam tugas matematik atau pengekodan, data sintetik memberikan penalaran langkah demi langkah yang jelas, menjadikannya lebih mudah bagi model untuk mengikuti perkembangan logik.
  • Kepelbagaian dalam Cabaran: Data sintetik dapat dihasilkan untuk menampung pelbagai topik dan kemahiran, memastikan model menghadapi pelbagai cabaran. Sebagai contoh, dataset sintetik PHI-4 termasuk masalah matematik yang kompleks, cabaran pengekodan, dan tugas penalaran saintifik-masing-masing direka untuk meregangkan kebolehan kognitif model.
  • Penjajaran dengan konteks kesimpulan: Satu kelebihan utama data sintetik adalah bahawa ia dapat dihasilkan dalam format yang menyelaraskan rapat dengan jenis output model dijangka dihasilkan semasa interaksi dunia nyata. Ini membantu PHI-4 menjana tindak balas yang sesuai secara kontekstual dan lebih sejajar dengan pertanyaan pengguna.

Teknik data sintetik dalam phi-4

Data sintetik Phi-4 bukan hanya dijana secara rawak-ia dibuat dengan teliti menggunakan gabungan teknik canggih:

  • Multi-ejen yang mendorong: pelbagai ejen (model) menjana penyelesaian yang berbeza kepada masalah yang sama, yang kemudian ditapis untuk kualiti dan konsistensi. Ini menghasilkan contoh yang pelbagai dan bernuansa yang mencabar kebolehan menyelesaikan masalah model.
  • Aliran Kerja Revision: Model pada mulanya menjana jawapan, dan kemudian kritikan dan menyempurnakannya melalui gelung maklum balas berulang. Ini membantu meningkatkan ketepatan dan penalaran dalam respons yang dihasilkan.
  • Pembalikan arahan: Untuk tugas pengekodan, PHI-4 menggunakan teknik pembalikan arahan. Ia mengubah coretan kod sedia ada ke dalam penerangan masalah, membantu model menjana penyelesaian dengan berkesan.

Dengan mengutamakan teknik sedemikian, PHI-4 belajar untuk menyelesaikan masalah dengan lebih bijak, sementara juga mengurangkan bias yang mungkin timbul dari dataset semata-mata organik.

Bagaimana Phi-4 dilatih?

Prestasi yang mengagumkan Phi-4 tidak datang semata-mata dari penggunaan data sintetik. Kurikulum latihan model juga penting untuk kejayaannya. Pencipta PHI-4 merancang proses latihan yang canggih yang menggabungkan campuran jenis data yang seimbang, termasuk sumber organik dan data sintetik.

Pretraining dengan campuran sumber data

Model PHI-4 menggunakan seni bina pengubah decoder sahaja dengan 14 bilion parameter dan pada mulanya beroperasi dengan panjang konteks 4096 token. Panjang konteks ini kemudiannya meningkat kepada token 16K semasa fasa midtraining berikutnya. Senibina berkongsi banyak persamaan dengan model PHI-3-medium tetapi memperkenalkan beberapa peningkatan. Terutama, PHI-4 mengamalkan Tiktoken Tokenizer, yang meningkatkan sokongan berbilang bahasa, dan mempunyai saiz perbendaharaan kata sebanyak 100,352 token, termasuk token yang tidak digunakan. Di samping itu, PHI-4 menggunakan perhatian penuh merentasi panjang konteks 4K, pemergian dari pendekatan tetingkap gelongsor 2K yang digunakan dalam PHI-3-medium.

Pasukan itu mempretrain model menggunakan kira-kira 10 trilion token, berikutan jadual pemanasan dan kerosakan linear. Mereka menetapkan kadar pembelajaran puncak kepada 0.0003, menggunakan kerosakan berat badan yang berterusan sebanyak 0.1, dan menggunakan saiz batch global sebanyak 5760. Selepas pretraining, model itu menjalani peringkat midtraining ringkas untuk memperluaskan panjang konteks 4K asal kepada token 16K.

Oleh kerana model pra-terlatih biasanya tidak berfungsi dengan baik pada tugas-tugas yang mengikuti tugas, para penyelidik memilih untuk tidak bergantung pada penilaian 0-shot, seperti evals mudah, yang memerlukan jawapan dalam format tertentu. Sebaliknya, mereka telah membangunkan pendekatan penilaian tersuai untuk pretraining, yang menggabungkan penilaian log-kemungkinan dan beberapa tembakan yang diminta untuk pelbagai tugas. Sebagai contoh, pasukan menggunakan penilaian log-kemungkinan untuk tugas seperti MMLU (5-shot), MMLU-Pro, dan ARCC (1-shot). Di samping itu, mereka melatih model menggunakan contoh 1, 3, 4, dan 8 untuk tugas-tugas seperti Triviaqa (TQA), MBPP, Matematik, dan GSM8K, membantu ia mengikuti format jawapan yang diperlukan dan mengekstrak penyelesaian yang betul.

Wawasan dari fasa latihan pertengahan

Dalam fasa midtraining PHI-4, panjang konteks dilanjutkan dari token 4K asal hingga token 16K. Semasa peringkat ini, para penyelidik menjalankan satu siri kajian ablasi untuk menyiasat bagaimana pelbagai jenis data memberi kesan kepada prestasi model dengan konteks yang panjang. Mereka membandingkan sumber data yang secara semulajadi mempunyai konteks yang lebih panjang dengan data sintetik, di mana urutan yang lebih pendek empuk untuk menghasilkan yang lebih lama. Keputusan menunjukkan bahawa model melakukan lebih baik apabila dilatih pada data yang sememangnya mempunyai konteks yang panjang.

Pasukan ini menyempurnakan dataset mereka dengan menapis data berkualiti tinggi, bukan sintetik seperti kertas akademik, buku, dan kod. Mereka mengasingkan sampel lebih lama daripada token 8k dan memberi lebih banyak berat kepada token 16k atau lebih lama. Dataset sintetik baru dicipta dengan urutan lebih lama daripada token 4K. Campuran dataset akhir mengandungi data konteks panjang 30% dan 70% ingat token dari pretraining. Untuk menampung panjang konteks yang meningkat, pasukan menetapkan frekuensi asas pengekodan kedudukan berputar (tali) kepada 250K. Mereka mengurangkan kadar pembelajaran maksimum dengan faktor 10 dan melatih model dengan 250 bilion token.

Untuk menilai keupayaan PHI-4 untuk mengendalikan konteks yang panjang, para penyelidik menekankan pelbagai tugas dunia nyata, dan bukannya bergantung semata-mata pada tanda aras sintetik seperti jarum-in-a-haystack atau penguasa, yang lebih mudah tetapi kurang mencerminkan senario praktikal. Pasukan memilih tugas -tugas ini dari Helmet [YGH 24] Suite Evaluasi dan purata hasilnya merentasi lima larian untuk setiap kategori.

Rangka Kerja Penilaian

Rangka kerja penilaian termasuk tugas -tugas berikut:

  • REAL: Model mengambil nilai khusus dari fail JSON Long yang dijana secara rawak berdasarkan kunci yang diberikan, diukur menggunakan metrik subem.
  • RAG (Generasi Retrieval-Augmented): Model menjawab soalan berdasarkan pelbagai dokumen Wikipedia yang diambil dan digerakkan, dengan dataset seperti Natural Questions, Hotpotqa, dan Popqa. Keputusan akhir adalah purata di semua dataset, yang dinilai dengan metrik subem.
  • RE-RANK: Dalam tugas ini, model itu menyusun semula dokumen teratas-10 yang diambil untuk pertanyaan yang diberikan, menggunakan dataset MSMARCO. Prestasi diukur dengan NDCG@10.
  • ICL (In-Context Learning): Tugas ini menguji keupayaan model untuk melakukan pembelajaran dalam konteks yang banyak pada dataset seperti TREC kasar, FINE TREC, perbankan77, NLU, dan CLINC150. Hasilnya adalah purata di semua dataset, dengan prestasi yang diukur oleh skor F1.
  • QA (Soalan Menjawab): Model menjawab soalan berdasarkan dokumen yang panjang dari dataset NaratifQAV2, dengan prestasi yang dinilai menggunakan pemarkahan GPT-4O.
  • SUMM (ringkasan): Tugas ini melibatkan meringkaskan dokumen undang-undang yang panjang dari dataset Multi-Lexsum, dengan hasil yang dinilai menggunakan pemarkahan GPT-4O.

Strategi penilaian komprehensif ini secara menyeluruh menguji keupayaan konteks PHI-4 dalam pelbagai tugas praktikal. Ia mencerminkan kebolehgunaan dunia sebenar.

Hasil dan pantulan dari selepas latihan

Latihan Pasca bertujuan untuk mengubah model bahasa pretrained menjadi pembantu AI yang dapat pengguna dapat
selamat berinteraksi dengan. PHI-4 menyelaraskan model pretrain dengan satu pusingan SFT, satu pusingan data DPoon dari kaedah carian token penting kami dan satu pusingan DPO pada pasangan keutamaan panjang penuh. Model ini menjalani pemakanan halus menggunakan format ChATML standard. Templat penggunaan contoh untuk dua pusingan perbualan adalah seperti berikut:

PHI-4: Menentukan semula model bahasa dengan data sintetik

Teknik selepas latihan inovatif

Setelah pretraining selesai, PHI-4 memasuki fasa pasca latihan di mana penalaan halus lagi berlaku. Tahap ini memberi tumpuan kepada penapisan kemampuan pemikiran model dan meningkatkan kualiti outputnya. Beberapa inovasi pasca latihan menyumbang kepada prestasi hebat Phi-4:

  • Penalaan yang diselia dengan baik: inthisphase, penyelidik-menyempurnakan model pretrained dengan kadar pembelajaran 10-6onavarietyofdatagenerated dari data berkualiti tinggi di seluruh domain yang pelbagai, termasuk matematik, pengekodan, penalaran, identiti model, dan identiti model.
  • Pengoptimuman Keutamaan Langsung: Penyelidik menggunakan DPO untuk menyelaraskan model dengan keutamaan manusia, dan juga untuk mengarahkan model dari tingkah laku yang tidak diingini melalui pasangan output yang dikehendaki dan tidak diingini. Data DPO meliputi data format sembang, penalaran, dan data AI (RAI) yang bertanggungjawab dan meningkatkan model dalam matematik, pengekodan, penalaran, ketahanan, dan keselamatan. Mereka melakukan dua pusingan DPO pada model SFT.
  • Carian Token Pivotal (PTS): Teknik novel yang dibangunkan untuk PHI-4, PTS mengenal pasti token utama dalam tindak balas yang mempunyai kesan yang signifikan terhadap kejayaan keseluruhan output model. Ini membolehkan model memberi tumpuan kepada peningkatan token kritikal yang spesifik dalam responsnya, memastikan ketepatan dan keteguhan yang lebih tinggi.

PHI-4: Menentukan semula model bahasa dengan data sintetik

Prestasi pada tanda aras utama

Untuk menilai keupayaan PHI-4, penting untuk mengkaji prestasinya pada tanda aras standard. PHI-4 secara konsisten mengatasi pendahulunya dan banyak model yang lebih besar di beberapa tugas kritikal.

PHI-4: Menentukan semula model bahasa dengan data sintetik

Tugas Batang dan Penalaran

PHI-4 bersinar terutamanya dalam soalan soalan yang berfokus pada STEM (seperti GPQA untuk soalan peringkat siswazah) dan pertandingan matematik (matematik). Walaupun lebih kecil daripada model seperti Llama-3, PHI-4 mencapai hasil yang setanding atau unggul pada tugas-tugas yang berat. Ini adalah bukti penggunaan data sintetik berkesan model dan fokusnya pada penyelesaian masalah yang tersusun.

Sebagai contoh, PHI-4 mengatasi model gurunya, GPT-4, pada banyak penanda aras penalaran seperti GPQA dan matematik, walaupun menjadi model yang lebih kecil. Penggabungan data sintetik yang berkualiti tinggi dan teknik latihan inovatif telah membolehkan PHI-4 melampaui keupayaan model yang lebih besar dalam bidang ini.

Pengekodan dan tugas teknikal

Dalam tugas pengekodan, PHI-4 juga cemerlang, mengatasi model seperti GPT-4 Mini dan QWEN 2.5. Sama ada ia menyelesaikan masalah algoritma dalam manusia atau menangani cabaran pengaturcaraan yang lebih kompleks, keupayaan PHI-4 untuk membuat alasan dan memohon logik dengan berkesan menjadikannya salah satu penghibur teratas dalam ruang pengekodan.

Keselamatan

PHI-4 menunjukkan perlindungan yang mantap daripada menjana kandungan berbahaya atau berat sebelah, memastikan interaksi AI yang beretika dan bertanggungjawab semasa penandaarasan.

PHI-4: Menentukan semula model bahasa dengan data sintetik

Cara menjalankan phi-4 secara tempatan

Menjalankan Phi-4 secara tempatan membolehkan anda berinteraksi dengan model AI lanjutan ini secara langsung dari sistem anda, menawarkan kemudahan dan fleksibiliti untuk ujian atau pembangunan aplikasi. Ikuti langkah -langkah di bawah untuk menetapkannya:

Pasang Ollama

Ollama adalah alat yang memudahkan berjalan dan berinteraksi dengan model AI seperti PHI-4. Mulakan dengan memasang Ollama pada sistem anda. Anda boleh mencari arahan pemasangan terperinci di laman web rasmi Ollama.

Jalankan Phi-4 di baris arahan

Sebaik sahaja Ollama dipasang, anda boleh menjalankan model Phi-4 dengan satu arahan di terminal atau PowerShell anda:

 Ollama Run Vanilj/Phi-4
Salin selepas log masuk

Perintah ini memulakan model PHI-4 dan membolehkan anda berinteraksi dengannya secara langsung di CLI anda. Anda boleh mula berbual atau bertanya dengan segera.

Mengintegrasikan PHI-4 dengan Langchain

Untuk kes penggunaan yang lebih maju, seperti mengintegrasikan PHI-4 ke dalam aliran kerja atau aplikasi, anda boleh menggunakan Langkhain dengan Ollama. Langchain menyediakan alat untuk bekerja dengan model bahasa secara programatik.

  • Pasang perpustakaan Langchain-ollama:
 %Pip Install -u Langchain -ollama
Salin selepas log masuk
  • Gunakan skrip Python berikut untuk menjalankan Phi-4 melalui Langchain:
 dari langchain_core.prompts import chatpromptplate
dari langchain_ollama.llms Import Ollamallm
templat = "" "soalan: {soalan}
Jawapan: Mari kita fikirkan langkah demi langkah. "" "
prompt = chatPromptTemplate.from_template (templat)
Model = Olamallm (Model = "Vanilj/Phi-4")
rantai = prompt | model
cetak (chain.invoke ({"Soalan": "Tulis puisi pada ai?"}))
Salin selepas log masuk

PHI-4: Menentukan semula model bahasa dengan data sintetik

Cabaran: Berurusan dengan pencemaran data yang terlalu tinggi dan data

Tiada model yang sempurna, dan PHI-4 mempunyai cabaran tersendiri. Overfitting adalah kebimbangan umum dalam pembangunan AI. Ia berlaku apabila model menjadi terlalu khusus untuk melatih data, mencederakan generalisasi. PHI-4 menangani ini dengan menggunakan proses dekontaminasi data. Ini memastikan tiada data ujian dimasukkan dalam latihan, mengurangkan risiko yang terlalu banyak.

Pengurangan overfitting

Dengan menggunakan dataset segar, seperti pertandingan matematik AMC-10 dan AMC-12 November 2024, PHI-4 telah menunjukkan bahawa ia dapat menyebarkan jauh melebihi latihannya dan melaksanakan dengan baik pada tugas-tugas baru. Ini adalah penting untuk memastikan bahawa PHI-4 kekal sebagai alat yang mantap dan boleh dipercayai untuk aplikasi dunia sebenar.

Kelemahan

  • Arahan berikut: Walaupun PHI-4 berfungsi dengan baik dalam tugas-tugas penalaran, ia berjuang dengan arahan yang ketat. Tugas -tugas yang memerlukan arahan format atau arahan gaya kompleks kadang -kadang boleh menyebabkan model itu melelehkan kursus.
  • Hallucinations Factual: PHI-4 masih berjuang dengan ketepatan faktual dalam beberapa kes, terutamanya dalam menghasilkan maklumat mengenai individu yang tidak wujud atau hipotetikal.

Kesimpulan

PHI-4 adalah penukar permainan dalam dunia model bahasa. Gabungannya dari penjanaan data sintetik yang inovatif, teknik latihan canggih, dan penambahbaikan pasca latihan membezakannya daripada banyak model lain. PHI-4 menunjukkan bahawa dengan pendekatan yang tepat untuk latihan, kualiti dapat mengalahkan kuantiti-mencapai prestasi unggul dalam tugas-tugas penalaran, STEM Q & A, dan cabaran pengekodan, walaupun lebih kecil daripada banyak model kontemporari.

PHI-4 bukan tanpa cabarannya, terutamanya di sekitar arahan-mengikuti dan ketepatan faktual. Walau bagaimanapun, kebolehan yang luar biasa dalam penalaran logik dan penyelesaian masalah menjadikannya satu langkah penting ke hadapan di ruang AI. Apabila AI berkembang, penggunaan data sintetik Phi-4 menetapkan model untuk perkembangan masa depan di lapangan. Ia membantu menolak sempadan apa yang mungkin dengan model bahasa.

Takeaways utama

  • PHI-4 memanfaatkan data sintetik untuk mengutamakan kualiti melebihi kuantiti, meningkatkan penalarannya, menjawab soalan STEM, dan keupayaan pengekodan.
  • Data sintetik dalam PHI-4 memperkenalkan pembelajaran berstruktur, pelbagai cabaran, dan penjajaran yang lebih baik dengan konteks kesimpulan dunia.
  • Latihan PHI-4 termasuk pretraining, midtraining dengan panjang konteks lanjutan, dan teknik pasca latihan yang inovatif untuk penalaan halus.
  • Midtraining memperluaskan panjang konteks PHI-4 dari 4K hingga 16K token, mengoptimumkannya untuk tugas-tugas konteks panjang.
  • Penilaian PHI-4 menekankan tugas-tugas dunia nyata seperti RAG, ringkasan, dan pembelajaran dalam konteks untuk pandangan praktikal.
  • Inovasi selepas latihan, termasuk penalaan yang diselia dan pengoptimuman keutamaan langsung, memperbaiki pemikiran dan keselamatan PHI-4.
  • Senibina Phi-4, ditambah dengan dataset dan teknik latihan lanjutan, menetapkan penanda aras baru di NLP untuk mengendalikan tugas penyelesaian masalah yang kompleks.

Soalan yang sering ditanya

Q1. Apakah phi-4 dan bagaimana ia berbeza dengan model sebelumnya?

A. PHI-4 adalah model AI yang berskala besar, canggih berdasarkan seni bina pengubah decoder sahaja. PHI-4 membina model seperti Phi-3-medium dengan meningkatkan panjang konteks kepada token 16K. Ia juga memperkenalkan teknik pengolahan data yang lebih baik, termasuk Tiktoken, untuk sokongan berbilang bahasa yang lebih baik.

S2. Mengapa data sintetik penting untuk latihan phi-4?

A. Data sintetik memainkan peranan penting dalam latihan phi-4, kerana ia membantu model mengendalikan tugas konteks panjang dengan lebih berkesan. Dengan menggabungkan data dunia nyata dengan urutan yang dihasilkan secara sintetik, PHI-4 secara umum lebih baik merentasi pelbagai senario. Ini meningkatkan prestasinya terhadap tugas yang memerlukan penalaran merentasi dataset yang besar.

Q3. Apakah peringkat utama proses latihan Phi-4?

Latihan A. Phi-4 melibatkan tiga peringkat. Pretraining menggunakan sumber data yang pelbagai. Midtraining memperluaskan panjang konteks dari 4K hingga 16K token. Posttraining termasuk teknik penalaan halus seperti SFT, pembelajaran tetulang dengan DPO, dan pensampelan token (pts) dari peringkat pretraining.

Q4. Bagaimanakah PHI-4 melaksanakan tugas-tugas dunia sebenar?

A. PHI-4 cemerlang dalam pelbagai tanda aras dunia nyata, termasuk menjawab soalan, ringkasan, dan generasi pengambilan semula. PHI-4 cemerlang dalam tugas-tugas pemikiran melalui dokumen yang panjang, dinilai menggunakan dataset yang pelbagai dari suite penilaian HELM.

Media yang ditunjukkan dalam artikel ini tidak dimiliki oleh Analytics Vidhya dan digunakan atas budi bicara penulis.

Atas ialah kandungan terperinci PHI-4: Menentukan semula model bahasa dengan data sintetik. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan