Sejak pelancaran ChatGLM-6B pada 14 Mac 2023, model siri GLM telah mendapat perhatian dan pengiktirafan yang meluas. Terutama selepas ChatGLM3-6B menjadi sumber terbuka, pembangun penuh dengan jangkaan untuk model generasi keempat yang dilancarkan oleh Zhipu AI. Jangkaan ini akhirnya telah berpuas hati sepenuhnya dengan keluaran GLM-4-9B.
Untuk memberikan model kecil (10B ke bawah) keupayaan yang lebih berkuasa, pasukan teknikal GLM melancarkan model sumber terbuka siri GLM generasi keempat baharu ini selepas hampir setengah tahun penerokaan :GLM-4-9B. Model ini sangat memampatkan saiz model sambil memastikan ketepatan, dan mempunyai kelajuan inferens yang lebih pantas dan kecekapan yang lebih tinggi. Tiada penghujung penerokaan pasukan teknikal GLM, dan kami akan terus bekerja keras untuk melancarkan sumber terbuka yang lebih kompetitif
Semasa proses pra-latihan, kami memperkenalkan model bahasa yang besar untuk saringan data, dan akhirnya memperoleh data Berbilang bahasa berkualiti tinggi 10T. Jumlah data ini adalah lebih daripada tiga kali ganda daripada model ChatGLM3-6B. Selain itu, kami menggunakan teknologi FP8 untuk pra-latihan yang cekap, yang meningkatkan kecekapan latihan sebanyak 3.5 kali berbanding model generasi ketiga. Dengan mengambil kira keperluan storan pengguna, saiz parameter GLM-4-9B telah dinaikkan daripada 6B kepada 9B. Akhirnya, kami meningkatkan pengiraan pra-latihan sebanyak 5 kali untuk memaksimumkan keupayaan prestasi di bawah keadaan penyimpanan terhad. . dan kelebihan lain. Peningkatan ini memberikan pengguna sokongan teknikal yang lebih stabil, lebih dipercayai dan lebih tepat serta meningkatkan kecekapan dan kualiti kerja pengguna.
Versi asas: GLM-4-9B (8K) Versi perbualan: GLM-4-9B-Chat (128K)
Versi lebih panjang: GLM-4-9B-Chat-1M (1M)
Berikut ialah dua kes video demo yang menunjukkan keupayaan pemprosesan teks panjang:
GLM-4-9B-Model Sembang:
Input 5 fail PDF dengan jumlah panjang kira-kira 128K, dan tulis artikel tentang Prompt for laporan penyelidikan terperinci mengenai pembangunan model besar di China. Model ini boleh menjana laporan penyelidikan berkualiti tinggi dengan cepat (video tidak dipercepatkan).
Keupayaan "All Tools" bermakna model boleh memahami dan menggunakan pelbagai alatan luaran (seperti pelaksanaan kod, penyemakan imbas rangkaian, lukisan, dll.) untuk membantu menyelesaikan tugasan. Pada Zhipu DevDay pada 16 Januari, model GLM-4 telah dinaik taraf sepenuhnya dengan keupayaan Semua Alat, yang boleh memanggil penyemak imbas web, jurubahasa kod, CogView dan alatan lain secara bijak untuk menyelesaikan permintaan yang rumit [ikon tugas Semua Alat].
GLM-4V-9B, model berbilang modal sumber terbuka berdasarkan GLM-4, mampu memproses input resolusi tinggi, mencampurkan terus data visual dan teks untuk latihan, menunjukkan luar biasa Kesan pemprosesan berbilang modal adalah bersamaan dengan prestasi GPT-4V. Ia berfungsi dengan baik apabila mengenal pasti dan memproses tugas berbilang modal yang kompleks [gambar rajah contoh aplikasi berbilang modal].
Pictures
GLM-4-9B telah menunjukkan prestasi hebatnya dalam pelbagai tugas dan merupakan satu kejayaan dalam bidang pemprosesan bahasa semula jadi. Sama ada penyelidikan akademik atau aplikasi industri, GLM-4-9B akan menjadi pilihan terbaik anda.
Kami dengan ikhlas menjemput anda untuk menyertai barisan pengguna GLM-4 dan menerokai kemungkinan yang dibawa oleh model yang sangat baik ini:
Atas ialah kandungan terperinci Universiti Tsinghua dan sumber terbuka Zhipu AI GLM-4: melancarkan revolusi baharu dalam pemprosesan bahasa semula jadi. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!