Rumah Peranti teknologi AI Jamba 1.5: Menampilkan Senibina Mamba-Transformer Hibrid

Jamba 1.5: Menampilkan Senibina Mamba-Transformer Hibrid

Mar 19, 2025 am 11:15 AM

Jamba 1.5: Model bahasa hibrid yang kuat untuk pemprosesan konteks panjang

Jamba 1.5, model bahasa besar yang canggih dari makmal AI21, menawarkan keupayaan yang mengagumkan untuk mengendalikan konteks teks yang luas. Terdapat dalam dua versi - Jamba 1.5 besar (94 bilion parameter) dan Jamba 1.5 mini (12 bilion parameter) - ia memanfaatkan seni bina hibrid yang unik yang menggabungkan Model Space State (SSM) berstruktur Mamba dengan seni bina pengubah tradisional. Pendekatan inovatif ini membolehkan pemprosesan tetingkap konteks yang tidak pernah berlaku sebelum ini, lonjakan yang ketara untuk model sumber terbuka.

Jamba 1.5: Menampilkan Senibina Mamba-Transformer Hibrid

Ciri dan keupayaan utama:

  • Tingkap konteks besar -besaran: Proses sehingga token 256K, sesuai untuk dokumen yang panjang dan tugas -tugas yang kompleks.
  • Senibina hibrid: Menggabungkan kekuatan model pengubah dan Mamba untuk kecekapan dan prestasi yang optimum.
  • Kuantisasi yang efisien: Menggunakan Pakar Kuantisasi untuk mengurangkan jejak memori dan pemprosesan yang lebih cepat.
  • Sokongan berbilang bahasa: Fungsi dengan berkesan merentasi sembilan bahasa: Bahasa Inggeris, Sepanyol, Perancis, Portugis, Itali, Belanda, Jerman, Arab, dan Ibrani.
  • Aplikasi serba boleh: Sesuai untuk pelbagai tugas NLP, termasuk menjawab soalan, ringkasan, penjanaan teks, dan klasifikasi.
  • Penyebaran yang boleh diakses: Boleh didapati melalui AI21's Studio API, Hugging Face, dan Rakan Awan.

Butiran Senibina:

Jamba 1.5: Menampilkan Senibina Mamba-Transformer Hibrid

Aspek Perincian
Senibina asas Senibina Transformer-Mamba Hibrid dengan Modul Campuran-of-Experts (MOE)
Varian model Jamba-1.5-besar (parameter aktif 94B, jumlah 398B) dan Jamba-1.5-Mini (parameter aktif 12B, jumlah 52B)
Komposisi lapisan 9 blok, masing -masing dengan 8 lapisan; Nisbah 1: 7 pengubah ke lapisan Mamba
Campuran Pakar (MOE) 16 pakar, memilih Top 2 Per teratas
Dimensi tersembunyi 8192
Kepala perhatian 64 kepala pertanyaan, 8 kepala nilai kunci
Panjang konteks Sehingga token 256k
Teknik kuantisasi PakarInt8 untuk lapisan MOE dan MLP
Fungsi pengaktifan Pengaktifan Transformer dan Mamba Bersepadu
Kecekapan Dioptimumkan untuk kelebihan tinggi dan latensi rendah pada GPU 8x80GB

Mengakses dan menggunakan Jamba 1.5:

Jamba 1.5 mudah diakses melalui API studio AI21 dan memeluk muka. Model ini boleh disesuaikan dengan domain tertentu untuk meningkatkan prestasi. Contoh python menggunakan API AI21 disediakan di bawah:

Contoh Python:

 dari AI21 Import AI21Client
dari ai21.models.chat import chatmessage

Mesej = [chatmessage (kandungan = "Apa tokenizer dalam 2-3 baris?", Role = "User")]
pelanggan = AI21Client (API_KEY = '') # Ganti '' dengan kekunci API anda
response = client.chat.completions.create (
    mesej = mesej,
    Model = "Jamba-1.5-Mini",
    stream = benar
)
untuk sebahagian tindak balas:
    cetak (chunk.choices [0] .delta.content, end = "") 
Salin selepas log masuk

Jamba 1.5: Menampilkan Senibina Mamba-Transformer HibridJamba 1.5: Menampilkan Senibina Mamba-Transformer HibridJamba 1.5: Menampilkan Senibina Mamba-Transformer Hibrid

Kesimpulan:

Jamba 1.5 mewakili kemajuan yang ketara dalam model bahasa yang besar, yang menawarkan gabungan kuasa dan kecekapan yang menarik. Keupayaannya untuk mengendalikan konteks yang sangat panjang, ditambah dengan aplikasi serba boleh dan pilihan penempatan yang boleh diakses, menjadikannya alat yang berharga untuk pelbagai tugas NLP.

Soalan Lazim (Soalan Lazim): (Sama seperti yang asal, tetapi diubahsuai untuk kesesatan)

  • S1: Apakah Jamba 1.5? A: Model bahasa pengubah hibrid-Mamba yang besar dengan parameter 94b (besar) atau 12b (mini), dioptimumkan untuk pengajaran berikut dan pemprosesan konteks panjang.
  • S2: Bagaimanakah Jamba 1.5 mengendalikan konteks panjang dengan cekap? A: Melalui Senibina Hibrid dan Pakar Kuantisasi, membolehkan tetingkap konteks token 256k dengan penggunaan memori yang dikurangkan.
  • S3: Apakah kuantisasi PakarT8? A: Teknik mampatan menggunakan ketepatan INT8 dalam lapisan MOE dan MLP untuk kecekapan yang lebih baik.
  • S4: Adakah Jamba 1.5 tersedia secara terbuka? A: Ya, di bawah lesen Model Terbuka Jamba, boleh diakses melalui muka yang memeluk.

Atas ialah kandungan terperinci Jamba 1.5: Menampilkan Senibina Mamba-Transformer Hibrid. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Bermula dengan Meta Llama 3.2 - Analytics Vidhya Bermula dengan Meta Llama 3.2 - Analytics Vidhya Apr 11, 2025 pm 12:04 PM

Meta's Llama 3.2: Lompat ke hadapan dalam Multimodal dan Mobile AI META baru -baru ini melancarkan Llama 3.2, kemajuan yang ketara dalam AI yang memaparkan keupayaan penglihatan yang kuat dan model teks ringan yang dioptimumkan untuk peranti mudah alih. Membina kejayaan o

10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajari 10 Pelanjutan pengekodan AI generatif dalam kod vs yang mesti anda pelajari Apr 13, 2025 am 01:14 AM

Hei ada, pengekodan ninja! Apa tugas yang berkaitan dengan pengekodan yang anda telah merancang untuk hari itu? Sebelum anda menyelam lebih jauh ke dalam blog ini, saya ingin anda memikirkan semua kesengsaraan yang berkaitan dengan pengekodan anda-lebih jauh menyenaraikan mereka. Selesai? - Let &#8217

AV Bytes: Meta ' s llama 3.2, Google's Gemini 1.5, dan banyak lagi AV Bytes: Meta ' s llama 3.2, Google's Gemini 1.5, dan banyak lagi Apr 11, 2025 pm 12:01 PM

Landskap AI minggu ini: Badai kemajuan, pertimbangan etika, dan perdebatan pengawalseliaan. Pemain utama seperti Openai, Google, Meta, dan Microsoft telah melepaskan kemas kini, dari model baru yang terobosan ke peralihan penting di LE

Menjual Strategi AI kepada Pekerja: Manifesto CEO Shopify Menjual Strategi AI kepada Pekerja: Manifesto CEO Shopify Apr 10, 2025 am 11:19 AM

Memo CEO Shopify Tobi Lütke baru -baru ini dengan berani mengisytiharkan penguasaan AI sebagai harapan asas bagi setiap pekerja, menandakan peralihan budaya yang signifikan dalam syarikat. Ini bukan trend seketika; Ini adalah paradigma operasi baru yang disatukan ke p

Panduan Komprehensif untuk Model Bahasa Visi (VLMS) Panduan Komprehensif untuk Model Bahasa Visi (VLMS) Apr 12, 2025 am 11:58 AM

Pengenalan Bayangkan berjalan melalui galeri seni, dikelilingi oleh lukisan dan patung yang terang. Sekarang, bagaimana jika anda boleh bertanya setiap soalan dan mendapatkan jawapan yang bermakna? Anda mungkin bertanya, "Kisah apa yang anda ceritakan?

GPT-4O vs OpenAI O1: Adakah model Openai baru bernilai gembar-gembur? GPT-4O vs OpenAI O1: Adakah model Openai baru bernilai gembar-gembur? Apr 13, 2025 am 10:18 AM

Pengenalan OpenAI telah mengeluarkan model barunya berdasarkan seni bina "strawberi" yang sangat dijangka. Model inovatif ini, yang dikenali sebagai O1, meningkatkan keupayaan penalaran, yang membolehkannya berfikir melalui masalah MOR

Membaca Indeks AI 2025: Adakah AI rakan, musuh, atau juruterbang bersama? Membaca Indeks AI 2025: Adakah AI rakan, musuh, atau juruterbang bersama? Apr 11, 2025 pm 12:13 PM

Laporan Indeks Perisikan Buatan 2025 yang dikeluarkan oleh Stanford University Institute for Manusia Berorientasikan Kecerdasan Buatan memberikan gambaran yang baik tentang revolusi kecerdasan buatan yang berterusan. Mari kita menafsirkannya dalam empat konsep mudah: kognisi (memahami apa yang sedang berlaku), penghargaan (melihat faedah), penerimaan (cabaran muka), dan tanggungjawab (cari tanggungjawab kita). Kognisi: Kecerdasan buatan di mana -mana dan berkembang pesat Kita perlu menyedari betapa cepatnya kecerdasan buatan sedang berkembang dan menyebarkan. Sistem kecerdasan buatan sentiasa bertambah baik, mencapai hasil yang sangat baik dalam ujian matematik dan pemikiran kompleks, dan hanya setahun yang lalu mereka gagal dalam ujian ini. Bayangkan AI menyelesaikan masalah pengekodan kompleks atau masalah saintifik peringkat siswazah-sejak tahun 2023

3 Kaedah untuk menjalankan Llama 3.2 - Analytics Vidhya 3 Kaedah untuk menjalankan Llama 3.2 - Analytics Vidhya Apr 11, 2025 am 11:56 AM

Meta's Llama 3.2: Powerhouse AI Multimodal Model multimodal terbaru Meta, Llama 3.2, mewakili kemajuan yang ketara dalam AI, yang membanggakan pemahaman bahasa yang dipertingkatkan, ketepatan yang lebih baik, dan keupayaan penjanaan teks yang unggul. Keupayaannya t

See all articles