


Masih bimbang tidak dapat bermain ChatGPT? Anda juga boleh mengalami dialog pintar dengan sedozen alternatif sumber terbuka ini
Sudah hampir empat bulan sejak keluaran awal ChatGPT. Dalam tempoh ini, prestasi hebat ChatGPT membuatkan orang tertanya-tanya sama ada AIGC akan direalisasikan lebih awal.
Walau bagaimanapun, rahsia yang terkenal ialah ChatGPT tidak mungkin menjadi sumber terbuka Ditambah dengan pelaburan besar dalam kuasa pengkomputeran dan data latihan yang besar, ia telah menetapkan banyak halangan untuk penyelidikan. komuniti untuk meniru tahap pelaksanaannya.
Menghadapi serangan ChatGPT, alternatif sumber terbuka adalah pilihan yang baik Walaupun ia mencapai fungsi yang sama, ia juga boleh membolehkan anda memahami mekanisme pengendalian ChatGPT melalui alternatif.
Dengan kemajuan teknologi, banyak model AI baharu lain yang serupa dengan ChatGPT kini telah muncul. Dalam artikel ini, kami akan mengambil kira projek penggantian sumber terbuka ChatGPT. Kandungan akan dibahagikan kepada dua bahagian, satu ialah ringkasan projek sumber terbuka seperti ChatGPT, dan satu lagi adalah tambahan kepada ringkasan projek.
Ringkasan projek
Pengarang projek nichtdax telah menyusun 9 projek penggantian ChatGPT sumber terbuka. Mereka akan diperkenalkan satu persatu seterusnya.
Alamat projek: https://github.com/nichtdax/awesome -toally-open-chatgpt
PaLM-rlhf-pytorch
Projek pertama ialah " PaLM-rlhf-pytorch", pengarang projek ialah Phil Wang. Projek ini adalah pelaksanaan RLHF (Pembelajaran Pengukuhan dengan Maklum Balas Manusia) di atas seni bina PaLM, yang pada asasnya ChatGPT menggunakan PaLM.
Projek ini telah menerima 5.8k bintang di GitHub.
Alamat projek: https://github.com/lucidrains/PaLM-rlhf- pytorch
Gambar berikut menunjukkan proses latihan.
OpenChatKit
Projek kedua ialah "OpenChatKit Menyediakan a asas sumber terbuka yang berkuasa untuk mencipta chatbot khusus dan tujuan umum untuk pelbagai aplikasi. Kit ini termasuk model bahasa parameter 20 bilion yang ditala arahan, model penalaan parameter 6 bilion dan sistem perolehan berskala yang merangkumi respons terkini daripada repositori tersuai.
OpenChatKit dilatih pada set data latihan OIG-43M, yang merupakan gabungan Together, LAION dan Ontocord.ai. Penulis projek menyatakan bahawa ini bukan sahaja keluaran model, tetapi juga permulaan projek sumber terbuka. Mereka mengeluarkan satu set alat dan proses dan terus memperbaikinya melalui sumbangan komuniti.
Projek ini telah menerima 5.7k bintang di GitHub.
Alamat projek: https://github.com/togethercomputer/OpenChatKit
text-generation-webui
Projek ketiga ialah "text-generation-webui", yang merupakan alat untuk menjalankan GPT-J 6B, OPT, GALACTICA, LLaMA dan Gradio UI web untuk model bahasa besar seperti Pygmalion. Projek ini bertujuan untuk menjadi AUTOMATIC1111/stable-diffusion-webui bagi penjanaan teks.
Ciri-ciri termasuk menggunakan menu lungsur untuk bertukar antara model yang berbeza, menyediakan mod buku nota yang serupa dengan taman permainan OpenAI, mod sembang untuk dialog dan main peranan, menjana output HTML yang cantik dan banyak lagi.
Projek ini telah menerima 3.4k di GitHub.
Alamat projek: https://github.com/oobabooga/text-generation- webui
KoboldAI-Client
Projek keempat ialah "KoboldAI-Client", yang merupakan front-end berasaskan pelayar melalui berbilang model AI tempatan dan jauh Laksanakan AI -menulis dibantu.
KoboldAI-Client menyediakan rangkaian alat standard, termasuk memori, nota pengarang, maklumat dunia, simpan & muat, tetapan AI boleh laras, pilihan pemformatan dan mengimport teks sedia ada Kebolehan permainan pengembaraan AI Dungeon. Anda boleh menghidupkan mod Pengembaraan atau bermain permainan seperti AI Dungeon Unleashed.
Projek telah menerima 1.4k di GitHub.
Alamat projek: https://github.com/KoboldAI/KoboldAI-Client
Open-Assistant
Projek kelima ialah "Open-Assistant", yang bertujuan untuk menjadikan model bahasa berasaskan sembang besar boleh diakses oleh semua orang. Pengarang projek berharap dapat mencetuskan revolusi dalam inovasi bahasa, sama seperti penyebaran yang stabil membantu dunia mencipta seni dan imej dengan cara baharu.
Pengarang projek merancang untuk mengumpul sampel pelaksanaan arahan yang dijana manusia berkualiti tinggi (arahan + respons), dengan matlamat >50k. Bagi setiap petunjuk yang dikumpul, mereka akan mencuba beberapa hasil penyiapan. Seterusnya, masukkan fasa latihan RLHF berdasarkan model arahan dan ganjaran.
Projek ini telah menerima 19k bintang di GitHub.
Alamat projek: https://github.com/LAION-AI/Open- Pembantu
stanford_alpaca
Projek keenam ialah "stanford_alpaca", yang bertujuan untuk membina dan berkongsi model LLaMA yang mengikut arahan. Repo ini mengandungi 52k data untuk memperhalusi model, kod untuk menjana data dan kod untuk memperhalusi model.
Projek ini telah menerima 9.5k bintang di GitHub.
Alamat projek: https://github.com/tatsu-lab/stanford_alpaca
ChatRWKV
Projek ketujuh ialah "ChatRWKV", yang serupa dengan ChatGPT, tetapi disokong oleh model RWKV (100% RNN) dan sumber terbuka. Menurut pengarang projek, RWKV kini merupakan satu-satunya model RNN yang boleh memadankan transformer dari segi kualiti dan kebolehskalaan, sambil menjadi lebih pantas dan menjimatkan VRAM.
Projek ini telah menerima 3.5k bintang di GitHub.
Alamat projek: https://github.com/BlinkDL/ChatRWKV
ChatGLM-6B
Projek kelapan ialah sumber terbuka Wisdom AI syarikat dan model bahasa perbualan Cina-Inggeris dwibahasa "ChatGLM-6B" yang diubah daripada pencapaian teknologi Tsinghua, berdasarkan Model Bahasa Umum (GLM) dengan 6.2 bilion parameter. Digabungkan dengan teknologi pengkuantitian model, pengguna boleh menggunakannya secara tempatan pada kad grafik gred pengguna (minimum 6GB memori video diperlukan pada tahap pengkuantitian INT4).
ChatGLM-6B menggunakan teknologi yang serupa dengan ChatGPT dan dioptimumkan untuk Soal Jawab dan dialog Cina. Selepas latihan dwibahasa dalam bahasa Cina dan Inggeris dengan kira-kira pengecam 1T, ditambah dengan penalaan halus yang diselia, layan diri maklum balas, pembelajaran pengukuhan maklum balas manusia dan teknologi lain, ChatGLM-6B dengan 6.2 bilion parameter telah dapat menjana jawapan yang agak konsisten dengan keutamaan manusia.
Walau bagaimanapun, disebabkan oleh skala kecil ChatGLM-6B, ia kini diketahui mempunyai beberapa batasan, seperti ralat logik fakta/matematik, kemungkinan menjana berbahaya/berat sebelah kandungan, dan Kemahiran kontekstual yang lemah, persepsi diri yang keliru, dan penghasilan arahan bahasa Inggeris yang bercanggah sepenuhnya dengan arahan bahasa Cina.
Projek ini telah menerima 6k bintang di GitHub.
Alamat projek: https://github.com/THUDM/ChatGLM-6B
Antaranya, BLOOMZ ialah 176 bilion parameter dan model berbilang bahasa akses terbuka (di sini secara khusus merujuk kepada T5X Google ialah set data seliaan dalam 46 bahasa; dengan Terdapat gesaan dalam bahasa Inggeris dan terjemahan mesin.
Alamat projek: https://github.com/bigscience-workshop/xmtf
Pautan kertas: https://research.facebook.com/publications/llama-open-and-efficient-foundation-language -models/
- Pautan GitHub: https://github.com/facebookresearch/llama
- Berdasarkan penyelidikan ini, pembangun Beberapa projek sumber terbuka juga telah dicadangkan. llama.cpp boleh menjalankan LLaMA tanpa GPU
projek llama.cpp telah merealisasikan menjalankan LLaMA pada MacBook, dan pembangun telah berjaya menjalankan LLaMA pada MacBook dengan 4GB RAM LLaMA 7B sedang berjalan pada Raspberry Pi. Ringkasnya, pembangun boleh menjalankan model LLaMA walaupun mereka tidak mempunyai GPU.
Alamat projek: https://github.com/ggerganov/llama.cpp
ChatLLaMA
Memandangkan siri model besar LLaMA tidak menggunakan kaedah RLHF, Nebuly AI sumber terbuka sumber terbuka kaedah latihan versi RLHF LLaMA (ChatLLaMA). Proses latihannya adalah serupa dengan ChatGPT, dan projek itu membenarkan membina perkhidmatan gaya ChatGPT berdasarkan model LLaMA yang telah terlatih. Berbanding dengan ChatGPT, LLaMA mempunyai seni bina yang lebih kecil, tetapi proses latihan dan inferens GPU tunggal adalah lebih pantas dan lebih murah perpustakaan juga menyokong semua seni bina model LLaMA (7B, 13B, 33B, 65B), jadi pengguna boleh dan membuat inferens keutamaan prestasi; memperhalusi model.
Alamat projek: https://github.com/nebuly-ai/nebullvm/ tree/main/apps/accelerate/chatllama
Mengharapkan lebih banyak projek sumber terbuka akan ditambahkan pada masa hadapan.
Atas ialah kandungan terperinci Masih bimbang tidak dapat bermain ChatGPT? Anda juga boleh mengalami dialog pintar dengan sedozen alternatif sumber terbuka ini. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Anotasi teks ialah kerja label atau teg yang sepadan dengan kandungan tertentu dalam teks. Tujuan utamanya adalah untuk memberikan maklumat tambahan kepada teks untuk analisis dan pemprosesan yang lebih mendalam, terutamanya dalam bidang kecerdasan buatan. Anotasi teks adalah penting untuk tugas pembelajaran mesin yang diawasi dalam aplikasi kecerdasan buatan. Ia digunakan untuk melatih model AI untuk membantu memahami maklumat teks bahasa semula jadi dengan lebih tepat dan meningkatkan prestasi tugasan seperti klasifikasi teks, analisis sentimen dan terjemahan bahasa. Melalui anotasi teks, kami boleh mengajar model AI untuk mengenali entiti dalam teks, memahami konteks dan membuat ramalan yang tepat apabila data baharu yang serupa muncul. Artikel ini terutamanya mengesyorkan beberapa alat anotasi teks sumber terbuka yang lebih baik. 1.LabelStudiohttps://github.com/Hu

DALL-E 3 telah diperkenalkan secara rasmi pada September 2023 sebagai model yang jauh lebih baik daripada pendahulunya. Ia dianggap sebagai salah satu penjana imej AI terbaik setakat ini, mampu mencipta imej dengan perincian yang rumit. Walau bagaimanapun, semasa pelancaran, ia adalah tidak termasuk

Anotasi imej ialah proses mengaitkan label atau maklumat deskriptif dengan imej untuk memberi makna dan penjelasan yang lebih mendalam kepada kandungan imej. Proses ini penting untuk pembelajaran mesin, yang membantu melatih model penglihatan untuk mengenal pasti elemen individu dalam imej dengan lebih tepat. Dengan menambahkan anotasi pada imej, komputer boleh memahami semantik dan konteks di sebalik imej, dengan itu meningkatkan keupayaan untuk memahami dan menganalisis kandungan imej. Anotasi imej mempunyai pelbagai aplikasi, meliputi banyak bidang, seperti penglihatan komputer, pemprosesan bahasa semula jadi dan model penglihatan graf Ia mempunyai pelbagai aplikasi, seperti membantu kenderaan dalam mengenal pasti halangan di jalan raya, dan membantu dalam proses. pengesanan dan diagnosis penyakit melalui pengecaman imej perubatan. Artikel ini terutamanya mengesyorkan beberapa alat anotasi imej sumber terbuka dan percuma yang lebih baik. 1.Makesen

Teknologi pengesanan dan pengecaman muka adalah teknologi yang agak matang dan digunakan secara meluas. Pada masa ini, bahasa aplikasi Internet yang paling banyak digunakan ialah JS Melaksanakan pengesanan muka dan pengecaman pada bahagian hadapan Web mempunyai kelebihan dan kekurangan berbanding dengan pengecaman muka bahagian belakang. Kelebihan termasuk mengurangkan interaksi rangkaian dan pengecaman masa nyata, yang sangat memendekkan masa menunggu pengguna dan meningkatkan pengalaman pengguna termasuk: terhad oleh saiz model, ketepatannya juga terhad. Bagaimana untuk menggunakan js untuk melaksanakan pengesanan muka di web? Untuk melaksanakan pengecaman muka di Web, anda perlu biasa dengan bahasa dan teknologi pengaturcaraan yang berkaitan, seperti JavaScript, HTML, CSS, WebRTC, dll. Pada masa yang sama, anda juga perlu menguasai visi komputer yang berkaitan dan teknologi kecerdasan buatan. Perlu diingat bahawa kerana reka bentuk bahagian Web

SOTA baharu untuk keupayaan memahami dokumen multimodal! Pasukan Alibaba mPLUG mengeluarkan kerja sumber terbuka terkini mPLUG-DocOwl1.5, yang mencadangkan satu siri penyelesaian untuk menangani empat cabaran utama pengecaman teks imej resolusi tinggi, pemahaman struktur dokumen am, arahan mengikut dan pengenalan pengetahuan luaran. Tanpa berlengah lagi, mari kita lihat kesannya dahulu. Pengecaman satu klik dan penukaran carta dengan struktur kompleks ke dalam format Markdown: Carta gaya berbeza tersedia: Pengecaman dan kedudukan teks yang lebih terperinci juga boleh dikendalikan dengan mudah: Penjelasan terperinci tentang pemahaman dokumen juga boleh diberikan: Anda tahu, "Pemahaman Dokumen " pada masa ini Senario penting untuk pelaksanaan model bahasa yang besar. Terdapat banyak produk di pasaran untuk membantu pembacaan dokumen. Sesetengah daripada mereka menggunakan sistem OCR untuk pengecaman teks dan bekerjasama dengan LLM untuk pemprosesan teks.

Langkah pemasangan: 1. Muat turun perisian ChatGTP dari laman web rasmi ChatGTP atau kedai mudah alih 2. Selepas membukanya, dalam antara muka tetapan, pilih bahasa sebagai bahasa Cina 3. Dalam antara muka permainan, pilih permainan mesin manusia dan tetapkan Spektrum bahasa Cina; 4 Selepas memulakan, masukkan arahan dalam tetingkap sembang untuk berinteraksi dengan perisian.

Izinkan saya memperkenalkan kepada anda projek sumber terbuka AIGC terkini-AnimagineXL3.1. Projek ini adalah lelaran terkini model teks-ke-imej bertema anime, yang bertujuan untuk menyediakan pengguna pengalaman penjanaan imej anime yang lebih optimum dan berkuasa. Dalam AnimagineXL3.1, pasukan pembangunan menumpukan pada mengoptimumkan beberapa aspek utama untuk memastikan model mencapai tahap prestasi dan kefungsian yang baharu. Pertama, mereka mengembangkan data latihan untuk memasukkan bukan sahaja data watak permainan daripada versi sebelumnya, tetapi juga data daripada banyak siri anime terkenal lain ke dalam set latihan. Langkah ini memperkayakan pangkalan pengetahuan model, membolehkannya memahami pelbagai gaya dan watak anime dengan lebih lengkap. AnimagineXL3.1 memperkenalkan set teg khas dan estetika baharu

FP8 dan ketepatan pengiraan titik terapung yang lebih rendah bukan lagi "paten" H100! Lao Huang mahu semua orang menggunakan INT8/INT4, dan pasukan Microsoft DeepSpeed memaksa diri mereka menjalankan FP6 pada A100 tanpa sokongan rasmi daripada Nvidia. Keputusan ujian menunjukkan bahawa kaedah baharu TC-FPx FP6 kuantisasi pada A100 adalah hampir atau kadangkala lebih pantas daripada INT4, dan mempunyai ketepatan yang lebih tinggi daripada yang terakhir. Selain itu, terdapat juga sokongan model besar hujung ke hujung, yang telah bersumberkan terbuka dan disepadukan ke dalam rangka kerja inferens pembelajaran mendalam seperti DeepSpeed. Keputusan ini juga mempunyai kesan serta-merta pada mempercepatkan model besar - di bawah rangka kerja ini, menggunakan satu kad untuk menjalankan Llama, daya pemprosesan adalah 2.65 kali lebih tinggi daripada dua kad. satu
