


Telah didedahkan bahawa OpenAI akan mengeluarkan model besar sumber terbuka baharu: Penggantian GPT?
OpenAI akhirnya "Terbuka"!
Berita terkini ialah mereka sedang bersedia untuk mengeluarkan model bahasa sumber terbuka baharu.
Selepas GPT-2, ini adalah kali pertama dalam empat tahun.
Ramai netizen mencucuk tangan mereka dengan jangkaan: Adakah mereka akan mengeluarkan pengganti sumber terbuka mereka sendiri?
Lagipun, model sumber terbuka terbaik pada masa ini masih jauh dari GPT-4. Dari segi parameter sahaja, perbezaan antara keduanya ialah tiga urutan magnitud, satu ialah 20 bilion dan satu lagi ialah 1.3 trilion.
OpenAI akan menjadi Terbuka
Dalam kes ini, adakah langkah OpenAI akan "mengubah landskap kompetitif keseluruhan model besar?".
Ramai netizen berkata yang pertama menanggung beban mungkin model besar LLaMA iaitu keluarga alpaca.
Lagipun, sejak kelahiran ChatGPT, pelbagai penyelesaian sumber terbuka telah muncul tanpa henti, tetapi kebanyakannya diilhamkan oleh model besar Meta.
Sebagai contoh, Stanford's Alpaca, Berkeley's Vicuna, Kaola, dan ColossalChat, serta model LLaMA dalam negeri Harbin Institute of Technology penalaan halus berdasarkan pengetahuan perubatan Cina... Beberapa model sumber terbuka ini mempunyai malah telah dioptimumkan untuk digunakan pada telefon mudah alih Peranti sedang berjalan.
Kedudukan terkini model besar Chatbot Arena yang dicipta oleh UC Berkeley menunjukkan bahawa banyak model sumber terbuka mengikuti rapat di belakang GPT-4 dan Claude.
Walau bagaimanapun, sama ada ia akan menjadi "penggantian" tidak akan diketahui sehingga keluaran akhir.
Ia juga tidak jelas sama ada OpenAI akan menggunakan model ini untuk bersaing dengan model sumber terbuka lain yang serupa.
Menurut The Information, memetik orang yang biasa dengan perkara itu, sudah pasti model sumber terbuka baharu ini tidak mungkin bersaing dengan GPT.
Pada masa yang sama, orang lain menamakan Google: Kini tekanan terhadap Google semakin meningkat.
Isu sumber terbuka dan parit juga telah mencetuskan perbincangan hangat.
Sumber terbuka dan parit
Sumber terbuka atau sumber tertutup? Ini adalah Satu soalan.
Beberapa masa lalu, dokumen dalaman Google telah mencetuskan kekecohan di Internet Perkara utama adalah sangat jelas:
Model besar sumber terbuka sedang berkembang pesat dan. sedang Menghakis kedudukan OpenAI dan Google.
Dan berkata, "Melainkan pendirian pada sumber tertutup berubah, alternatif sumber terbuka akhirnya akan mengatasinya (termasuk ChatGPT)."
Pada ketika ini, Google mahupun OpenAI tidak mempunyai parit dalam perlumbaan senjata model besar ini.
Banyak isu sumber terbuka telah diselesaikan, seperti berjalan pada peranti kuasa rendah, AI peribadi boleh skala, pelbagai mod, dsb.
Walaupun OpenAI dan Google kini mempunyai kelebihan tertentu dalam kualiti model, jurang ini semakin mengecil.
Dalam beberapa minggu yang lalu, setiap pasukan dalam medan AI sumber terbuka telah mencapai kemajuan yang berterusan, sama ada dari segi model atau aplikasi.
Sebagai contoh, AI startup Together membina model besar sumber terbuka dan platform awan berdasarkan LLaMA bulan lepas dan kini telah mengumpulkan AS$20 juta dalam pembiayaan pusingan benih.
Arah aliran ini malah berterusan di luar talian, dengan ramai orang bersuka ria dan meraikan pergerakan sumber terbuka.
Selain melancarkan satu siri alat model besar, HuggingFace, "pusat sumber terbuka", malah mengadakan perhimpunan "Woodstock of AI" luar talian, menarik lebih 5,000 orang.
Stability AI, syarikat di sebalik Stable Diffusion, dan Lightning AI, yang membangunkan PyTorch Lightning, juga merancang untuk mengadakan mesyuarat pertukaran sumber terbuka.
Di mata ramai orang, OpenAI dan Google telah menetapkan preseden buruk: bahaya model yang tidak dipantau adalah nyata.
Walaupun model syarikat teknologi besar ini mungkin tidak dapat ditiru sepenuhnya, komuniti sumber terbuka memahami bahan asas dalam "resipi rahsia" ini. Tetapi kini tiada siapa yang boleh mengetahui ramuannya.
Apa pendapat anda tentang perkara ini?
Pautan rujukan:
[1]https://www.reuters.com/technology/openai-readies-new-open-source-ai-model-information-2023-05-15/
[2]https://www.theinformation.com/articles/open-source-ai-is-gaining-on-google-and-chatgpt
[3]https://venturebeat.com/ai/ open-source-ai-continues-to-celebrate-as-big-tech-mulls-over-moats/
Atas ialah kandungan terperinci Telah didedahkan bahawa OpenAI akan mengeluarkan model besar sumber terbuka baharu: Penggantian GPT?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

Awal bulan ini, penyelidik dari MIT dan institusi lain mencadangkan alternatif yang sangat menjanjikan kepada MLP - KAN. KAN mengatasi MLP dari segi ketepatan dan kebolehtafsiran. Dan ia boleh mengatasi prestasi MLP berjalan dengan bilangan parameter yang lebih besar dengan bilangan parameter yang sangat kecil. Sebagai contoh, penulis menyatakan bahawa mereka menggunakan KAN untuk menghasilkan semula keputusan DeepMind dengan rangkaian yang lebih kecil dan tahap automasi yang lebih tinggi. Khususnya, MLP DeepMind mempunyai kira-kira 300,000 parameter, manakala KAN hanya mempunyai kira-kira 200 parameter. KAN mempunyai asas matematik yang kukuh seperti MLP berdasarkan teorem penghampiran universal, manakala KAN berdasarkan teorem perwakilan Kolmogorov-Arnold. Seperti yang ditunjukkan dalam rajah di bawah, KAN telah

Video terbaru robot Tesla Optimus dikeluarkan, dan ia sudah boleh berfungsi di kilang. Pada kelajuan biasa, ia mengisih bateri (bateri 4680 Tesla) seperti ini: Pegawai itu juga mengeluarkan rupanya pada kelajuan 20x - pada "stesen kerja" kecil, memilih dan memilih dan memilih: Kali ini ia dikeluarkan Salah satu sorotan video itu ialah Optimus menyelesaikan kerja ini di kilang, sepenuhnya secara autonomi, tanpa campur tangan manusia sepanjang proses. Dan dari perspektif Optimus, ia juga boleh mengambil dan meletakkan bateri yang bengkok, memfokuskan pada pembetulan ralat automatik: Berkenaan tangan Optimus, saintis NVIDIA Jim Fan memberikan penilaian yang tinggi: Tangan Optimus adalah robot lima jari di dunia paling cerdik. Tangannya bukan sahaja boleh disentuh

Pengesanan objek ialah masalah yang agak matang dalam sistem pemanduan autonomi, antaranya pengesanan pejalan kaki adalah salah satu algoritma terawal untuk digunakan. Penyelidikan yang sangat komprehensif telah dijalankan dalam kebanyakan kertas kerja. Walau bagaimanapun, persepsi jarak menggunakan kamera fisheye untuk pandangan sekeliling agak kurang dikaji. Disebabkan herotan jejari yang besar, perwakilan kotak sempadan standard sukar dilaksanakan dalam kamera fisheye. Untuk mengurangkan perihalan di atas, kami meneroka kotak sempadan lanjutan, elips dan reka bentuk poligon am ke dalam perwakilan kutub/sudut dan mentakrifkan metrik mIOU pembahagian contoh untuk menganalisis perwakilan ini. Model fisheyeDetNet yang dicadangkan dengan bentuk poligon mengatasi model lain dan pada masa yang sama mencapai 49.5% mAP pada set data kamera fisheye Valeo untuk pemanduan autonomi

Jika jawapan yang diberikan oleh model AI tidak dapat difahami sama sekali, adakah anda berani menggunakannya? Memandangkan sistem pembelajaran mesin digunakan dalam bidang yang lebih penting, menjadi semakin penting untuk menunjukkan sebab kita boleh mempercayai output mereka, dan bila tidak mempercayainya. Satu cara yang mungkin untuk mendapatkan kepercayaan dalam output sistem yang kompleks adalah dengan menghendaki sistem menghasilkan tafsiran outputnya yang boleh dibaca oleh manusia atau sistem lain yang dipercayai, iaitu, difahami sepenuhnya sehingga apa-apa ralat yang mungkin boleh dilakukan. dijumpai. Contohnya, untuk membina kepercayaan dalam sistem kehakiman, kami memerlukan mahkamah memberikan pendapat bertulis yang jelas dan boleh dibaca yang menjelaskan dan menyokong keputusan mereka. Untuk model bahasa yang besar, kita juga boleh menggunakan pendekatan yang sama. Walau bagaimanapun, apabila mengambil pendekatan ini, pastikan model bahasa menjana

FP8 dan ketepatan pengiraan titik terapung yang lebih rendah bukan lagi "paten" H100! Lao Huang mahu semua orang menggunakan INT8/INT4, dan pasukan Microsoft DeepSpeed memaksa diri mereka menjalankan FP6 pada A100 tanpa sokongan rasmi daripada Nvidia. Keputusan ujian menunjukkan bahawa kaedah baharu TC-FPx FP6 kuantisasi pada A100 adalah hampir atau kadangkala lebih pantas daripada INT4, dan mempunyai ketepatan yang lebih tinggi daripada yang terakhir. Selain itu, terdapat juga sokongan model besar hujung ke hujung, yang telah bersumberkan terbuka dan disepadukan ke dalam rangka kerja inferens pembelajaran mendalam seperti DeepSpeed. Keputusan ini juga mempunyai kesan serta-merta pada mempercepatkan model besar - di bawah rangka kerja ini, menggunakan satu kad untuk menjalankan Llama, daya pemprosesan adalah 2.65 kali lebih tinggi daripada dua kad. satu

Pautan projek ditulis di hadapan: https://nianticlabs.github.io/mickey/ Memandangkan dua gambar, pose kamera di antara mereka boleh dianggarkan dengan mewujudkan kesesuaian antara gambar. Biasanya, surat-menyurat ini adalah 2D hingga 2D, dan anggaran pose kami adalah skala-tak tentu. Sesetengah aplikasi, seperti realiti tambahan segera pada bila-bila masa, di mana-mana sahaja, memerlukan anggaran pose metrik skala, jadi mereka bergantung pada penganggar kedalaman luaran untuk memulihkan skala. Makalah ini mencadangkan MicKey, proses pemadanan titik utama yang mampu meramalkan korespondensi metrik dalam ruang kamera 3D. Dengan mempelajari padanan koordinat 3D merentas imej, kami dapat membuat kesimpulan relatif metrik

Di barisan hadapan teknologi perisian, kumpulan UIUC Zhang Lingming, bersama penyelidik dari organisasi BigCode, baru-baru ini mengumumkan model kod besar StarCoder2-15B-Instruct. Pencapaian inovatif ini mencapai kejayaan ketara dalam tugas penjanaan kod, berjaya mengatasi CodeLlama-70B-Instruct dan mencapai bahagian atas senarai prestasi penjanaan kod. Keunikan StarCoder2-15B-Instruct terletak pada strategi penjajaran diri yang tulen Keseluruhan proses latihan adalah terbuka, telus, dan sepenuhnya autonomi dan boleh dikawal. Model ini menjana beribu-ribu arahan melalui StarCoder2-15B sebagai tindak balas kepada penalaan halus model asas StarCoder-15B tanpa bergantung pada anotasi manual yang mahal.
