


Seseorang akhirnya menjelaskan keadaan semasa GPT! Ucapan terbaharu OpenAI menjadi tular, dan ia mestilah seorang genius yang dipilih sendiri oleh Musk
Susulan keluaran Windows Copilot, populariti persidangan Microsoft Build telah dicetuskan oleh ucapan.
Bekas Pengarah AI Tesla Andrej Karpathy percaya dalam ucapannya bahawa pohon pemikiran serupa dengan Carian Pokok Monte Carlo (MCTS) AlphaGo
Alangkah hebatnya! Netizen menjerit: Ini adalah panduan paling terperinci dan menarik tentang cara menggunakan model bahasa besar dan model GPT-4!Skor Claude adalah antara ChatGPT 3.5 dan ChatGPT 4.
Bahagian pertama
, dia bercakap tentang cara melatih "Pembantu GPT".
Karpathy terutamanya bercakap tentang empat peringkat latihan pembantu AI:
Menggunakan set data penyeliaan yang lebih kecil, memperhalusi model asas ini melalui pembelajaran terselia menghasilkan model pembantu
yang boleh menjawab soalan.Perlu dinyatakan dengan jelas di sini bahawa model asas bukan model pembantu
. Walaupun model asas mempunyai keupayaan untuk menyelesaikan masalah, jawapan yang diberikannya tidak boleh dipercayai, manakala model pembantu boleh memberikan jawapan yang boleh dipercayai. Model pembantu diperhalusi diselia dilatih berdasarkan model asas, dan prestasinya dalam menjana balasan dan memahami struktur teks akan lebih baik daripada model asas. Pembelajaran pengukuhan ialah satu lagi proses utama apabila melatih model bahasa. Data beranotasi manual berkualiti tinggi digunakan dalam proses latihan dan fungsi kerugian dicipta dalam cara pemodelan ganjaran untuk meningkatkan prestasinya. Latihan pengukuhan boleh dicapai dengan meningkatkan kebarangkalian pemarkahan positif dan mengurangkan kebarangkalian pemarkahan negatif. Pertimbangan manusia adalah penting untuk menambah baik model AI apabila ia melibatkan tugas kreatif, dan model boleh dilatih dengan lebih berkesan dengan menggabungkan maklum balas manusia. Selepas pembelajaran pengukuhan dengan maklum balas manusia, model RLHF boleh diperolehi. Selepas model dilatih, langkah seterusnya ialah cara menggunakan model ini dengan berkesan untuk menyelesaikan masalah.Bagaimana untuk menggunakan model dengan lebih baik?
Dalam Bahagian 2, Karpathy membincangkan strategi yang mendorong, penalaan halus, ekosistem alat yang berkembang pesat dan pengembangan masa hadapan.
Karpathy memberikan satu lagi contoh khusus untuk menggambarkan:
Apabila menulis, kita perlu melakukan banyak aktiviti mental , termasuk mempertimbangkan sama ada ungkapan anda tepat. Untuk GPT, ini hanyalah urutan token yang ditandakan.
Dan prompt boleh mengimbangi jurang kognitif ini.
Karpathy menerangkan dengan lebih lanjut cara Rantai Pemikiran gesaan berfungsi.
Untuk masalah penaakulan, jika anda mahu Transformer berprestasi lebih baik dalam pemprosesan bahasa semula jadi, anda perlu membiarkannya memproses maklumat secara langkah demi langkah dan bukannya terus melemparkannya masalah yang sangat kompleks.
Jika anda memberikan beberapa contoh, ia akan meniru templat contoh ini dan hasil akhir akan menjadi lebih baik.
Model hanya boleh menjawab soalan dalam urutannya Jika kandungan yang dijananya salah, anda boleh menggesanya untuk Menjana semula.
Jika anda tidak memintanya menyemak, ia tidak akan menyemak sendiri.
Ini melibatkan masalah System1 dan System2.
Pemenang Hadiah Nobel dalam bidang ekonomi Daniel Kahneman mencadangkan dalam "Berfikir Cepat dan Perlahan" bahawa sistem kognitif manusia terdiri daripada dua subsistem, Sistem1 dan Sistem2. System1 bergantung terutamanya pada intuisi, manakala System2 ialah sistem analisis logik.
Dalam istilah orang awam, System1 ialah proses yang cepat dan dijana secara automatik, manakala System2 ialah bahagian yang difikirkan dengan baik.
Ini juga disebut dalam makalah popular baru-baru ini "Pohon pemikiran".
Berfikiran bermakna bahawa bukannya hanya memberikan jawapan kepada soalan, ia lebih seperti gesaan yang digunakan dengan kod gam Python untuk menggabungkan banyak gesaan adalah bercantum bersama. Untuk menskalakan pembayang, model perlu mengekalkan berbilang pembayang dan melaksanakan algoritma carian pokok.
Karpathy percaya bahawa idea ini hampir sama dengan AlphaGo:
Apabila AlphaGo memainkan Go, ia perlu mempertimbangkan tempat untuk meletakkan bahagian seterusnya. Pada mulanya ia belajar dengan meniru manusia.
Selain itu, ia melaksanakan carian pokok Monte Carlo untuk mendapatkan hasil dengan pelbagai strategi berpotensi. Ia menilai banyak kemungkinan pergerakan dan mengekalkan hanya yang lebih baik. Saya rasa ini agak setara dengan AlphaGo.
Dalam hal ini, Karpathy turut menyebut AutoGPT:
Saya rasa kesan semasanya tidak begitu baik, dan saya tidak mengesyorkannya untuk aplikasi praktikal. Saya fikir kita mungkin boleh belajar daripada evolusinya dari semasa ke semasa.
Kedua, satu lagi helah kecil adalah untuk mendapatkan semula generasi yang dipertingkatkan (generasi yang dipertingkatkan semula) dan petua yang berkesan.
Kandungan konteks tetingkap ialah memori kerja transformer pada masa jalanan Jika anda boleh menambah maklumat berkaitan tugasan pada konteks, maka ia akan berfungsi dengan baik kerana ia boleh diakses dengan segera maklumat ini.
Ringkasnya, ini bermakna data yang berkaitan boleh diindeks supaya model boleh diakses dengan cekap.
Transformer akan berprestasi lebih baik jika mereka turut mempunyai fail utama untuk dirujuk.
Akhirnya, Karpathy bercakap secara ringkas tentang dorongan kekangan dan penalaan halus dalam model bahasa besar.
Model bahasa yang besar boleh dipertingkatkan melalui pembayang kekangan dan penalaan halus. Kekangan memberi petunjuk menguatkuasakan templat dalam output model bahasa yang besar, manakala penalaan halus melaraskan pemberat model untuk meningkatkan prestasi.
Saya mengesyorkan menggunakan model bahasa yang besar dalam aplikasi berisiko rendah, sentiasa menggabungkannya dengan penyeliaan manusia, menganggapnya sebagai sumber inspirasi dan nasihat, dan mempertimbangkan copilot daripada menjadikannya bertindak secara autonomi sepenuhnya.
Mengenai Andrej Karpathy
Pekerjaan pertama selepas Dr. Andrej Karpathy tamat pengajian ialah belajar visi komputer di OpenAI .
Kemudian, Musk, salah seorang pengasas bersama OpenAI, jatuh cinta dengan Karpathy dan mengupahnya di Tesla. Musk dan OpenAI berselisih mengenai perkara itu, dan Musk akhirnya dikecualikan. Karpathy bertanggungjawab untuk Autopilot Tesla, FSD dan projek lain.
Pada Februari tahun ini, 7 bulan selepas meninggalkan Tesla, Karpathy menyertai OpenAI sekali lagi.
Baru-baru ini dia tweet bahawa dia kini sangat berminat dalam pembangunan ekosistem model bahasa besar sumber terbuka, yang sedikit seperti tanda-tanda letupan awal Kambrium.
Portal:
[1]https://www.youtube com /watch?v=xO73EUwSegU (video ucapan)
[2]https://arxiv.org/pdf/2305.10601.pdf (kertas "Pohon pemikiran")
Pautan rujukan:
[1]https://twitter.com/altryne/status/1661236778458832896
[2]https://www.reddit.com/r/MachineLearning/comments/13qrtek/n_state_of_gpt_by_andrej_karpathy_in_msbuild_2023/
>>
Atas ialah kandungan terperinci Seseorang akhirnya menjelaskan keadaan semasa GPT! Ucapan terbaharu OpenAI menjadi tular, dan ia mestilah seorang genius yang dipilih sendiri oleh Musk. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Apabila teknologi kecerdasan buatan dan pembelajaran mesin terus berkembang, syarikat dan organisasi telah mula meneroka secara aktif strategi inovatif untuk memanfaatkan teknologi ini untuk meningkatkan daya saing. K8sGPT[2] ialah salah satu alat yang paling berkuasa dalam bidang ini Ia adalah model GPT berdasarkan k8s, yang menggabungkan kelebihan orkestrasi k8s dengan keupayaan pemprosesan bahasa semula jadi yang sangat baik bagi model GPT. Apakah K8sGPT? Mari lihat contoh dahulu: Menurut laman web rasmi K8sGPT: K8sgpt ialah alat yang direka untuk mengimbas, mendiagnosis dan mengklasifikasikan masalah kelompok kubernetes Ia menyepadukan pengalaman SRE ke dalam enjin analisisnya untuk memberikan maklumat yang paling relevan. Melalui aplikasi teknologi kecerdasan buatan, K8sgpt terus memperkaya kandungannya dan membantu pengguna memahami dengan lebih cepat dan tepat.

Apabila kami menggunakan sistem pengendalian win7, kadangkala kami mungkin menghadapi situasi di mana kami perlu memasang semula sistem dan membahagikan cakera keras. Mengenai isu sama ada format cakera keras win7 memerlukan mbr atau gpt, editor berpendapat bahawa anda masih perlu membuat pilihan berdasarkan butiran konfigurasi sistem dan perkakasan anda sendiri. Dari segi keserasian, sebaiknya pilih format mbr. Untuk butiran, mari kita lihat apa yang dilakukan oleh editor~ Format cakera keras win7 memerlukan mbr atau gpt1 Jika sistem dipasang dengan Win7, adalah disyorkan untuk menggunakan MBR, yang mempunyai keserasian yang baik. 2. Jika melebihi 3T atau pasang win8, anda boleh menggunakan GPT. 3. Walaupun GPT sememangnya lebih maju daripada MBR, MBR pastinya tidak dapat dikalahkan dari segi keserasian. Kawasan GPT dan MBR

Apabila membahagikan sistem mereka sendiri, disebabkan oleh pemacu keras yang berbeza yang digunakan oleh pengguna, ramai pengguna tidak mengetahui format partition win10 gpt atau mbr Atas sebab ini, kami telah membawakan anda pengenalan terperinci untuk membantu anda memahami perbezaan antara keduanya. Format partition Win10 gpt atau mbr: Jawapan: Jika anda menggunakan cakera keras melebihi 3 TB, anda boleh menggunakan gpt. gpt lebih maju daripada mbr, tetapi mbr masih lebih baik dari segi keserasian. Sudah tentu, ini juga boleh dipilih mengikut keutamaan pengguna. Perbezaan antara gpt dan mbr: 1. Bilangan partition yang disokong: 1. MBR menyokong sehingga 4 partition primer. 2. GPT tidak dihadkan oleh bilangan partition. 2. Saiz cakera keras yang disokong: 1. MBR hanya menyokong sehingga 2TB

Bagaimana untuk menyemak sama ada cakera keras komputer adalah partition GPT atau partition MBR Apabila kita menggunakan cakera keras komputer, kita perlu membezakan antara GPT dan MBR Sebenarnya, kaedah semakan ini sangat mudah . Bagaimana untuk menyemak sama ada cakera keras komputer adalah GPT atau MBR 1. Klik kanan pada Komputer pada desktop dan klik "Urus" 2. Cari "Pengurusan Cakera" dalam "Pengurusan" 3. Masukkan Pengurusan Cakera untuk melihat status umum kami cakera keras, kemudian Bagaimana untuk menyemak mod partition cakera keras saya, klik kanan "Disk 0" dan pilih "Properties" 4. Tukar ke tab "Volume" dalam "Properties", kemudian kita boleh melihat "Disk Partition Form " dan anda boleh melihatnya sebagai Masalah yang berkaitan dengan cakera win10 partition MBR Bagaimana untuk menukar partition MBR kepada partition GPT>

Pengenalan model: Model Alpaca ialah model sumber terbuka LLM (Model Bahasa Besar, bahasa besar) yang dibangunkan oleh Universiti Stanford Ia diperhalusi daripada model LLaMA7B (sumber terbuka 7B oleh syarikat Meta) pada arahan 52K parameter model (lebih besar parameter model, lebih besar parameter model, lebih kuat keupayaan penaakulan model, sudah tentu, lebih tinggi kos latihan model). LoRA, nama penuh bahasa Inggeris ialah Low-RankAdaptation of Large Language Models, diterjemahkan secara literal sebagai penyesuaian tahap rendah bagi model bahasa besar Ini adalah teknologi yang dibangunkan oleh penyelidik Microsoft untuk menyelesaikan penalaan halus model bahasa besar. Jika anda mahu model bahasa besar yang telah dilatih untuk dapat melaksanakan domain tertentu

Sains: Jauh daripada menjadi entiti yang berkekalan dan bermanfaat, AI am masa hadapan berkemungkinan menjadi sosiopat manipulatif yang memakan semua data peribadi anda dan kemudian runtuh apabila ia amat diperlukan. Diterjemah daripada 3WaysLLMsCanLetYouDown, pengarang JoabJackson. OpenAI akan mengeluarkan GPT-5, dan dunia luar menaruh harapan tinggi untuknya. Ramalan yang paling optimis malah percaya bahawa ia akan mencapai kecerdasan buatan umum. Tetapi pada masa yang sama, Ketua Pegawai Eksekutif Sam Altman dan pasukannya menghadapi banyak halangan serius dalam membawanya ke pasaran, yang diakuinya awal bulan ini. Terdapat beberapa kertas penyelidikan yang diterbitkan baru-baru ini yang mungkin memberikan petunjuk kepada cabaran Altman. Ringkasan kertas kerja ini

Xi Xiaoyao Science and Technology Talks Original Author |. Ini telah menjadi topik yang sangat membimbangkan dalam komuniti akademik, dan terima kasih kepada satu siri kejayaan dalam pemprosesan bahasa semula jadi dalam beberapa tahun kebelakangan ini, kami mungkin lebih hampir daripada sebelumnya untuk mencapai matlamat ini. Di barisan hadapan kejayaan ini ialah Generative Pre-trained Transformer (GPT) - model rangkaian saraf dalam yang direka khusus untuk tugas pemprosesan bahasa semula jadi. Prestasi cemerlang dan keupayaannya untuk menjalankan perbualan yang berkesan telah menjadikannya salah satu model yang paling banyak digunakan dan berkesan dalam bidang ini, menarik perhatian yang banyak daripada penyelidikan dan industri. Dalam perincian baru-baru ini

Berbual dengan ChatGPT adalah menyeronokkan dan bermaklumat - anda boleh meneroka beberapa idea baharu dengan berbual dengannya. Tetapi ini adalah kes penggunaan yang lebih kasual, dan kebaharuan itu cepat hilang, terutamanya apabila seseorang menyedari bahawa ia boleh menghasilkan halusinasi. Bagaimana untuk menggunakan ChatGPT dengan cara yang lebih cekap? Selepas OpenAI mengeluarkan siri API GPT3.5, anda boleh melakukan lebih daripada sekadar berbual. QA (Soal Jawab) ialah kes penggunaan yang sangat berkesan untuk perniagaan dan individu - tanya bot tentang fail/data anda sendiri menggunakan bahasa semula jadi dan ia boleh menjawab dengan cepat dengan mendapatkan maklumat daripada fail dan menjana respons. Gunakannya untuk sokongan pelanggan, penyelidikan pengguna yang komprehensif, pengurusan pengetahuan peribadi dan banyak lagi. Tanya soalan bot yang berkaitan dengan fail anda.
