


Cendekiawan Google dan OpenAI bercakap tentang AI: Model bahasa bekerja keras untuk 'menakluki' matematik
Jika anda bertanya tentang komputer yang mahir, antara semua jawapan, matematik mesti ada dalam senarai. Selepas tempoh penyelidikan yang panjang, sarjana terkemuka telah mencapai keputusan yang mengejutkan dalam mengkaji perkembangan komputer dalam pengiraan matematik.
Mengambil tahun lepas sebagai contoh, penyelidik dari University of California, Berkeley, OpenAI dan Google telah mencapai kemajuan yang besar dalam model bahasa GPT-3, DALL·E 2, dsb. telah dibangunkan. Walau bagaimanapun, sehingga kini, model bahasa tidak dapat menyelesaikan beberapa masalah matematik yang diterangkan secara lisan, seperti "Alice mempunyai lima bola lagi daripada Bob, dan Bob mempunyai dua bola selepas memberi Charlie empat bola. Tanya Alice berapa banyak bola yang dia ada. ?" Ini mungkin agak "sukar" untuk model bahasa memberikan jawapan yang betul.
"Apabila kami mengatakan komputer sangat mahir dalam matematik, kami bermaksud bahawa mereka sangat mahir dalam perkara khusus dan khusus," kata Guy Gur-Ari, pakar pembelajaran mesin di Google. Memang benar bahawa komputer mahir dalam aritmetik, tetapi di luar mod tertentu, komputer tidak berkuasa dan tidak dapat menjawab soalan penerangan teks yang mudah.
Penyelidik Google, Ethan Dyer pernah berkata: Orang yang melakukan penyelidikan matematik mempunyai sistem penaakulan yang tegar Terdapat jurang yang jelas antara apa yang mereka tahu dan apa yang mereka tidak faham.
Menyelesaikan masalah perkataan atau masalah penaakulan kuantitatif adalah rumit kerana tidak seperti masalah lain, kedua-duanya memerlukan keteguhan dan ketegasan. Jika ada yang tidak kena pada mana-mana langkah dalam proses, ia akan membawa kepada jawapan yang salah. DALL·E mengagumkan dalam melukis, walaupun imej yang dihasilkannya kadangkala pelik, dengan jari hilang dan mata kelihatan pelik... Kita semua boleh menerimanya, tetapi ia membuat kesilapan dalam matematik, dan Toleransi kita akan menjadi sangat kecil. Vineet Kosaraju, pakar pembelajaran mesin dari OpenAI, juga telah menyatakan idea ini, "Toleransi kami terhadap kesilapan matematik yang dibuat oleh model bahasa (seperti salah faham 10 sebagai 1 dan 0 bukannya 10) masih agak kecil." >
"Kami belajar matematik semata-mata kerana kami mendapati ia bebas dan sangat menarik," kata Karl Cobbe, pakar pembelajaran mesin di OpenAI.Memandangkan model pembelajaran mesin dilatih pada sampel data yang lebih besar, model tersebut menjadi lebih mantap dan membuat ralat yang lebih sedikit. Tetapi meningkatkan model nampaknya hanya boleh dilakukan melalui penaakulan kuantitatif. Para penyelidik menyedari bahawa kesilapan yang dibuat oleh model bahasa nampaknya memerlukan pendekatan yang lebih disasarkan.
Tahun lepas, dua pasukan penyelidik dari University of California, Berkeley dan OpenAI mengeluarkan set data MATH dan GSM8K masing-masing Dua set data ini mengandungi beribu-ribu geometri, algebra, matematik asas, dan lain-lain masalah Matematik. "Kami mahu melihat sama ada ini adalah masalah dengan set data," kata Steven Basart, seorang penyelidik di Pusat Keselamatan AI yang bekerja dalam matematik. Adalah diketahui bahawa model bahasa tidak pandai dalam masalah perkataan Sejauh manakah prestasi mereka terhadap masalah ini? Bolehkah ia diselesaikan dengan memperkenalkan set data yang lebih berformat dan lebih besar?
Pada set data MATH, model bahasa teratas mencapai ketepatan 7%, berbanding ketepatan 40% untuk pelajar siswazah manusia dan ketepatan 90% untuk juara Olimpik. Pada set data GSM8K (masalah peringkat sekolah rendah), model tersebut mencapai ketepatan 20%. Dalam percubaan, OpenAI menggunakan dua teknik, penalaan halus dan pengesahan, dan keputusan menunjukkan bahawa model itu boleh melihat banyak contoh ralatnya sendiri, yang merupakan penemuan yang berharga.
Pada masa itu, model OpenAI perlu dilatih pada 100 kali lebih banyak data untuk mencapai ketepatan 80% pada GSM8K. Tetapi pada bulan Jun tahun ini, Google mengeluarkan Minerva, yang mencapai ketepatan 78%. Keputusan ini melebihi jangkaan, dan para penyelidik berkata ia datang lebih cepat daripada jangkaan.
Alamat kertas: https://arxiv.org/pdf/2206.14858.pdf Minerva adalah berdasarkan Model Bahasa Laluan (PaLM) yang dibangunkan sendiri oleh Google dan mempunyai lebih banyak set data matematik, termasuk format matematik seperti arXiv dan LaTeX. Strategi lain yang digunakan oleh Minerva ialah dorongan rantaian pemikiran, di mana Minerva memecahkan masalah yang lebih besar kepada bahagian yang lebih kecil. Di samping itu, Minerva menggunakan undian majoriti, di mana bukannya meminta model untuk menghasilkan satu jawapan, ia memintanya untuk menghasilkan 100 jawapan. Daripada jawapan ini, Minerva memilih yang paling biasa. Manfaat strategi baharu ini sangat besar, dengan Minerva mencapai ketepatan sehingga 50% pada MATH, GSM8K dan MMLU (set yang lebih umum termasuk kimia dan biologi Kadar ketepatan). pada masalah STEM adalah hampir 80%. Apabila Minerva diminta untuk membuat semula masalah yang sedikit berubah, ia menunjukkan prestasi yang sama baik, menunjukkan bahawa kebolehannya bukan hanya datang dari ingatan. Minerva boleh mempunyai alasan yang pelik, mengelirukan dan masih menghasilkan jawapan yang betul. Walaupun model seperti Minerva mungkin mendapat jawapan yang sama seperti manusia, proses sebenar yang mereka ikuti mungkin sangat berbeza. Pakar pembelajaran mesin Google, Ethan Dyer berkata, "Saya rasa ada idea bahawa orang dalam matematik mempunyai sistem penaakulan yang ketat antara mengetahui sesuatu dan tidak mengetahui sesuatu. Terdapat perbezaan yang jelas." Tetapi orang ramai memberikan jawapan yang tidak konsisten, membuat kesilapan, dan gagal menggunakan konsep teras. Di sempadan pembelajaran mesin, sempadannya kabur.
Atas ialah kandungan terperinci Cendekiawan Google dan OpenAI bercakap tentang AI: Model bahasa bekerja keras untuk 'menakluki' matematik. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Perintah shutdown CentOS adalah penutupan, dan sintaks adalah tutup [pilihan] [maklumat]. Pilihan termasuk: -h menghentikan sistem dengan segera; -P mematikan kuasa selepas penutupan; -r mulakan semula; -T Waktu Menunggu. Masa boleh ditentukan sebagai segera (sekarang), minit (minit), atau masa tertentu (HH: mm). Maklumat tambahan boleh dipaparkan dalam mesej sistem.

Dasar sandaran dan pemulihan Gitlab di bawah sistem CentOS untuk memastikan keselamatan data dan pemulihan, Gitlab pada CentOS menyediakan pelbagai kaedah sandaran. Artikel ini akan memperkenalkan beberapa kaedah sandaran biasa, parameter konfigurasi dan proses pemulihan secara terperinci untuk membantu anda menubuhkan strategi sandaran dan pemulihan GitLab lengkap. 1. Backup Manual Gunakan Gitlab-Rakegitlab: Backup: Buat Perintah untuk Melaksanakan Backup Manual. Perintah ini menyokong maklumat utama seperti repositori Gitlab, pangkalan data, pengguna, kumpulan pengguna, kunci, dan kebenaran. Fail sandaran lalai disimpan dalam direktori/var/opt/gitlab/sandaran. Anda boleh mengubah suai /etc /gitlab

Panduan Lengkap untuk Memeriksa Konfigurasi HDFS Dalam Sistem CentOS Artikel ini akan membimbing anda bagaimana untuk memeriksa konfigurasi dan menjalankan status HDFS secara berkesan pada sistem CentOS. Langkah -langkah berikut akan membantu anda memahami sepenuhnya persediaan dan operasi HDFS. Sahkan Pembolehubah Alam Sekitar Hadoop: Pertama, pastikan pembolehubah persekitaran Hadoop ditetapkan dengan betul. Di terminal, laksanakan arahan berikut untuk mengesahkan bahawa Hadoop dipasang dan dikonfigurasi dengan betul: Hadoopversion Semak fail konfigurasi HDFS: Fail konfigurasi teras HDFS terletak di/etc/hadoop/conf/direktori, di mana core-site.xml dan hdfs-site.xml adalah kritikal. gunakan

Penalaan prestasi zookeeper pada centOs boleh bermula dari pelbagai aspek, termasuk konfigurasi perkakasan, pengoptimuman sistem operasi, pelarasan parameter konfigurasi, pemantauan dan penyelenggaraan, dan lain -lain. Memori yang cukup: memperuntukkan sumber memori yang cukup untuk zookeeper untuk mengelakkan cakera kerap membaca dan menulis. CPU multi-teras: Gunakan CPU multi-teras untuk memastikan bahawa zookeeper dapat memprosesnya selari.

Latihan yang cekap model pytorch pada sistem CentOS memerlukan langkah -langkah, dan artikel ini akan memberikan panduan terperinci. 1. Penyediaan Persekitaran: Pemasangan Python dan Ketergantungan: Sistem CentOS biasanya mempamerkan python, tetapi versi mungkin lebih tua. Adalah disyorkan untuk menggunakan YUM atau DNF untuk memasang Python 3 dan menaik taraf PIP: Sudoyumupdatepython3 (atau SudodnfupdatePython3), pip3install-upgradepip. CUDA dan CUDNN (Percepatan GPU): Jika anda menggunakan Nvidiagpu, anda perlu memasang Cudatool

Membolehkan pecutan GPU pytorch pada sistem CentOS memerlukan pemasangan cuda, cudnn dan GPU versi pytorch. Langkah-langkah berikut akan membimbing anda melalui proses: Pemasangan CUDA dan CUDNN Tentukan keserasian versi CUDA: Gunakan perintah NVIDIA-SMI untuk melihat versi CUDA yang disokong oleh kad grafik NVIDIA anda. Sebagai contoh, kad grafik MX450 anda boleh menyokong CUDA11.1 atau lebih tinggi. Muat turun dan pasang Cudatoolkit: Lawati laman web rasmi Nvidiacudatoolkit dan muat turun dan pasang versi yang sepadan mengikut versi CUDA tertinggi yang disokong oleh kad grafik anda. Pasang Perpustakaan Cudnn:

Docker menggunakan ciri -ciri kernel Linux untuk menyediakan persekitaran berjalan yang cekap dan terpencil. Prinsip kerjanya adalah seperti berikut: 1. Cermin digunakan sebagai templat baca sahaja, yang mengandungi semua yang anda perlukan untuk menjalankan aplikasi; 2. Sistem Fail Kesatuan (Unionfs) menyusun pelbagai sistem fail, hanya menyimpan perbezaan, menjimatkan ruang dan mempercepatkan; 3. Daemon menguruskan cermin dan bekas, dan pelanggan menggunakannya untuk interaksi; 4. Ruang nama dan cgroups melaksanakan pengasingan kontena dan batasan sumber; 5. Pelbagai mod rangkaian menyokong interkoneksi kontena. Hanya dengan memahami konsep -konsep teras ini, anda boleh menggunakan Docker dengan lebih baik.

Apabila memilih versi pytorch di bawah CentOS, faktor utama berikut perlu dipertimbangkan: 1. Keserasian versi CUDA Sokongan GPU: Jika anda mempunyai NVIDIA GPU dan ingin menggunakan pecutan GPU, anda perlu memilih pytorch yang menyokong versi CUDA yang sepadan. Anda boleh melihat versi CUDA yang disokong dengan menjalankan arahan NVIDIA-SMI. Versi CPU: Jika anda tidak mempunyai GPU atau tidak mahu menggunakan GPU, anda boleh memilih versi CPU PyTorch. 2. Pytorch versi python
