Rumah > Peranti teknologi > AI > AI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa 'pernafasan dalam' dalam matematik boleh meningkatkan model besar sebanyak 8 mata!

AI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa 'pernafasan dalam' dalam matematik boleh meningkatkan model besar sebanyak 8 mata!

王林
Lepaskan: 2023-09-22 20:13:03
ke hadapan
788 orang telah melayarinya

Tambahkan "nafas dalam" pada perkataan segera, dan skor matematik model besar AI akan meningkat sebanyak 8.4 mata lagi!

Penemuan terbaru pasukan Google DeepMind ialah menggunakan "mantera" baharu ini (Tarik nafas dalam-dalam) digabungkan dengan yang semua orang sudah biasa dengan " langkah demi langkah Mari kita fikirkan langkah demi langkah, skor model besar pada set data GSM8K meningkat daripada 71.8 kepada 80.2 mata.

Dan kata gesaan yang paling berkesan ini ialah

didapati oleh AI sendiri .

AI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa pernafasan dalam dalam matematik boleh meningkatkan model besar sebanyak 8 mata!

Sesetengah orang bergurau apabila anda menarik nafas panjang, kelajuan kipas penyejuk akan meningkat

#🎜🎜 ##🎜 🎜#

Sesetengah orang berpendapat jurutera yang baru diupah gaji tinggi juga harus bertenang kerana pekerjaan mereka mungkin tidak bertahan lamaAI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa pernafasan dalam dalam matematik boleh meningkatkan model besar sebanyak 8 mata!

#🎜🎜 # relatedpaper

AI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa pernafasan dalam dalam matematik boleh meningkatkan model besar sebanyak 8 mata!"Model bahasa besar adalah pengoptimum"

, sekali lagi menimbulkan sensasi.

Secara khusus, perkataan gesaan yang direka oleh model besar itu sendiri dipertingkatkan sehingga 50 pada set data Big-Bench Hard

# 🎜🎜# %. AI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa pernafasan dalam dalam matematik boleh meningkatkan model besar sebanyak 8 mata!

Sesetengah orang juga memberi tumpuan kepada

"Petua terbaik” untuk model yang berbeza AI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa pernafasan dalam dalam matematik boleh meningkatkan model besar sebanyak 8 mata!

.

Dalam kertas kerja, bukan sahaja tugas reka bentuk perkataan segera, tetapi juga model besar telah diuji pada tugas pengoptimuman klasik seperti regresi linear dan jurujual perjalanan masalah Keupayaan

Model yang berbeza mempunyai kata-kata gesaan optimum yang berbezaAI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa pernafasan dalam dalam matematik boleh meningkatkan model besar sebanyak 8 mata!

Masalah pengoptimuman terdapat di mana-mana sahaja Algoritma berdasarkan terbitan dan kecerunan adalah alat yang berkuasa, tetapi dalam aplikasi kehidupan sebenar Ia adalah perkara biasa. menghadapi situasi di mana kecerunan tidak digunakan.

Untuk menyelesaikan masalah ini, pasukan membangunkan kaedah baharu

OPRO

, iaitu melalui pengoptimuman perkataan segera (

O

pengoptimuman oleh #🎜 🎜# PRO

mpting). Daripada mentakrifkan masalah pengoptimuman secara formal dan menyelesaikannya dengan program, kami menerangkan masalah pengoptimuman melalui bahasa semula jadi dan memerlukan model besar untuk menjana penyelesaian baharu Satu aliran gambar Secara ringkasnya, ia ialah panggilan rekursif kepada model besar.

Dalam setiap langkah pengoptimuman, penyelesaian dan skor yang dijana sebelum ini digunakan sebagai input, dan model besar menjana penyelesaian baharu dan menjaringkannya, dan kemudian tambahkannya pada Perkataan gesaan digunakan untuk langkah pengoptimuman seterusnya.

AI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa pernafasan dalam dalam matematik boleh meningkatkan model besar sebanyak 8 mata!

Kertas ini terutamanya menggunakan

PaLM 2

#🎜 dan Bar🎜🎜##🎜 Google dan ##🎜 🎜🎜#text-bisonAI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa pernafasan dalam dalam matematik boleh meningkatkan model besar sebanyak 8 mata!

versi digunakan sebagai model penilaian.

Sebagai pengoptimum, kami akan menggunakan empat model, termasuk GPT-3.5 dan GPT-4Hasil penyelidikan menunjukkan bahawa model yang berbeza mereka bentuk gaya perkataan pantas dan sesuai untuk The gaya kata gesaan juga berbeza Kata gesaan optimum yang sebelum ini direka oleh AI pada siri GPT ialah "Mari kita selesaikan perkara ini secara langkah demi langkah untuk memastikan kita mempunyai jawapan yang betul."

Kata gesaan ini direka bentuk menggunakan kaedah APE. Kertas itu diterbitkan pada ICLR 2023 dan dalam GPT-3 (text-davinci- 002 ) "Mari kita fikirkan langkah demi langkah" pada versi yang mengatasi reka bentuk manusia.

Pada PaLM 2 dan Bard berasaskan Google, versi APE menunjukkan prestasi yang lebih teruk daripada versi manusia dalam ujian penanda aras ini #🎜🎜 #

Antara kata-kata gesaan baharu yang direka oleh kaedah

OPRO, " tarik nafas dalam-dalam" dan "buka masalah ini" memberi kesan terbaik untuk PaLM.

Untuk versi teks-bison model besar Bard, ia lebih cenderung untuk memberikan perkataan segera yang lebih terperinci

AI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa pernafasan dalam dalam matematik boleh meningkatkan model besar sebanyak 8 mata!

Selain itu, kertas kerja ini juga menunjukkan potensi model besar dalam pengoptimuman matematik

Linear regression Sebagai contoh masalah pengoptimuman berterusan.

AI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa pernafasan dalam dalam matematik boleh meningkatkan model besar sebanyak 8 mata!

Masalah Jurujual Perjalanan sebagai contoh masalah pengoptimuman diskret.

AI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa pernafasan dalam dalam matematik boleh meningkatkan model besar sebanyak 8 mata!

Dengan hanya pembayang, model besar boleh mencari penyelesaian yang baik, kadangkala sepadan atau melebihi heuristik rekaan tangan.

Walau bagaimanapun, pasukan itu juga percaya bahawa model besar belum boleh menggantikan algoritma pengoptimuman berasaskan kecerunan tradisional. Apabila skala masalah adalah besar, seperti masalah jurujual perjalanan dengan bilangan nod yang banyak, prestasi kaedah OPRO adalah tidak ideal

Pasukan mengemukakan idea untuk arah penambahbaikan masa hadapan. Mereka percaya bahawa model besar semasa tidak dapat menggunakan kes ralat dengan berkesan, dan hanya menyediakan kes ralat tidak boleh membenarkan model besar menangkap punca ralat

Arah yang menjanjikan adalah untuk menggabungkan maklum balas yang lebih kaya tentang kes ralat dan meringkaskan trajektori pengoptimuman peringkat tinggi Perbezaan ciri utama antara isyarat penjanaan berkualiti dan berkualiti rendah.

Maklumat ini berpotensi untuk membantu model pengoptimum menambah baik pembayang yang dijana lalu dengan lebih berkesan, dan boleh mengurangkan lagi bilangan sampel yang diperlukan untuk pengoptimuman pembayang

Kertas mengeluarkan sejumlah besar perkataan pembayang optimum

Kertas itu berasal dari penggabungan jabatan Google dan DeepMind, tetapi pengarangnya kebanyakannya daripada pasukan Google Brain yang asal, termasuk Quoc Le, Zhou Dengyong.

Kami bersama-sama sebagai alumni Fudan Chengrun Yang yang berkelulusan Ph.D dari Cornell University, dan sebagai alumnus Shanghai Jiao Tong University yang berkelulusan Ph.D dari UC Berkeley Chen Xinyan .

Pasukan ini juga menyediakan banyak kata-kata gesaan terbaik yang diperoleh dalam eksperimen dalam kertas, termasuk senario praktikal seperti pengesyoran filem dan nama filem palsu. Jika anda memerlukannya, anda boleh rujuk sendiri

AI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa pernafasan dalam dalam matematik boleh meningkatkan model besar sebanyak 8 mata!

Alamat kertas: https://arxiv.org/abs/2309.03409

Atas ialah kandungan terperinci AI direka secara bebas kata gesaan, Google DeepMind mendapati bahawa 'pernafasan dalam' dalam matematik boleh meningkatkan model besar sebanyak 8 mata!. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:51cto.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan