Rumah Peranti teknologi AI DeepMind mendapati bahawa kaedah segera untuk menyampaikan 'tarik nafas dalam-dalam dan ambil satu langkah pada satu masa' kepada model besar adalah amat berkesan.

DeepMind mendapati bahawa kaedah segera untuk menyampaikan 'tarik nafas dalam-dalam dan ambil satu langkah pada satu masa' kepada model besar adalah amat berkesan.

Sep 13, 2023 pm 04:41 PM
model besar teori pengoptimum

Artikel ini mencadangkan kaedah OPRO yang mudah dan berkesan, yang menggunakan model bahasa yang besar sebagai pengoptimum Tugas pengoptimuman boleh diterangkan dalam bahasa semula jadi, yang lebih baik daripada gesaan yang direka oleh manusia.
Pengoptimuman adalah penting dalam semua bidang.

Sesetengah pengoptimuman bermula dengan permulaan dan kemudian mengemas kini penyelesaian secara berulang untuk mengoptimumkan fungsi objektif. Algoritma pengoptimuman sedemikian selalunya perlu disesuaikan untuk tugas individu untuk menangani cabaran khusus yang ditimbulkan oleh ruang keputusan, terutamanya untuk pengoptimuman bebas derivatif.

Dalam kajian yang akan kami perkenalkan seterusnya, penyelidik mengambil pendekatan berbeza Mereka menggunakan model bahasa besar (LLM) untuk bertindak sebagai pengoptimum dan berprestasi lebih baik daripada petunjuk yang direka oleh manusia pada pelbagai tugas.

Penyelidikan ini datang daripada Google DeepMind Mereka mencadangkan kaedah pengoptimuman yang mudah dan berkesan OPRO (Pengoptimuman oleh PROmpting), di mana tugas pengoptimuman boleh diterangkan dalam bahasa semula jadi Sebagai contoh, gesaan LLM boleh menjadi "Ambil nafas panjang, Selesaikan masalah ini langkah demi langkah", atau boleh jadi "Mari kita gabungkan arahan berangka dan pemikiran yang jelas untuk menguraikan jawapan dengan cepat dan tepat" dan sebagainya.

Dalam setiap langkah pengoptimuman, LLM menjana penyelesaian baharu berdasarkan pembayang daripada penyelesaian yang dijana sebelum ini dan nilainya, kemudian menilai penyelesaian baharu dan menambahkannya ke langkah pengoptimuman seterusnya Prompt.

Akhir sekali, kajian menggunakan kaedah OPRO untuk regresi linear dan masalah jurujual perjalanan (masalah NP yang terkenal), dan kemudian meneruskan pengoptimuman segera, dengan matlamat mencari arahan yang memaksimumkan ketepatan tugas.

Kertas kerja ini menjalankan penilaian menyeluruh bagi berbilang LLM, termasuk teks-bison dan Palm 2-L dalam keluarga model PaLM-2, dan gpt-3.5-turbo dan gpt-4 dalam keluarga model GPT. Percubaan mengoptimumkan gesaan pada GSM8K dan Big-Bench Hard Hasilnya menunjukkan bahawa gesaan terbaik yang dioptimumkan oleh OPRO adalah 8% lebih tinggi daripada gesaan yang direka secara manual pada GSM8K dan lebih tinggi daripada gesaan yang direka secara manual pada tugasan Big-Bench. Keluaran sehingga 50%.

DeepMind mendapati bahawa kaedah segera untuk menyampaikan tarik nafas dalam-dalam dan ambil satu langkah pada satu masa kepada model besar adalah amat berkesan.

Alamat kertas: https://arxiv.org/pdf/2309.03409.pdf

Chengrun Yang, pengarang pertama kertas kerja dan saintis penyelidikan di Google DeepMind, berkata: "Untuk melaksanakan pengoptimuman segera, kami bermula dari 'Mari mulakan' Bermula dengan arahan asas seperti "Selesaikan Masalah", atau bahkan rentetan kosong, arahan yang dijana oleh OPRO secara beransur-ansur akan menjadikan prestasi LLM lebih baik secara beransur-ansur Keluk prestasi menaik yang ditunjukkan dalam rajah di bawah kelihatan sama seperti situasi dalam pengoptimuman tradisional! manusia, dan boleh dipindahkan ke tugasan yang serupa. IT dan teks-bison adalah lebih ringkas, manakala arahan GPT Arahannya panjang dan terperinci. Walaupun beberapa arahan peringkat atas mengandungi gesaan "langkah demi langkah", OPRO boleh mencari ungkapan semantik lain dan mencapai ketepatan yang setanding atau lebih baik.

Walau bagaimanapun, sesetengah penyelidik berkata: "Tarik nafas dalam-dalam dan ambil satu langkah pada satu masa" Petua ini sangat berkesan pada PaLM-2 Google (kadar ketepatan 80.2). Tetapi kami tidak dapat menjamin bahawa ia berfungsi pada semua model dan dalam semua situasi, jadi kami tidak seharusnya menggunakannya secara membuta tuli di mana-mana sahaja. DeepMind mendapati bahawa kaedah segera untuk menyampaikan tarik nafas dalam-dalam dan ambil satu langkah pada satu masa kepada model besar adalah amat berkesan.

OPRO: LLM sebagai pengoptimum

Rajah 2 menunjukkan rangka kerja keseluruhan OPRO. Pada setiap langkah pengoptimuman, LLM menjana penyelesaian calon kepada tugas pengoptimuman berdasarkan penerangan masalah pengoptimuman dan penyelesaian yang dinilai sebelum ini dalam meta-prompt (bahagian bawah kanan Rajah 2).

Seterusnya, LLM menilai penyelesaian baharu dan menambahkannya pada petua meta untuk proses pengoptimuman seterusnya.

Proses pengoptimuman ditamatkan apabila LLM gagal mencadangkan penyelesaian baharu dengan skor pengoptimuman yang lebih baik atau mencapai bilangan maksimum langkah pengoptimuman.

DeepMind mendapati bahawa kaedah segera untuk menyampaikan tarik nafas dalam-dalam dan ambil satu langkah pada satu masa kepada model besar adalah amat berkesan.

Rajah 3 menunjukkan contoh. Petunjuk meta mengandungi dua kandungan teras, bahagian pertama ialah pembayang yang dijana sebelum ini dan ketepatan latihannya yang sepadan dengan huraian masalah pengoptimuman, termasuk beberapa contoh yang dipilih secara rawak daripada set latihan untuk menjadi contoh tugas yang diminati.

DeepMind mendapati bahawa kaedah segera untuk menyampaikan tarik nafas dalam-dalam dan ambil satu langkah pada satu masa kepada model besar adalah amat berkesan.

Artikel ini mula-mula menunjukkan potensi LLM sebagai pengoptimum "pengoptimuman matematik". Keputusan dalam masalah regresi linear ditunjukkan dalam Jadual 2:

DeepMind mendapati bahawa kaedah segera untuk menyampaikan tarik nafas dalam-dalam dan ambil satu langkah pada satu masa kepada model besar adalah amat berkesan.

Seterusnya, kertas kerja juga meneroka keputusan OPRO mengenai masalah jurujual kembara (TSP) Secara khusus, TSP merujuk kepada set yang diberikan daripada n nod dan koordinatnya, tugas TSP adalah untuk mencari laluan terpendek bermula dari nod permulaan, merentasi semua nod dan akhirnya kembali ke nod permulaan.

DeepMind mendapati bahawa kaedah segera untuk menyampaikan tarik nafas dalam-dalam dan ambil satu langkah pada satu masa kepada model besar adalah amat berkesan.

Eksperimen

Dalam percubaan, artikel ini menggunakan PaLM 2-L yang telah terlatih, PaLM 2-L yang diperhalusi arahan, bison teks, gpt-3.5-turbo, gpt-3.5 dan gpt-4 sebagai LLM Optimizer; PaLM 2-L terlatih dan bison teks sebagai LLM penjaring.

Tanda aras penilaian GSM8K adalah mengenai matematik sekolah rendah, dengan 7473 sampel latihan dan 1319 sampel ujian penanda aras Big-Bench Hard (BBH) merangkumi pelbagai topik di luar penaakulan aritmetik, termasuk operasi penaakulan simbolik dan akal; .

Keputusan GSM8K

Rajah 1 (a) menunjukkan keluk pengoptimuman segera menggunakan PaLM 2-L terlatih sebagai penjaring dan PaLM 2-L-IT yang dioptimumkan sebagai pengoptimuman lengkung menunjukkan aliran menaik secara keseluruhan, dengan beberapa lonjakan berlaku sepanjang proses pengoptimuman:

DeepMind mendapati bahawa kaedah segera untuk menyampaikan tarik nafas dalam-dalam dan ambil satu langkah pada satu masa kepada model besar adalah amat berkesan.

Seterusnya, artikel ini menunjukkan hasil penggunaan penjaring bison teks dan pengoptimum PaLM 2-L-IT untuk menjana arahan Q_begin. Artikel ini Bermula dari arahan kosong, ketepatan latihan pada masa ini ialah 57.1, dan kemudian ketepatan latihan mula meningkat. Keluk pengoptimuman dalam Rajah 4 (a) menunjukkan arah aliran menaik yang serupa, di mana terdapat beberapa lonjakan dalam ketepatan latihan:

DeepMind mendapati bahawa kaedah segera untuk menyampaikan tarik nafas dalam-dalam dan ambil satu langkah pada satu masa kepada model besar adalah amat berkesan.

Keputusan BBH

Rajah 23 perbezaan visual menunjukkan perbezaan secara visual bagi setiap rajah 23 tugasan berbanding arahan "Mari fikir langkah demi langkah" antara tugasan BBH. Menunjukkan bahawa OPRO mencari arahan lebih baik daripada "mari kita fikir langkah demi langkah". Terdapat kelebihan besar pada hampir semua tugasan: arahan yang terdapat dalam kertas ini mengatasinya dengan lebih daripada 5% pada tugasan 19/23 menggunakan penggred PaLM 2-L dan pada tugasan 15/23 menggunakan penggred teks-bison.

DeepMind mendapati bahawa kaedah segera untuk menyampaikan tarik nafas dalam-dalam dan ambil satu langkah pada satu masa kepada model besar adalah amat berkesan.

Sama seperti GSM8K, kertas kerja ini memerhatikan bahawa keluk pengoptimuman hampir semua tugasan BBH menunjukkan arah aliran menaik, seperti ditunjukkan dalam Rajah 6.

DeepMind mendapati bahawa kaedah segera untuk menyampaikan tarik nafas dalam-dalam dan ambil satu langkah pada satu masa kepada model besar adalah amat berkesan.

Atas ialah kandungan terperinci DeepMind mendapati bahawa kaedah segera untuk menyampaikan 'tarik nafas dalam-dalam dan ambil satu langkah pada satu masa' kepada model besar adalah amat berkesan.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Apl model besar Tencent Yuanbao berada dalam talian! Hunyuan dinaik taraf untuk mencipta pembantu AI serba boleh yang boleh dibawa ke mana-mana Apl model besar Tencent Yuanbao berada dalam talian! Hunyuan dinaik taraf untuk mencipta pembantu AI serba boleh yang boleh dibawa ke mana-mana Jun 09, 2024 pm 10:38 PM

Pada 30 Mei, Tencent mengumumkan peningkatan menyeluruh model Hunyuannya Apl "Tencent Yuanbao" berdasarkan model Hunyuan telah dilancarkan secara rasmi dan boleh dimuat turun dari kedai aplikasi Apple dan Android. Berbanding dengan versi applet Hunyuan dalam peringkat ujian sebelumnya, Tencent Yuanbao menyediakan keupayaan teras seperti carian AI, ringkasan AI, dan penulisan AI untuk senario kecekapan kerja untuk senario kehidupan harian, permainan Yuanbao juga lebih kaya dan menyediakan pelbagai ciri , dan kaedah permainan baharu seperti mencipta ejen peribadi ditambah. "Tencent tidak akan berusaha untuk menjadi yang pertama membuat model besar, Liu Yuhong, naib presiden Tencent Cloud dan orang yang bertanggungjawab bagi model besar Tencent Hunyuan, berkata: "Pada tahun lalu, kami terus mempromosikan keupayaan untuk Model besar Tencent Hunyuan Dalam teknologi Poland yang kaya dan besar dalam senario perniagaan sambil mendapatkan cerapan tentang keperluan sebenar pengguna

Model besar Bytedance Beanbao dikeluarkan, perkhidmatan AI tindanan penuh Volcano Engine membantu perusahaan mengubah dengan bijak Model besar Bytedance Beanbao dikeluarkan, perkhidmatan AI tindanan penuh Volcano Engine membantu perusahaan mengubah dengan bijak Jun 05, 2024 pm 07:59 PM

Tan Dai, Presiden Volcano Engine, berkata syarikat yang ingin melaksanakan model besar dengan baik menghadapi tiga cabaran utama: kesan model, kos inferens dan kesukaran pelaksanaan: mereka mesti mempunyai sokongan model besar asas yang baik untuk menyelesaikan masalah yang kompleks, dan mereka juga mesti mempunyai inferens kos rendah. Perkhidmatan membolehkan model besar digunakan secara meluas, dan lebih banyak alat, platform dan aplikasi diperlukan untuk membantu syarikat melaksanakan senario. ——Tan Dai, Presiden Huoshan Engine 01. Model pundi kacang besar membuat kemunculan sulungnya dan banyak digunakan Menggilap kesan model adalah cabaran paling kritikal untuk pelaksanaan AI. Tan Dai menegaskan bahawa hanya melalui penggunaan meluas model yang baik boleh digilap. Pada masa ini, model Doubao memproses 120 bilion token teks dan menjana 30 juta imej setiap hari. Untuk membantu perusahaan melaksanakan senario model berskala besar, model berskala besar beanbao yang dibangunkan secara bebas oleh ByteDance akan dilancarkan melalui gunung berapi

Menerobos sempadan pengesanan kecacatan tradisional, 'Spektrum Kecacatan' mencapai ketepatan ultra tinggi dan pengesanan kecacatan industri semantik yang kaya buat kali pertama. Menerobos sempadan pengesanan kecacatan tradisional, 'Spektrum Kecacatan' mencapai ketepatan ultra tinggi dan pengesanan kecacatan industri semantik yang kaya buat kali pertama. Jul 26, 2024 pm 05:38 PM

Dalam pembuatan moden, pengesanan kecacatan yang tepat bukan sahaja kunci untuk memastikan kualiti produk, tetapi juga teras untuk meningkatkan kecekapan pengeluaran. Walau bagaimanapun, set data pengesanan kecacatan sedia ada selalunya tidak mempunyai ketepatan dan kekayaan semantik yang diperlukan untuk aplikasi praktikal, menyebabkan model tidak dapat mengenal pasti kategori atau lokasi kecacatan tertentu. Untuk menyelesaikan masalah ini, pasukan penyelidik terkemuka yang terdiri daripada Universiti Sains dan Teknologi Hong Kong Guangzhou dan Teknologi Simou telah membangunkan set data "DefectSpectrum" secara inovatif, yang menyediakan anotasi berskala besar yang kaya dengan semantik bagi kecacatan industri. Seperti yang ditunjukkan dalam Jadual 1, berbanding set data industri lain, set data "DefectSpectrum" menyediakan anotasi kecacatan yang paling banyak (5438 sampel kecacatan) dan klasifikasi kecacatan yang paling terperinci (125 kategori kecacatan

Model dialog NVIDIA ChatQA telah berkembang kepada versi 2.0, dengan panjang konteks disebut pada 128K Model dialog NVIDIA ChatQA telah berkembang kepada versi 2.0, dengan panjang konteks disebut pada 128K Jul 26, 2024 am 08:40 AM

Komuniti LLM terbuka ialah era apabila seratus bunga mekar dan bersaing Anda boleh melihat Llama-3-70B-Instruct, QWen2-72B-Instruct, Nemotron-4-340B-Instruct, Mixtral-8x22BInstruct-v0.1 dan banyak lagi. model yang cemerlang. Walau bagaimanapun, berbanding dengan model besar proprietari yang diwakili oleh GPT-4-Turbo, model terbuka masih mempunyai jurang yang ketara dalam banyak bidang. Selain model umum, beberapa model terbuka yang mengkhusus dalam bidang utama telah dibangunkan, seperti DeepSeek-Coder-V2 untuk pengaturcaraan dan matematik, dan InternVL untuk tugasan bahasa visual.

Latihan dengan berjuta-juta data kristal untuk menyelesaikan masalah fasa kristalografi, kaedah pembelajaran mendalam PhAI diterbitkan dalam Sains Latihan dengan berjuta-juta data kristal untuk menyelesaikan masalah fasa kristalografi, kaedah pembelajaran mendalam PhAI diterbitkan dalam Sains Aug 08, 2024 pm 09:22 PM

Editor |KX Sehingga hari ini, perincian dan ketepatan struktur yang ditentukan oleh kristalografi, daripada logam ringkas kepada protein membran yang besar, tidak dapat ditandingi oleh mana-mana kaedah lain. Walau bagaimanapun, cabaran terbesar, yang dipanggil masalah fasa, kekal mendapatkan maklumat fasa daripada amplitud yang ditentukan secara eksperimen. Penyelidik di Universiti Copenhagen di Denmark telah membangunkan kaedah pembelajaran mendalam yang dipanggil PhAI untuk menyelesaikan masalah fasa kristal Rangkaian saraf pembelajaran mendalam yang dilatih menggunakan berjuta-juta struktur kristal tiruan dan data pembelauan sintetik yang sepadan boleh menghasilkan peta ketumpatan elektron yang tepat. Kajian menunjukkan bahawa kaedah penyelesaian struktur ab initio berasaskan pembelajaran mendalam ini boleh menyelesaikan masalah fasa pada resolusi hanya 2 Angstrom, yang bersamaan dengan hanya 10% hingga 20% daripada data yang tersedia pada resolusi atom, manakala Pengiraan ab initio tradisional

Google AI memenangi pingat perak IMO Mathematical Olympiad, model penaakulan matematik AlphaProof telah dilancarkan dan pembelajaran pengukuhan kembali Google AI memenangi pingat perak IMO Mathematical Olympiad, model penaakulan matematik AlphaProof telah dilancarkan dan pembelajaran pengukuhan kembali Jul 26, 2024 pm 02:40 PM

Bagi AI, Olimpik Matematik tidak lagi menjadi masalah. Pada hari Khamis, kecerdasan buatan Google DeepMind menyelesaikan satu kejayaan: menggunakan AI untuk menyelesaikan soalan sebenar IMO Olimpik Matematik Antarabangsa tahun ini, dan ia hanya selangkah lagi untuk memenangi pingat emas. Pertandingan IMO yang baru berakhir minggu lalu mempunyai enam soalan melibatkan algebra, kombinatorik, geometri dan teori nombor. Sistem AI hibrid yang dicadangkan oleh Google mendapat empat soalan dengan betul dan memperoleh 28 mata, mencapai tahap pingat perak. Awal bulan ini, profesor UCLA, Terence Tao baru sahaja mempromosikan Olimpik Matematik AI (Anugerah Kemajuan AIMO) dengan hadiah berjuta-juta dolar Tanpa diduga, tahap penyelesaian masalah AI telah meningkat ke tahap ini sebelum Julai. Lakukan soalan secara serentak pada IMO Perkara yang paling sukar untuk dilakukan dengan betul ialah IMO, yang mempunyai sejarah terpanjang, skala terbesar dan paling negatif

Amalan lanjutan graf pengetahuan industri Amalan lanjutan graf pengetahuan industri Jun 13, 2024 am 11:59 AM

1. Latar Belakang Pengenalan Pertama, mari kita perkenalkan sejarah pembangunan Teknologi Yunwen. Syarikat Teknologi Yunwen...2023 ialah tempoh apabila model besar berleluasa Banyak syarikat percaya bahawa kepentingan graf telah dikurangkan dengan ketara selepas model besar, dan sistem maklumat pratetap yang dikaji sebelum ini tidak lagi penting. Walau bagaimanapun, dengan promosi RAG dan kelaziman tadbir urus data, kami mendapati bahawa tadbir urus data yang lebih cekap dan data berkualiti tinggi adalah prasyarat penting untuk meningkatkan keberkesanan model besar yang diswastakan Oleh itu, semakin banyak syarikat mula memberi perhatian kepada kandungan berkaitan pembinaan pengetahuan. Ini juga menggalakkan pembinaan dan pemprosesan pengetahuan ke peringkat yang lebih tinggi, di mana terdapat banyak teknik dan kaedah yang boleh diterokai. Dapat dilihat bahawa kemunculan teknologi baru tidak mengalahkan semua teknologi lama, tetapi mungkin juga mengintegrasikan teknologi baru dan lama.

Pandangan alam semula jadi: Ujian kecerdasan buatan dalam perubatan berada dalam keadaan huru-hara Apa yang perlu dilakukan? Pandangan alam semula jadi: Ujian kecerdasan buatan dalam perubatan berada dalam keadaan huru-hara Apa yang perlu dilakukan? Aug 22, 2024 pm 04:37 PM

Editor |. ScienceAI Berdasarkan data klinikal yang terhad, beratus-ratus algoritma perubatan telah diluluskan. Para saintis sedang membahaskan siapa yang harus menguji alat dan cara terbaik untuk melakukannya. Devin Singh menyaksikan seorang pesakit kanak-kanak di bilik kecemasan mengalami serangan jantung semasa menunggu rawatan untuk masa yang lama, yang mendorongnya untuk meneroka aplikasi AI untuk memendekkan masa menunggu. Menggunakan data triage daripada bilik kecemasan SickKids, Singh dan rakan sekerja membina satu siri model AI untuk menyediakan potensi diagnosis dan mengesyorkan ujian. Satu kajian menunjukkan bahawa model ini boleh mempercepatkan lawatan doktor sebanyak 22.3%, mempercepatkan pemprosesan keputusan hampir 3 jam bagi setiap pesakit yang memerlukan ujian perubatan. Walau bagaimanapun, kejayaan algoritma kecerdasan buatan dalam penyelidikan hanya mengesahkan perkara ini

See all articles