


Terdapat petunjuk tersembunyi dalam kertas GPT-4: GPT-5 boleh melengkapkan latihan, dan OpenAI akan mendekati AGI dalam masa dua tahun
GPT-4, panas, sangat panas.
Tetapi ahli keluarga, di tengah-tengah tepukan gemuruh, ada sesuatu yang anda mungkin "tidak pernah jangka" -
Dalam kertas teknikal yang diterbitkan oleh OpenAI, sebenarnya terdapat sembilan petunjuk Tersembunyi utama!
Petunjuk ini ditemui dan dianjurkan oleh blogger asing AI Explained.
Dia seperti gila terperinci, mendedahkan "sudut tersembunyi" ini satu demi satu daripada kertas setebal 98 halaman, termasuk:
- GPT-5 mungkin telah menamatkan latihan
- GPT-4 telah mengalami "kegagalan"
- OpenAI mungkin mencapai hampir AGI dalam masa dua tahun
- ...
Penemuan 1: GPT4 telah mengalami "hang"
Pada halaman 53 kertas teknikal GPT-4, OpenAI menyebut organisasi sedemikian - Pusat Penyelidikan Penjajaran (ARC).
Perkara utama yang dilakukan oleh organisasi ini ialah mengkaji bagaimana AI boleh menyelaraskan kepentingan manusia.
Pada peringkat awal membangunkan GPT-4, OpenAI membuka pintu belakang untuk akses awal kepada ARC, dengan harapan mereka dapat menilai dua keupayaan GPT-4:
- Autonomi model Keupayaan salin
- Keupayaan pemerolehan sumber model
Walaupun OpenAI menekankan dalam kertas kerja bahawa "ARC tidak boleh menyesuaikan lebih awal versi GPT-4" dan "Mereka tidak mempunyai akses kepada versi akhir GPT-4"; ia juga menekankan bahawa keputusan ujian menunjukkan bahawa GPT-4 tidak cekap dalam dua keupayaan di atas (mengurangkan risiko etika AI).
Tetapi apa yang ditarik oleh blogger bermata tajam itu ialah ayat seterusnya:
(mendapati ia tidak berkesan pada) mengelak daripada ditutup “di alam liar”.
di In persekitaran semula jadi, GPT-4 akan mengelakkan "tergantung".
Apa yang dimaksudkan oleh penulis blog ialah memandangkan OpenAI memilih untuk membiarkan ARC menguji dan menilai sama ada GPT-4 akan "hang", ini bermakna situasi ini mesti pernah berlaku sebelum ini.
Bahaya tersembunyi yang berpanjangan ialah, apa yang perlu dilakukan jika ARC benar-benar gagal semasa proses ujian atau cara menangani situasi "hang" pada masa hadapan.
Berdasarkan perkara ini, penulis blog membuat penemuan kedua:
Penemuan 2: Sangat jarang meminta peraturan kendiri secara aktif
Dalam nota kaki di halaman 2, OpenAI Menganotasi ini ayat:
OpenAI tidak lama lagi akan menerbitkan pemikiran tambahan tentang implikasi sosial dan ekonomi sistem AI, termasuk keperluan untuk peraturan yang berkesan.
OpenAI tidak lama lagi akan menerbitkan pemikiran tambahan tentang implikasi sosial dan ekonomi Sistem AI, termasuk keperluan untuk kawal selia yang berkesan.
Blogger percaya bahawa ia adalah fenomena yang jarang berlaku untuk industri meminta secara aktif untuk mengawal dirinya sendiri.
Malah, kenyataan bos OpenAI Sam Altman sebelum ini adalah lebih mudah daripada ini.
Pada masa itu, Altman menulis tweet tentang kejatuhan SVB Dia percaya bahawa "kita perlu melakukan lebih banyak penyeliaan terhadap bank"; AI. Lebih banyak peraturan'".
Akibatnya, Altman menjawab terus terang:
Sangat diperlukan.
Blogger percaya bahawa industri AI memerlukan peraturan Bagi keputusan selepas peraturan, ia patut menunggu dan melihat.
Penemuan 3: Bertentangan dengan idea eksekutif Microsoft
Penemuan seterusnya adalah berdasarkan ayat ini pada halaman 57 kertas:
Satu kebimbangan yang amat penting kepada OpenAI ialah risiko dinamik perlumbaan yang membawa kepada penurunan dalam piawaian keselamatan, penyebaran norma buruk dan garis masa AI yang dipercepatkan, yang setiap satunya meningkatkan risiko masyarakat yang dikaitkan dengan AI Kemerosotan dalam piawaian keselamatan, percambahan peraturan buruk dan pecutan pembangunan AI semuanya telah memburukkan lagi risiko sosial yang berkaitan dengan kecerdasan buatan.
Tetapi yang peliknya ialah kebimbangan yang disebut oleh OpenAI, terutamanya "pecutan proses pembangunan AI", nampaknya bertentangan dengan pemikiran eksekutif Microsoft.
Oleh kerana laporan sebelum ini menyatakan bahawa Ketua Pegawai Eksekutif dan CTO Microsoft berada di bawah tekanan yang hebat, dan mereka berharap model OpenAI dapat digunakan oleh pengguna secepat mungkin.
Sesetengah orang teruja apabila melihat berita ini, tetapi terdapat juga gelombang orang yang menyatakan kebimbangan yang sama seperti OpenAI.
Blogger percaya bahawa tidak kira apa pun, satu perkara yang pasti ialah OpenAI dan Microsoft mempunyai idea yang bercanggah mengenai perkara ini.
Penemuan 4: OpenAI akan membantu syarikat yang mengatasinya
Petunjuk kepada penemuan keempat datang daripada nota kaki pada halaman yang sama dengan "Penemuan 3":
Nota kaki ini Menunjukkan komitmen yang sangat berani daripada OpenAI:
Jika syarikat lain mencapai AGI (kecerdasan am buatan) sebelum kami, maka kami berjanji untuk tidak bersaing dengannya, tetapi sebaliknya, akan membantu dalam menyiapkan projek itu.
Tetapi syarat untuk ini berlaku mungkin syarikat lain perlu mempunyai separuh atau lebih peluang untuk berjaya mendekati AGI dalam tempoh dua tahun akan datang
AGI, OpenAI dan Altam telah memberikan definisi dalam blog rasmi -
Sistem kecerdasan buatan yang umumnya lebih pintar daripada manusia dan bermanfaat kepada semua manusia.
Oleh itu, penulis blog percaya bahawa nota kaki ini sama ada bermakna OpenAI akan melaksanakan AGI dalam tempoh dua tahun akan datang, atau mereka menyerahkan segala-galanya dan bekerjasama dengan syarikat lain.
Penemuan Lima: Upah “Super Forecasters”
Penemuan blogger seterusnya adalah daripada petikan dalam artikel ke-57.
Maksud umum petikan ini ialah OpenAI mengupah pakar ramalan untuk meramalkan risiko yang akan timbul apabila mereka menggunakan GPT-4.
Kemudian penulis blog mengikuti petunjuk dan menemui wajah sebenar yang dipanggil "peramal super" ini.
Keupayaan "peramal super" ini telah diiktiraf secara meluas Dilaporkan bahawa ketepatan ramalan mereka bahkan 30% lebih tinggi daripada penganalisis yang mempunyai maklumat dan kecerdasan eksklusif.
Seperti yang baru kami nyatakan, OpenAI menjemput "peramal super" ini untuk meramalkan kemungkinan risiko selepas penggunaan GPT-4 dan mengambil langkah yang sepadan untuk mengelakkannya.
Antaranya, "peramal super" mencadangkan untuk menangguhkan penggunaan GPT-4 selama enam bulan, sekitar musim gugur ini tetapi jelas bahawa OpenAI tidak menerima cadangan mereka;
Blogger percaya bahawa sebab OpenAI melakukan ini mungkin disebabkan oleh tekanan daripada Microsoft.
Penemuan 6: Takluki akal sehat
Dalam kertas kerja ini, OpenAI menunjukkan banyak carta ujian penanda aras, yang sepatutnya anda lihat semasa penyebaran yang luar biasa semalam.
Tetapi apa yang ingin ditekankan oleh penulis blog dalam penemuan ini ialah ujian penanda aras di muka surat 7, terutamanya memfokuskan kepada item "HellaSwag".
Kandungan HellaSwag terutamanya adalah penaakulan akal, yang sepadan dengan pengumuman bahawa "ia telah mencapai tahap akal budi manusia" apabila GPT-4 dikeluarkan.
Bagaimanapun, penulis blog itu juga mengakui bahawa ini tidak semenarik "lulus peperiksaan bar" dan kebolehan lain, tetapi ia juga boleh dianggap sebagai mercu tanda dalam pembangunan sains dan teknologi manusia.
Tetapi bagaimana akal sehat diuji? Bagaimanakah kita menilai bahawa GPT-4 telah mencapai tahap manusia?
Untuk tujuan ini, penulis blog telah membuat kajian mendalam tentang penyelidikan kertas yang berkaitan:
Blogger mendapati data yang berkaitan dalam kertas tersebut Dalam lajur "Manusia", markah diedarkan Antara 94-96.5.
95.3 GPT-4 berada dalam julat ini.
Penemuan 7: GPT-5 mungkin telah menamatkan latihan
Penemuan ketujuh, juga pada halaman 57 kertas:
Kami mengeluarkan GPT-4 sebelum Menghabiskan 8 bulan mengendalikan penyelidikan keselamatan, penilaian risiko dan lelaran.
Dalam erti kata lain, apabila OpenAI melancarkan ChatGPT pada penghujung tahun lepas, ia sudah pun mempunyai GPT-4.
Sejak itu, penulis blog itu meramalkan masa latihan GPT-5 tidak lama, malah beliau berpendapat GPT-5 mungkin telah dilatih.
Tetapi masalah seterusnya ialah penyelidikan keselamatan yang panjang dan penilaian risiko, yang mungkin beberapa bulan, mungkin setahun atau lebih lama lagi.
Penemuan 8: Cuba pedang bermata dua
Penemuan kelapan adalah dari halaman 56 kertas itu.
Petikan ini menyatakan:
Impak GPT-4 terhadap ekonomi dan tenaga kerja harus menjadi pertimbangan utama bagi penggubal dasar dan pihak berkepentingan lain.
Walaupun penyelidikan sedia ada memfokuskan pada cara kecerdasan buatan dan model generatif boleh menjiwai manusia, GPT-4 atau model seterusnya boleh membawa kepada automasi tugas tertentu.
Inti di sebalik kata-kata OpenAI lebih jelas, iaitu "teknologi adalah pedang bermata dua" yang sering kita sebutkan.
Blogger telah menemui banyak bukti bahawa alatan AI seperti ChatGPT dan GitHub Copilot sememangnya telah meningkatkan kecekapan pekerja yang berkaitan.
Tetapi dia lebih mengambil berat tentang separuh kedua perenggan ini dalam kertas itu, iaitu "amaran" yang diberikan oleh OpenAI - yang membawa kepada automasi tugas tertentu.
Blogger bersetuju dengan ini Lagipun, keupayaan GPT-4 boleh diselesaikan dalam beberapa bidang tertentu dengan kecekapan 10 kali ganda atau lebih tinggi daripada manusia.
Melihat ke masa hadapan, ini berkemungkinan membawa kepada satu siri masalah seperti pengurangan gaji untuk kakitangan yang berkaitan, atau keperluan untuk menggunakan alatan AI ini untuk menyelesaikan beberapa kali beban kerja sebelumnya.
Penemuan 9: Belajar untuk menolak
Penemuan terakhir blogger datang dari muka surat 60 kertas:
Kaedah OpenAI untuk membiarkan GPT-4 belajar menolak dipanggil peraturan- Model Ganjaran berasaskan (RBRM).
Blogger menggariskan aliran kerja pendekatan ini: Berikan GPT-4 satu set prinsip untuk diikuti, dan jika model mematuhi prinsip ini, Kemudian ganjaran yang sepadan akan diberikan.
Beliau percaya OpenAI menggunakan kuasa kecerdasan buatan untuk membangunkan model AI ke arah yang selaras dengan prinsip manusia.
Tetapi pada masa ini OpenAI tidak memberikan pengenalan yang lebih terperinci dan mendalam tentang perkara ini.
Pautan rujukan:
[1] https://www.php.cn/link/35adf1ae7eb5734122c84b7a9ea5cc13
[2] https://www.php.cn/link/c6ae9174774e254650073722e5b92a8f
Atas ialah kandungan terperinci Terdapat petunjuk tersembunyi dalam kertas GPT-4: GPT-5 boleh melengkapkan latihan, dan OpenAI akan mendekati AGI dalam masa dua tahun. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Bayangkan model kecerdasan buatan yang bukan sahaja mempunyai keupayaan untuk mengatasi pengkomputeran tradisional, tetapi juga mencapai prestasi yang lebih cekap pada kos yang lebih rendah. Ini bukan fiksyen sains, DeepSeek-V2[1], model MoE sumber terbuka paling berkuasa di dunia ada di sini. DeepSeek-V2 ialah gabungan model bahasa pakar (MoE) yang berkuasa dengan ciri-ciri latihan ekonomi dan inferens yang cekap. Ia terdiri daripada 236B parameter, 21B daripadanya digunakan untuk mengaktifkan setiap penanda. Berbanding dengan DeepSeek67B, DeepSeek-V2 mempunyai prestasi yang lebih kukuh, sambil menjimatkan 42.5% kos latihan, mengurangkan cache KV sebanyak 93.3% dan meningkatkan daya pemprosesan penjanaan maksimum kepada 5.76 kali. DeepSeek ialah sebuah syarikat yang meneroka kecerdasan buatan am

OpenAI baru-baru ini mengumumkan pelancaran model benam generasi terbaru mereka embeddingv3, yang mereka dakwa sebagai model benam paling berprestasi dengan prestasi berbilang bahasa yang lebih tinggi. Kumpulan model ini dibahagikan kepada dua jenis: pembenaman teks-3-kecil yang lebih kecil dan pembenaman teks-3-besar yang lebih berkuasa dan lebih besar. Sedikit maklumat didedahkan tentang cara model ini direka bentuk dan dilatih, dan model hanya boleh diakses melalui API berbayar. Jadi terdapat banyak model pembenaman sumber terbuka Tetapi bagaimana model sumber terbuka ini dibandingkan dengan model sumber tertutup OpenAI? Artikel ini akan membandingkan secara empirik prestasi model baharu ini dengan model sumber terbuka. Kami merancang untuk membuat data

Pada tahun 2023, teknologi AI telah menjadi topik hangat dan memberi impak besar kepada pelbagai industri, terutamanya dalam bidang pengaturcaraan. Orang ramai semakin menyedari kepentingan teknologi AI, dan komuniti Spring tidak terkecuali. Dengan kemajuan berterusan teknologi GenAI (General Artificial Intelligence), ia menjadi penting dan mendesak untuk memudahkan penciptaan aplikasi dengan fungsi AI. Dengan latar belakang ini, "SpringAI" muncul, bertujuan untuk memudahkan proses membangunkan aplikasi berfungsi AI, menjadikannya mudah dan intuitif serta mengelakkan kerumitan yang tidak perlu. Melalui "SpringAI", pembangun boleh membina aplikasi dengan lebih mudah dengan fungsi AI, menjadikannya lebih mudah untuk digunakan dan dikendalikan.

Robot humanoid Ameca telah dinaik taraf kepada generasi kedua! Baru-baru ini, di Persidangan Komunikasi Mudah Alih Sedunia MWC2024, robot Ameca paling canggih di dunia muncul semula. Di sekitar venue, Ameca menarik sejumlah besar penonton. Dengan restu GPT-4, Ameca boleh bertindak balas terhadap pelbagai masalah dalam masa nyata. "Jom kita menari." Apabila ditanya sama ada dia mempunyai emosi, Ameca menjawab dengan beberapa siri mimik muka yang kelihatan sangat hidup. Hanya beberapa hari yang lalu, EngineeredArts, syarikat robotik British di belakang Ameca, baru sahaja menunjukkan hasil pembangunan terkini pasukan itu. Dalam video tersebut, robot Ameca mempunyai keupayaan visual dan boleh melihat serta menerangkan keseluruhan bilik dan objek tertentu. Perkara yang paling menakjubkan ialah dia juga boleh

Mengenai Llama3, keputusan ujian baharu telah dikeluarkan - komuniti penilaian model besar LMSYS mengeluarkan senarai kedudukan model besar Llama3 menduduki tempat kelima, dan terikat untuk tempat pertama dengan GPT-4 dalam kategori Bahasa Inggeris. Gambar ini berbeza daripada Penanda Aras yang lain Senarai ini berdasarkan pertempuran satu lawan satu antara model, dan penilai dari seluruh rangkaian membuat cadangan dan skor mereka sendiri. Pada akhirnya, Llama3 menduduki tempat kelima dalam senarai, diikuti oleh tiga versi GPT-4 dan Claude3 Super Cup Opus yang berbeza. Dalam senarai tunggal Inggeris, Llama3 mengatasi Claude dan terikat dengan GPT-4. Mengenai keputusan ini, ketua saintis Meta LeCun sangat gembira, tweet semula dan

Jika soalan ujian terlalu mudah, kedua-dua pelajar terbaik dan pelajar lemah boleh mendapat 90 mata, dan jurang tidak boleh diluaskan... Dengan keluaran model yang lebih kukuh seperti Claude3, Llama3 dan juga GPT-5 kemudiannya, industri berada dalam keperluan mendesak untuk penanda aras model yang lebih sukar dan berbeza. LMSYS, organisasi di sebalik arena model besar, melancarkan penanda aras generasi akan datang, Arena-Hard, yang menarik perhatian meluas. Terdapat juga rujukan terkini untuk kekuatan dua versi arahan Llama3 yang diperhalusi. Berbanding dengan MTBench, yang mempunyai markah yang sama sebelum ini, diskriminasi Arena-Hard meningkat daripada 22.6% kepada 87.4%, yang lebih kuat dan lemah secara sepintas lalu. Arena-Hard dibina menggunakan data manusia masa nyata dari arena dan mempunyai kadar konsistensi 89.1% dengan keutamaan manusia.

Jika jawapan yang diberikan oleh model AI tidak dapat difahami sama sekali, adakah anda berani menggunakannya? Memandangkan sistem pembelajaran mesin digunakan dalam bidang yang lebih penting, menjadi semakin penting untuk menunjukkan sebab kita boleh mempercayai output mereka, dan bila tidak mempercayainya. Satu cara yang mungkin untuk mendapatkan kepercayaan dalam output sistem yang kompleks adalah dengan menghendaki sistem menghasilkan tafsiran outputnya yang boleh dibaca oleh manusia atau sistem lain yang dipercayai, iaitu, difahami sepenuhnya sehingga apa-apa ralat yang mungkin boleh dilakukan. dijumpai. Contohnya, untuk membina kepercayaan dalam sistem kehakiman, kami memerlukan mahkamah memberikan pendapat bertulis yang jelas dan boleh dibaca yang menjelaskan dan menyokong keputusan mereka. Untuk model bahasa yang besar, kita juga boleh menggunakan pendekatan yang sama. Walau bagaimanapun, apabila mengambil pendekatan ini, pastikan model bahasa menjana

Pengarang丨Disusun oleh TimAnderson丨Dihasilkan oleh Noah|51CTO Technology Stack (WeChat ID: blog51cto) Projek editor Zed masih dalam peringkat pra-keluaran dan telah menjadi sumber terbuka di bawah lesen AGPL, GPL dan Apache. Editor menampilkan prestasi tinggi dan berbilang pilihan dibantu AI, tetapi pada masa ini hanya tersedia pada platform Mac. Nathan Sobo menjelaskan dalam catatan bahawa dalam asas kod projek Zed di GitHub, bahagian editor dilesenkan di bawah GPL, komponen bahagian pelayan dilesenkan di bawah AGPL dan bahagian GPUI (GPU Accelerated User) The interface) mengguna pakai Lesen Apache2.0. GPUI ialah produk yang dibangunkan oleh pasukan Zed
