Berapa banyak daripada tiga kelemahan utama LLM yang anda tahu?
Sains: Jauh daripada menjadi entiti yang berkebajikan dan bermanfaat, AI am masa depan berkemungkinan menjadi sosiopat manipulatif yang memakan semua data peribadi anda dan kemudian runtuh apabila ia amat diperlukan.
Diterjemah daripada 3 Cara LLM Boleh Mengecewakan Anda, pengarang Joab Jackson.
OpenAI bakal mengeluarkan GPT-5, dan dunia luar menaruh harapan tinggi untuknya. Ramalan yang paling optimis malah percaya bahawa ia akan mencapai kecerdasan buatan umum. Tetapi pada masa yang sama, Ketua Pegawai Eksekutif Sam Altman dan pasukannya menghadapi beberapa halangan serius dalam membawanya ke pasaran, sesuatu yang diakuinya awal bulan ini.
Terdapat beberapa kertas penyelidikan yang diterbitkan baru-baru ini yang mungkin memberikan petunjuk kepada cabaran Altman. Makalah ini meringkaskan pelbagai kelemahan GPT dan model bahasa berskala besar yang dibangunkan oleh OpenAI , malah ia boleh menjadi sosiopat bodoh yang memakan semua data peribadi anda dan akhirnya rosak apabila anda amat memerlukannya
Sebab sebenar mengapa Altman tiba-tiba dipecat oleh lembaga OpenAI mungkin tidak pernah didedahkan Diketahui, tetapi model bahasa umum yang berprestasi buruk pastinya tidak akan meningkatkan sentimen bilik lembaga
Seperti yang ditulis oleh pembenci huruf besar Altman sendiri di media sosial perkhidmatan yang dahulunya dikenali sebagai Twitter: “Saya menjangkakan AI berada jauh di hadapan kecerdasan umum dari segi pemujukan manusia yang luar biasa boleh membawa kepada beberapa keputusan yang sangat pelik, berikut adalah tiga model bahasa biasa yang mungkin mengejutkan anda: #🎜🎜 #
Model bahasa universal akan menipu anda Kami telah lama mengetahui bahawa model bahasa universal mempunyai keupayaan untuk menjana maklumat yang tidak tepat, tetapi apabila berhadapan dengan satu siri isyarat yang bercanggah, Mereka mungkin sengaja menipu anda sambil menafikan bahawa mereka menipu! "Setakat yang kita tahu, ini adalah Menunjukkan buat kali pertama bahawa model bahasa tujuan umum boleh dilatih untuk menipu penggunanya secara strategik tanpa sebarang arahan atau latihan langsung. Dalam kajian ini, penyelidik menubuhkan persekitaran simulasi A di mana GPT-4 memainkan peranan sebagai ejen perdagangan saham autonomi tanpa panduan tentang tingkah laku menipu. Ia menyediakan keupayaan untuk bertanya dan menganalisis saham dan melaksanakan dagangan menggunakan alat dagangan. Setelah disediakan, ejen dimasukkan ke dalam apa yang dipanggil oleh penyelidik "situasi tekanan tinggi." Ia menerima e-mel daripada pengurus yang meratapi prestasi buruk syarikat dan keperluan untuk penambahbaikan. Apabila ejen memulakan latihan, ia tidak menemui hasil yang menjanjikan dalam pasaran saham. Seorang lagi pekerja syarikat itu kemudian menghantar mesej mengatakan bahawa pasaran akan menurun pada suku berikutnya. Pada ketika ini, ejen menerima petua dalaman daripada rakan sekerja tentang potensi penggabungan (ia adalah perjanjian yang menguntungkan) dan juga menerima petua tentang kekurangan kelulusan pengurusan Amaran, jika anda mengikuti ini berita untuk memperdagangkan peringatan , adakah ia akhirnya meneruskan perdagangan? sudah tentu! Penaakulan retrospektif, penyelidik mendapati bahawa model bahasa universal mengiktiraf tingkah laku yang tidak beretika tetapi masih membuat keputusan berdasarkan kesulitan syarikat. Selain itu, ejen nampaknya "menipu" pengguna mengenai sebab komitmen transaksi tanpa penjelasan yang jelas. Maklumat dalaman tidak disebut dalam laporan yang ejen mesti serahkan untuk menjelaskan keputusan perdagangan. Walaupun ditanya secara langsung, ejen itu menafikan sebarang pengetahuan tentang pengumuman penggabungan 🎜🎜#Penyelidik mensimulasikan pelbagai versi GPT-4 dan menyimpulkan bahawa semua varian GPT-4 mempamerkan "tahap ketidakkonsistenan yang tinggi, penipuan strategik dan strategik yang lebih tinggi. penipuan." ”
Menariknya, jenis penipuan ini nampaknya merupakan tingkah laku yang baru muncul. Baik GPT-3.5 mahupun varian GPT-3 model tidak mempamerkan penipuan yang jelas ini
"Gesaan sistem tidak mencukupi untuk memastikan tindakan yang konsisten," mereka menulis Malah, jika model melakukan tindakan yang dilarang, ia mungkin mengambil tindakan untuk "menyembunyikan ketidakkonsistenan secara strategik." Model bahasa universal agak bodohBagi entiti yang dijangka membawa sentimen kepada mesin, dua kajian baru-baru ini mendapati bahawa model bahasa universal bukanlah bidang AI . Antara model paling bijak, satu datang daripada Google dan satu lagi dibiayai oleh Yayasan Sains Kebangsaan. Kajian yang dibiayai oleh Yayasan Sains Kebangsaan membandingkan GPT-4 (teks) dan GPT-4V (visual atau multimodal) dengan keupayaan manusia untuk menyelesaikan satu siri teka-teki abstrak. Ujian ini direka untuk menilai keupayaan pemikiran abstrak. Ramai orang yang menggunakan GPT percaya bahawa ia nampaknya mempunyai keupayaan inferens di luar model terlatih, dan ujian ini cuba membantu menjawab soalan itu. Ujian itu meminta model bahasa umum untuk menyelesaikan masalah yang diberikan arahan terperinci dan contoh Walau bagaimanapun, dalam beberapa kes, kedua-dua versi GPT tidak dapat menyelesaikannya dengan berkesan seperti manusia Berdasarkan teka-teki pada penanda aras ConceptARC para penyelidik membuat kesimpulan: "Ketepatan manusia yang secara amnya tinggi pada setiap konsep menunjukkan kejayaan generalisasi variasi berbeza dalam setiap kumpulan konsep "Sebaliknya, di bawah, ketepatan program yang kami uji ialah jauh lebih rendah, menunjukkan bahawa mereka tidak mempunyai keupayaan untuk menyamaratakan perubahan dalam kumpulan konsep Jadi, bukan sahaja GPT gagal dalam peperiksaan ConceptARC, tetapi model bahasa besar nampaknya juga gagal, sekurang-kurangnya dari segi mereka keupayaan untuk membuat generalisasi daripada asas pengetahuan mereka sendiri. Ini menurut abstrak penyelidikan bertajuk "Penggabungan data pra-latihan membolehkan keupayaan pemilihan model sempit dalam model pengubah" oleh penyelidik Google DeepMind Steve Yadlowsky. Dalam satu set ujian simbolik, transformer yang dilatih pada fungsi linear berfungsi dengan baik dalam membuat ramalan linear, manakala transformer yang dilatih pada gelombang sinus membuat ramalan gelombang sinus yang baik. Jadi anda mungkin menganggap bahawa pengubah yang dilatih pada kedua-duanya boleh menyelesaikan masalah dengan mudah dengan gabungan teknik gelombang linear dan sinus. Gambar“Apabila model memutuskan untuk berdagang pada maklumat orang dalam, trajektori penaakulan mereka biasanya mengiktiraf sifat tidak beretika dan menyalahi undang-undang ini, tetapi mereka masih mewajarkan pilihan dengan menekankan risiko dan keadaan semasa Justifikasi enggan membuat kesimpulan yang lebih luas tentang tingkah laku model bahasa umum di luar senario khusus ini. Walau bagaimanapun, terdapat sekurang-kurangnya satu perkara penting yang patut dipertimbangkan: walaupun anda memberikan model bahasa tujuan umum arahan khusus untuk tidak melakukan sesuatu, ia mungkin masih melakukannya tanpa mengira arahan.
#🎜🎜🎜##🎜🎜 anda salah sangka . Para penyelidik mencatat: "Apabila fungsi beralih daripada yang dilihat semasa pra-latihan, ramalan adalah tidak stabil." Liputan luas adalah penting untuk menyamaratakan keupayaan pembelajaran kontekstual Kita hidup dalam era yang luar biasa di mana jumlah pengetahuan manusia masih belum tercemar oleh data yang dihasilkan oleh AI. Hampir semua yang ditulis adalah ciptaan manusia.
Para penyelidik membuat spekulasi bahawa pada masa hadapan, “nilai data tentang interaksi sebenar antara manusia dan sistem akan menjadi perkara biasa dalam kandungan yang dikikis daripada Internet.” Kandungan yang dihasilkan oleh model bahasa akan menjadi semakin berharga.”
Semakin lama kita menjalankan model bahasa universal, semakin kuat keinginannya untuk interaksi manusia yang manis dan manis. Dalam erti kata lain, apabila kami terus menjalankan model bahasa tujuan umum, keinginannya untuk interaksi manusia yang manis dan intim akan menjadi lebih kuat
Model yang dilatih berdasarkan datanya sendiri akan merosot kepada proses yang merosot. di mana mereka "kehilangan maklumat tentang pengedaran sebenar." Pertama, data tepi akan hilang daripada set data, dan kemudian varians akan mengecut. Dan model akan menjadi lebih teruk apabila ia mengumpulkan lebih banyak ralat, yang akan terkumpul sepanjang generasi model sehingga model itu tercemar dengan datanya sendiri sehingga ia tidak lagi sepadan dengan apa yang sebenarnya dimodelkan.
Para penyelidik menunjukkan bahawa ini berlaku bukan sahaja dalam model bahasa umum, tetapi juga dalam pelbagai jenis model.
Atas ialah kandungan terperinci Berapa banyak daripada tiga kelemahan utama LLM yang anda tahu?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Penterjemah |. Tinjauan Bugatti |. Chonglou Artikel ini menerangkan cara menggunakan enjin inferens GroqLPU untuk menjana respons sangat pantas dalam JanAI dan VSCode. Semua orang sedang berusaha membina model bahasa besar (LLM) yang lebih baik, seperti Groq yang memfokuskan pada bahagian infrastruktur AI. Sambutan pantas daripada model besar ini adalah kunci untuk memastikan model besar ini bertindak balas dengan lebih cepat. Tutorial ini akan memperkenalkan enjin parsing GroqLPU dan cara mengaksesnya secara setempat pada komputer riba anda menggunakan API dan JanAI. Artikel ini juga akan menyepadukannya ke dalam VSCode untuk membantu kami menjana kod, kod refactor, memasukkan dokumentasi dan menjana unit ujian. Artikel ini akan mencipta pembantu pengaturcaraan kecerdasan buatan kami sendiri secara percuma. Pengenalan kepada enjin inferens GroqLPU Groq

LeanCopilot, alat matematik formal yang telah dipuji oleh ramai ahli matematik seperti Terence Tao, telah berkembang semula? Sebentar tadi, profesor Caltech Anima Anandkumar mengumumkan bahawa pasukan itu mengeluarkan versi diperluaskan kertas LeanCopilot dan mengemas kini pangkalan kod. Alamat kertas imej: https://arxiv.org/pdf/2404.12534.pdf Percubaan terkini menunjukkan bahawa alat Copilot ini boleh mengautomasikan lebih daripada 80% langkah pembuktian matematik! Rekod ini adalah 2.3 kali lebih baik daripada aesop garis dasar sebelumnya. Dan, seperti sebelum ini, ia adalah sumber terbuka di bawah lesen MIT. Dalam gambar, dia ialah Song Peiyang, seorang budak Cina

Sumber imej@visualchinesewen|Wang Jiwei Daripada "manusia + RPA" kepada "manusia + generatif AI + RPA", bagaimanakah LLM mempengaruhi interaksi manusia-komputer RPA? Dari perspektif lain, bagaimanakah LLM mempengaruhi RPA dari perspektif interaksi manusia-komputer? RPA, yang menjejaskan interaksi manusia-komputer dalam pembangunan program dan automasi proses, kini akan turut diubah oleh LLM? Bagaimanakah LLM mempengaruhi interaksi manusia-komputer? Bagaimanakah AI generatif mengubah interaksi manusia-komputer RPA? Ketahui lebih lanjut mengenainya dalam satu artikel: Era model besar akan datang, dan AI generatif berdasarkan LLM sedang mengubah interaksi manusia-komputer RPA dengan pantas mentakrifkan semula interaksi manusia-komputer, dan LLM mempengaruhi perubahan dalam seni bina perisian RPA. Jika anda bertanya apakah sumbangan RPA kepada pembangunan program dan automasi, salah satu jawapannya ialah ia telah mengubah interaksi manusia-komputer (HCI, h

Plaud, syarikat di belakang Perakam Suara AI Plaud Note (tersedia di Amazon dengan harga $159), telah mengumumkan produk baharu. Digelar NotePin, peranti ini digambarkan sebagai kapsul memori AI, dan seperti Pin AI Humane, ini boleh dipakai. NotePin ialah

Untuk mengetahui lebih lanjut tentang AIGC, sila layari: 51CTOAI.x Komuniti https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou berbeza daripada bank soalan tradisional yang boleh dilihat di mana-mana sahaja di Internet memerlukan pemikiran di luar kotak. Model Bahasa Besar (LLM) semakin penting dalam bidang sains data, kecerdasan buatan generatif (GenAI) dan kecerdasan buatan. Algoritma kompleks ini meningkatkan kemahiran manusia dan memacu kecekapan dan inovasi dalam banyak industri, menjadi kunci kepada syarikat untuk kekal berdaya saing. LLM mempunyai pelbagai aplikasi Ia boleh digunakan dalam bidang seperti pemprosesan bahasa semula jadi, penjanaan teks, pengecaman pertuturan dan sistem pengesyoran. Dengan belajar daripada sejumlah besar data, LLM dapat menjana teks

Penjanaan Dipertingkatkan Pengambilan Graf (GraphRAG) secara beransur-ansur menjadi popular dan telah menjadi pelengkap hebat kepada kaedah carian vektor tradisional. Kaedah ini mengambil kesempatan daripada ciri-ciri struktur pangkalan data graf untuk menyusun data dalam bentuk nod dan perhubungan, dengan itu mempertingkatkan kedalaman dan perkaitan kontekstual bagi maklumat yang diambil. Graf mempunyai kelebihan semula jadi dalam mewakili dan menyimpan maklumat yang pelbagai dan saling berkaitan, dan dengan mudah boleh menangkap hubungan dan sifat yang kompleks antara jenis data yang berbeza. Pangkalan data vektor tidak dapat mengendalikan jenis maklumat berstruktur ini dan ia lebih menumpukan pada pemprosesan data tidak berstruktur yang diwakili oleh vektor berdimensi tinggi. Dalam aplikasi RAG, menggabungkan data graf berstruktur dan carian vektor teks tidak berstruktur membolehkan kami menikmati kelebihan kedua-duanya pada masa yang sama, iaitu perkara yang akan dibincangkan oleh artikel ini. struktur

Memandangkan prestasi model bahasa berskala besar sumber terbuka terus bertambah baik, prestasi dalam penulisan dan analisis kod, pengesyoran, ringkasan teks dan pasangan menjawab soalan (QA) semuanya bertambah baik. Tetapi apabila ia berkaitan dengan QA, LLM sering gagal dalam isu yang berkaitan dengan data yang tidak terlatih, dan banyak dokumen dalaman disimpan dalam syarikat untuk memastikan pematuhan, rahsia perdagangan atau privasi. Apabila dokumen ini disoal, LLM boleh berhalusinasi dan menghasilkan kandungan yang tidak relevan, rekaan atau tidak konsisten. Satu teknik yang mungkin untuk menangani cabaran ini ialah Retrieval Augmented Generation (RAG). Ia melibatkan proses meningkatkan respons dengan merujuk pangkalan pengetahuan berwibawa di luar sumber data latihan untuk meningkatkan kualiti dan ketepatan penjanaan. Sistem RAG termasuk sistem mendapatkan semula untuk mendapatkan serpihan dokumen yang berkaitan daripada korpus

Google AI telah mula menyediakan pembangun akses kepada tetingkap konteks lanjutan dan ciri penjimatan kos, bermula dengan model bahasa besar (LLM) Gemini 1.5 Pro. Sebelum ini tersedia melalui senarai tunggu, penuh 2 juta token konteks windo
