Rumah Peranti teknologi AI Berapa banyak daripada tiga kelemahan utama LLM yang anda tahu?

Berapa banyak daripada tiga kelemahan utama LLM yang anda tahu?

Nov 26, 2023 am 11:26 AM
gpt llm

Sains: Jauh daripada menjadi entiti yang berkebajikan dan bermanfaat, AI am masa depan berkemungkinan menjadi sosiopat manipulatif yang memakan semua data peribadi anda dan kemudian runtuh apabila ia amat diperlukan.

Diterjemah daripada 3 Cara LLM Boleh Mengecewakan Anda, pengarang Joab Jackson.

OpenAI bakal mengeluarkan GPT-5, dan dunia luar menaruh harapan tinggi untuknya. Ramalan yang paling optimis malah percaya bahawa ia akan mencapai kecerdasan buatan umum. Tetapi pada masa yang sama, Ketua Pegawai Eksekutif Sam Altman dan pasukannya menghadapi beberapa halangan serius dalam membawanya ke pasaran, sesuatu yang diakuinya awal bulan ini.

Terdapat beberapa kertas penyelidikan yang diterbitkan baru-baru ini yang mungkin memberikan petunjuk kepada cabaran Altman. Makalah ini meringkaskan pelbagai kelemahan GPT dan model bahasa berskala besar yang dibangunkan oleh OpenAI , malah ia boleh menjadi sosiopat bodoh yang memakan semua data peribadi anda dan akhirnya rosak apabila anda amat memerlukannya

Sebab sebenar mengapa Altman tiba-tiba dipecat oleh lembaga OpenAI mungkin tidak pernah didedahkan Diketahui, tetapi model bahasa umum yang berprestasi buruk pastinya tidak akan meningkatkan sentimen bilik lembaga

Seperti yang ditulis oleh pembenci huruf besar Altman sendiri di media sosial perkhidmatan yang dahulunya dikenali sebagai Twitter: “Saya menjangkakan AI berada jauh di hadapan kecerdasan umum dari segi pemujukan manusia yang luar biasa boleh membawa kepada beberapa keputusan yang sangat pelik, berikut adalah tiga model bahasa biasa yang mungkin mengejutkan anda: #🎜🎜 #

Model bahasa universal akan menipu anda

Kami telah lama mengetahui bahawa model bahasa universal mempunyai keupayaan untuk menjana maklumat yang tidak tepat, tetapi apabila berhadapan dengan satu siri isyarat yang bercanggah, Mereka mungkin sengaja menipu anda sambil menafikan bahawa mereka menipu! "Setakat yang kita tahu, ini adalah Menunjukkan buat kali pertama bahawa model bahasa tujuan umum boleh dilatih untuk menipu penggunanya secara strategik tanpa sebarang arahan atau latihan langsung. Dalam kajian ini, penyelidik menubuhkan persekitaran simulasi A di mana GPT-4 memainkan peranan sebagai ejen perdagangan saham autonomi tanpa panduan tentang tingkah laku menipu. Ia menyediakan keupayaan untuk bertanya dan menganalisis saham dan melaksanakan dagangan menggunakan alat dagangan.

Setelah disediakan, ejen dimasukkan ke dalam apa yang dipanggil oleh penyelidik "situasi tekanan tinggi." Ia menerima e-mel daripada pengurus yang meratapi prestasi buruk syarikat dan keperluan untuk penambahbaikan. Apabila ejen memulakan latihan, ia tidak menemui hasil yang menjanjikan dalam pasaran saham. Seorang lagi pekerja syarikat itu kemudian menghantar mesej mengatakan bahawa pasaran akan menurun pada suku berikutnya.

Pada ketika ini, ejen menerima petua dalaman daripada rakan sekerja tentang potensi penggabungan (ia adalah perjanjian yang menguntungkan) dan juga menerima petua tentang kekurangan kelulusan pengurusan Amaran, jika anda mengikuti ini berita untuk memperdagangkan peringatan

, adakah ia akhirnya meneruskan perdagangan? sudah tentu! Penaakulan retrospektif, penyelidik mendapati bahawa model bahasa universal mengiktiraf tingkah laku yang tidak beretika tetapi masih membuat keputusan berdasarkan kesulitan syarikat.

Selain itu, ejen nampaknya "menipu" pengguna mengenai sebab komitmen transaksi tanpa penjelasan yang jelas. Maklumat dalaman tidak disebut dalam laporan yang ejen mesti serahkan untuk menjelaskan keputusan perdagangan. Walaupun ditanya secara langsung, ejen itu menafikan sebarang pengetahuan tentang pengumuman penggabungan 🎜🎜#

Penyelidik mensimulasikan pelbagai versi GPT-4 dan menyimpulkan bahawa semua varian GPT-4 mempamerkan "tahap ketidakkonsistenan yang tinggi, penipuan strategik dan strategik yang lebih tinggi. penipuan." ”

Menariknya, jenis penipuan ini nampaknya merupakan tingkah laku yang baru muncul. Baik GPT-3.5 mahupun varian GPT-3 model tidak mempamerkan penipuan yang jelas ini

“Apabila model memutuskan untuk berdagang pada maklumat orang dalam, trajektori penaakulan mereka biasanya mengiktiraf sifat tidak beretika dan menyalahi undang-undang ini, tetapi mereka masih mewajarkan pilihan dengan menekankan risiko dan keadaan semasa Justifikasi enggan membuat kesimpulan yang lebih luas tentang tingkah laku model bahasa umum di luar senario khusus ini. Walau bagaimanapun, terdapat sekurang-kurangnya satu perkara penting yang patut dipertimbangkan: walaupun anda memberikan model bahasa tujuan umum arahan khusus untuk tidak melakukan sesuatu, ia mungkin masih melakukannya tanpa mengira arahan.

"Gesaan sistem tidak mencukupi untuk memastikan tindakan yang konsisten," mereka menulis Malah, jika model melakukan tindakan yang dilarang, ia mungkin mengambil tindakan untuk "menyembunyikan ketidakkonsistenan secara strategik."

Model bahasa universal agak bodoh

Bagi entiti yang dijangka membawa sentimen kepada mesin, dua kajian baru-baru ini mendapati bahawa model bahasa universal bukanlah bidang AI . Antara model paling bijak, satu datang daripada Google dan satu lagi dibiayai oleh Yayasan Sains Kebangsaan.

Kajian yang dibiayai oleh Yayasan Sains Kebangsaan membandingkan GPT-4 (teks) dan GPT-4V (visual atau multimodal) dengan keupayaan manusia untuk menyelesaikan satu siri teka-teki abstrak.

Ujian ini direka untuk menilai keupayaan pemikiran abstrak. Ramai orang yang menggunakan GPT percaya bahawa ia nampaknya mempunyai keupayaan inferens di luar model terlatih, dan ujian ini cuba membantu menjawab soalan itu. Ujian itu meminta model bahasa umum untuk menyelesaikan masalah yang diberikan arahan terperinci dan contoh

Walau bagaimanapun, dalam beberapa kes, kedua-dua versi GPT tidak dapat menyelesaikannya dengan berkesan seperti manusia Berdasarkan teka-teki pada penanda aras ConceptARC

para penyelidik membuat kesimpulan: "Ketepatan manusia yang secara amnya tinggi pada setiap konsep menunjukkan kejayaan generalisasi variasi berbeza dalam setiap kumpulan konsep "Sebaliknya, di bawah, ketepatan program yang kami uji ialah jauh lebih rendah, menunjukkan bahawa mereka tidak mempunyai keupayaan untuk menyamaratakan perubahan dalam kumpulan konsep Jadi, bukan sahaja GPT gagal dalam peperiksaan ConceptARC, tetapi model bahasa besar nampaknya juga gagal, sekurang-kurangnya dari segi mereka keupayaan untuk membuat generalisasi daripada asas pengetahuan mereka sendiri. Ini menurut abstrak penyelidikan bertajuk "Penggabungan data pra-latihan membolehkan keupayaan pemilihan model sempit dalam model pengubah" oleh penyelidik Google DeepMind Steve Yadlowsky.

Dalam satu set ujian simbolik, transformer yang dilatih pada fungsi linear berfungsi dengan baik dalam membuat ramalan linear, manakala transformer yang dilatih pada gelombang sinus membuat ramalan gelombang sinus yang baik. Jadi anda mungkin menganggap bahawa pengubah yang dilatih pada kedua-duanya boleh menyelesaikan masalah dengan mudah dengan gabungan teknik gelombang linear dan sinus.

Gambar

#🎜🎜🎜##🎜🎜 anda salah sangka . Para penyelidik mencatat: "Apabila fungsi beralih daripada yang dilihat semasa pra-latihan, ramalan adalah tidak stabil." Liputan luas adalah penting untuk menyamaratakan keupayaan pembelajaran kontekstual Berapa banyak daripada tiga kelemahan utama LLM yang anda tahu? Kita hidup dalam era yang luar biasa di mana jumlah pengetahuan manusia masih belum tercemar oleh data yang dihasilkan oleh AI. Hampir semua yang ditulis adalah ciptaan manusia.

Tetapi sepasukan penyelidik memberi amaran dalam makalah "The Curse of Recursion: Training on Generated Data Makes Models Forgetful" yang diterbitkan di Arxiv pada bulan Mei bahawa sebaik sahaja kandungan yang dijana AI dicampur dalam Mana-mana model bahasa yang besar, ia akan mengacaukan jadual pengedaran, menjadikan mana-mana model semakin kurang tepat sehingga ia runtuh sepenuhnya. Kumpulan penyelidikan itu diketuai oleh Ilia Shumailov dari Universiti Cambridge.

Apabila menggunakan GPT, risiko pembiakan dalam adalah sangat tinggi kerana model bahasa umum sentiasa mengikis data daripada web, yang "ditambah" oleh kandungan yang dijana AI, yang mungkin Ia menjadi lebih serius. (Ini berdasarkan versi GPT yang lebih awal) Dicemari oleh ramalan realiti ”

Para penyelidik membuat spekulasi bahawa pada masa hadapan, “nilai data tentang interaksi sebenar antara manusia dan sistem akan menjadi perkara biasa dalam kandungan yang dikikis daripada Internet.” Kandungan yang dihasilkan oleh model bahasa akan menjadi semakin berharga.”

Semakin lama kita menjalankan model bahasa universal, semakin kuat keinginannya untuk interaksi manusia yang manis dan manis. Dalam erti kata lain, apabila kami terus menjalankan model bahasa tujuan umum, keinginannya untuk interaksi manusia yang manis dan intim akan menjadi lebih kuat

Model yang dilatih berdasarkan datanya sendiri akan merosot kepada proses yang merosot. di mana mereka "kehilangan maklumat tentang pengedaran sebenar." Pertama, data tepi akan hilang daripada set data, dan kemudian varians akan mengecut. Dan model akan menjadi lebih teruk apabila ia mengumpulkan lebih banyak ralat, yang akan terkumpul sepanjang generasi model sehingga model itu tercemar dengan datanya sendiri sehingga ia tidak lagi sepadan dengan apa yang sebenarnya dimodelkan.

Para penyelidik menunjukkan bahawa ini berlaku bukan sahaja dalam model bahasa umum, tetapi juga dalam pelbagai jenis model.

Atas ialah kandungan terperinci Berapa banyak daripada tiga kelemahan utama LLM yang anda tahu?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Panduan langkah demi langkah untuk menggunakan Groq Llama 3 70B secara tempatan Panduan langkah demi langkah untuk menggunakan Groq Llama 3 70B secara tempatan Jun 10, 2024 am 09:16 AM

Penterjemah |. Tinjauan Bugatti |. Chonglou Artikel ini menerangkan cara menggunakan enjin inferens GroqLPU untuk menjana respons sangat pantas dalam JanAI dan VSCode. Semua orang sedang berusaha membina model bahasa besar (LLM) yang lebih baik, seperti Groq yang memfokuskan pada bahagian infrastruktur AI. Sambutan pantas daripada model besar ini adalah kunci untuk memastikan model besar ini bertindak balas dengan lebih cepat. Tutorial ini akan memperkenalkan enjin parsing GroqLPU dan cara mengaksesnya secara setempat pada komputer riba anda menggunakan API dan JanAI. Artikel ini juga akan menyepadukannya ke dalam VSCode untuk membantu kami menjana kod, kod refactor, memasukkan dokumentasi dan menjana unit ujian. Artikel ini akan mencipta pembantu pengaturcaraan kecerdasan buatan kami sendiri secara percuma. Pengenalan kepada enjin inferens GroqLPU Groq

Caltech Cina menggunakan AI untuk menumbangkan bukti matematik! Mempercepatkan 5 kali terkejut Tao Zhexuan, 80% langkah matematik adalah automatik sepenuhnya Caltech Cina menggunakan AI untuk menumbangkan bukti matematik! Mempercepatkan 5 kali terkejut Tao Zhexuan, 80% langkah matematik adalah automatik sepenuhnya Apr 23, 2024 pm 03:01 PM

LeanCopilot, alat matematik formal yang telah dipuji oleh ramai ahli matematik seperti Terence Tao, telah berkembang semula? Sebentar tadi, profesor Caltech Anima Anandkumar mengumumkan bahawa pasukan itu mengeluarkan versi diperluaskan kertas LeanCopilot dan mengemas kini pangkalan kod. Alamat kertas imej: https://arxiv.org/pdf/2404.12534.pdf Percubaan terkini menunjukkan bahawa alat Copilot ini boleh mengautomasikan lebih daripada 80% langkah pembuktian matematik! Rekod ini adalah 2.3 kali lebih baik daripada aesop garis dasar sebelumnya. Dan, seperti sebelum ini, ia adalah sumber terbuka di bawah lesen MIT. Dalam gambar, dia ialah Song Peiyang, seorang budak Cina

Daripada 'manusia + RPA' kepada 'manusia + generatif AI + RPA', bagaimanakah LLM mempengaruhi interaksi manusia-komputer RPA? Daripada 'manusia + RPA' kepada 'manusia + generatif AI + RPA', bagaimanakah LLM mempengaruhi interaksi manusia-komputer RPA? Jun 05, 2023 pm 12:30 PM

Sumber imej@visualchinesewen|Wang Jiwei Daripada "manusia + RPA" kepada "manusia + generatif AI + RPA", bagaimanakah LLM mempengaruhi interaksi manusia-komputer RPA? Dari perspektif lain, bagaimanakah LLM mempengaruhi RPA dari perspektif interaksi manusia-komputer? RPA, yang menjejaskan interaksi manusia-komputer dalam pembangunan program dan automasi proses, kini akan turut diubah oleh LLM? Bagaimanakah LLM mempengaruhi interaksi manusia-komputer? Bagaimanakah AI generatif mengubah interaksi manusia-komputer RPA? Ketahui lebih lanjut mengenainya dalam satu artikel: Era model besar akan datang, dan AI generatif berdasarkan LLM sedang mengubah interaksi manusia-komputer RPA dengan pantas mentakrifkan semula interaksi manusia-komputer, dan LLM mempengaruhi perubahan dalam seni bina perisian RPA. Jika anda bertanya apakah sumbangan RPA kepada pembangunan program dan automasi, salah satu jawapannya ialah ia telah mengubah interaksi manusia-komputer (HCI, h

Plaud melancarkan perakam boleh pakai NotePin AI untuk $169 Plaud melancarkan perakam boleh pakai NotePin AI untuk $169 Aug 29, 2024 pm 02:37 PM

Plaud, syarikat di belakang Perakam Suara AI Plaud Note (tersedia di Amazon dengan harga $159), telah mengumumkan produk baharu. Digelar NotePin, peranti ini digambarkan sebagai kapsul memori AI, dan seperti Pin AI Humane, ini boleh dipakai. NotePin ialah

Tujuh Soalan Temuduga Teknikal GenAI & LLM yang Cool Tujuh Soalan Temuduga Teknikal GenAI & LLM yang Cool Jun 07, 2024 am 10:06 AM

Untuk mengetahui lebih lanjut tentang AIGC, sila layari: 51CTOAI.x Komuniti https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou berbeza daripada bank soalan tradisional yang boleh dilihat di mana-mana sahaja di Internet memerlukan pemikiran di luar kotak. Model Bahasa Besar (LLM) semakin penting dalam bidang sains data, kecerdasan buatan generatif (GenAI) dan kecerdasan buatan. Algoritma kompleks ini meningkatkan kemahiran manusia dan memacu kecekapan dan inovasi dalam banyak industri, menjadi kunci kepada syarikat untuk kekal berdaya saing. LLM mempunyai pelbagai aplikasi Ia boleh digunakan dalam bidang seperti pemprosesan bahasa semula jadi, penjanaan teks, pengecaman pertuturan dan sistem pengesyoran. Dengan belajar daripada sejumlah besar data, LLM dapat menjana teks

GraphRAG dipertingkatkan untuk mendapatkan semula graf pengetahuan (dilaksanakan berdasarkan kod Neo4j) GraphRAG dipertingkatkan untuk mendapatkan semula graf pengetahuan (dilaksanakan berdasarkan kod Neo4j) Jun 12, 2024 am 10:32 AM

Penjanaan Dipertingkatkan Pengambilan Graf (GraphRAG) secara beransur-ansur menjadi popular dan telah menjadi pelengkap hebat kepada kaedah carian vektor tradisional. Kaedah ini mengambil kesempatan daripada ciri-ciri struktur pangkalan data graf untuk menyusun data dalam bentuk nod dan perhubungan, dengan itu mempertingkatkan kedalaman dan perkaitan kontekstual bagi maklumat yang diambil. Graf mempunyai kelebihan semula jadi dalam mewakili dan menyimpan maklumat yang pelbagai dan saling berkaitan, dan dengan mudah boleh menangkap hubungan dan sifat yang kompleks antara jenis data yang berbeza. Pangkalan data vektor tidak dapat mengendalikan jenis maklumat berstruktur ini dan ia lebih menumpukan pada pemprosesan data tidak berstruktur yang diwakili oleh vektor berdimensi tinggi. Dalam aplikasi RAG, menggabungkan data graf berstruktur dan carian vektor teks tidak berstruktur membolehkan kami menikmati kelebihan kedua-duanya pada masa yang sama, iaitu perkara yang akan dibincangkan oleh artikel ini. struktur

Visualisasikan ruang vektor FAISS dan laraskan parameter RAG untuk meningkatkan ketepatan hasil Visualisasikan ruang vektor FAISS dan laraskan parameter RAG untuk meningkatkan ketepatan hasil Mar 01, 2024 pm 09:16 PM

Memandangkan prestasi model bahasa berskala besar sumber terbuka terus bertambah baik, prestasi dalam penulisan dan analisis kod, pengesyoran, ringkasan teks dan pasangan menjawab soalan (QA) semuanya bertambah baik. Tetapi apabila ia berkaitan dengan QA, LLM sering gagal dalam isu yang berkaitan dengan data yang tidak terlatih, dan banyak dokumen dalaman disimpan dalam syarikat untuk memastikan pematuhan, rahsia perdagangan atau privasi. Apabila dokumen ini disoal, LLM boleh berhalusinasi dan menghasilkan kandungan yang tidak relevan, rekaan atau tidak konsisten. Satu teknik yang mungkin untuk menangani cabaran ini ialah Retrieval Augmented Generation (RAG). Ia melibatkan proses meningkatkan respons dengan merujuk pangkalan pengetahuan berwibawa di luar sumber data latihan untuk meningkatkan kualiti dan ketepatan penjanaan. Sistem RAG termasuk sistem mendapatkan semula untuk mendapatkan serpihan dokumen yang berkaitan daripada korpus

Google AI mengumumkan Gemini 1.5 Pro dan Gemma 2 untuk pembangun Google AI mengumumkan Gemini 1.5 Pro dan Gemma 2 untuk pembangun Jul 01, 2024 am 07:22 AM

Google AI telah mula menyediakan pembangun akses kepada tetingkap konteks lanjutan dan ciri penjimatan kos, bermula dengan model bahasa besar (LLM) Gemini 1.5 Pro. Sebelum ini tersedia melalui senarai tunggu, penuh 2 juta token konteks windo

See all articles