


DetectGPT: Pengesanan teks janaan mesin tangkapan sifar menggunakan kelengkungan probabilistik
Tujuan DetectGPT adalah untuk menentukan sama ada sekeping teks dijana oleh llm tertentu, seperti GPT-3. Untuk mengklasifikasikan perenggan x, DetectGPT mula-mula menjana gangguan kecil pada perenggan ~xi menggunakan model pra-latihan biasa (cth., T5). DetectGPT kemudian membandingkan kebarangkalian log sampel asal x dengan setiap sampel terganggu ~xi. Jika nisbah log purata adalah tinggi, sampel mungkin daripada model sumber.
ChatGPT ialah topik hangat. Terdapat perbincangan berterusan tentang sama ada mungkin untuk mengesan bahawa artikel telah dijana oleh model bahasa besar (LLM). DetectGPT mentakrifkan kriteria berasaskan kelengkungan baharu untuk menilai sama ada untuk menjana daripada LLM tertentu. DetectGPT tidak memerlukan latihan pengelas berasingan, mengumpul set data petikan sebenar atau terjana, atau menanda air teks yang dijana secara eksplisit. Ia hanya menggunakan kebarangkalian log yang dikira oleh model minat dan gangguan rawak artikel daripada model bahasa pralatih tujuan umum yang lain (cth., T5).
1. DetectGPT: Pilih atur rawak dan andaian
Mengenal pasti dan menggunakan saluran janaan mesin x~pθ (kiri) pada negatif logp (x) ) Trend dalam kawasan kelengkungan di mana sampel berdekatan mempunyai kebarangkalian log model yang lebih rendah secara purata. Sebaliknya, teks tulisan manusia x~preal(.) (kanan) cenderung untuk tidak menduduki kawasan dengan kelengkungan kebarangkalian log negatif yang ketara.
DetectGPT adalah berdasarkan andaian bahawa sampel daripada model sumber pθ biasanya terletak pada kawasan kelengkungan negatif fungsi kebarangkalian logaritma pθ, yang berbeza daripada teks manusia. Jika kita menggunakan gangguan kecil pada sekeping teks x~pθ, menghasilkan ~x, bilangan sampel yang dijana mesin log pθ(x) - log pθ(~x) sepatutnya agak besar berbanding dengan teks tulisan manusia. Dengan menggunakan andaian ini, mula-mula pertimbangkan fungsi gangguan q(.|x), yang memberikan taburan ke atas ~x, versi x yang diubah suai sedikit dengan makna yang serupa (biasanya pertimbangkan teks panjang perenggan x yang kasar). Sebagai contoh, q(.|x) mungkin hasil daripada hanya meminta manusia untuk menulis semula salah satu ayat untuk x sambil mengekalkan makna x. Dengan menggunakan konsep fungsi gangguan, perbezaan gangguan d (x; pθ, q) boleh ditakrifkan:
Oleh itu, andaian 4.1 berikut ialah :
Jika q(.|x) ialah sampel daripada model pengisi topeng (seperti T5) dan bukannya tulisan semula manusia, maka Andaian 4.1 boleh menjadi Pendekatan automatik, berskala untuk ujian empirikal.
2. DetectGPT: Ujian automatik
Selepas menulis semula artikel, kebarangkalian logaritma artikel yang dihasilkan oleh model ( The purata penurunan dalam perbezaan gangguan) sentiasa lebih tinggi daripada artikel tulisan manusia
Untuk data sebenar, 500 artikel berita daripada set data XSum telah digunakan. Menggunakan output empat llms berbeza apabila digesa untuk 30 token pertama setiap artikel dalam XSum. Gangguan digunakan menggunakan T5-3B, menutup rentang sampel rawak sebanyak 2 perkataan sehingga 15% daripada perkataan dalam artikel bertopeng. Jangkaan dalam persamaan (1) di atas dianggarkan oleh 100 sampel dalam T5.
Keputusan percubaan di atas menunjukkan bahawa terdapat perbezaan yang signifikan dalam taburan perbezaan gangguan antara artikel tulisan manusia dan sampel model selalunya mempunyai perbezaan gangguan yang lebih besar. Berdasarkan keputusan ini, adalah mungkin untuk mengesan sama ada sekeping teks dijana oleh model p dengan hanya mengambang perbezaan gangguan.
Menormalkan perbezaan gangguan dengan sisihan piawai pemerhatian yang digunakan untuk menganggarkan E~x q(.|x) log p (~x) menyediakan pengesanan yang lebih baik, biasanya meningkatkan AUROC sekitar 0.020 , jadi versi ternormal perbezaan gangguan digunakan dalam eksperimen.
Kesan kod pseudo proses pengesananGPT
Perbezaan gangguan mungkin berguna, perkara yang diukur tidak dapat dijelaskan dengan jelas, jadi pengarang dalam bahagian seterusnya Gunakan kelengkungan untuk terangkan.
3. Tafsirkan perbezaan gangguan sebagai kelengkungan
Perbezaan gangguan menghampiri ukuran kelengkungan tempatan fungsi kebarangkalian log berhampiran petikan calon, lebih khusus, ia selaras dengan Hessian of fungsi kebarangkalian log Surih negatif matriks adalah berkadar.
Bahagian ini mempunyai banyak kandungan, jadi saya tidak akan menerangkannya secara terperinci di sini Jika anda berminat, anda boleh membaca kertas asal, yang secara kasarnya diringkaskan seperti berikut:
Persampelan dalam ruang semantik memastikan semua sampel kekal dekat dengan manifold data, memandangkan kebarangkalian log dijangka sentiasa berkurangan jika penanda gangguan ditambah secara rawak. Jadi matlamat boleh ditafsirkan sebagai lebih kurang mengekang kelengkungan pada manifold data.
4. Paparan keputusan
Pengesanan teks janaan mesin tangkapan sifar
Setiap percubaan menggunakan 150 hingga 500 contoh untuk penilaian. Teks yang dijana mesin dijana dengan menggesa 30 token pertama teks sebenar. Gunakan AUROC) untuk menilai prestasi.
Dapat dilihat bahawa DetectGPT memaksimumkan ketepatan pengesanan purata cerita XSum (AUROC meningkat sebanyak 0.1) dan konteks Wikipedia SQuAD (AUROC meningkat sebanyak 0.05).
Untuk 14 daripada 15 kombinasi set data dan model, DetectGPT menyediakan prestasi pengesanan paling tepat, dengan purata peningkatan dalam AUROC sebanyak 0.06.
Perbandingan dengan pengesan diselia
Model pengesanan teks janaan mesin diselia dilatih pada set data besar teks sebenar dan terjana dalam Prestasi pada teks dalam pengedaran (baris atas) adalah sebaik DetectGPT, atau lebih baik. Kaedah sifar pukulan digunakan pada domain baharu (baris bawah) seperti teks perubatan PubMed dan data berita Jerman dalam WMT16.
Dinilai pada 200 sampel daripada setiap set data, pengesan yang diselia menunjukkan prestasi yang sama seperti DetectGPT pada data dalam pengedaran seperti berita Inggeris, tetapi dalam kes penulisan saintifik bahasa Inggeris, prestasinya jauh lebih teruk daripada pendekatan sampel sifar, yang gagal sepenuhnya dalam tulisan Jerman.
Purata AUROC DetectGPT untuk GPT-3 adalah setanding dengan model diselia yang dilatih khusus untuk pengesanan teks janaan mesin.
150 contoh diekstrak daripada dataset PubMedQA, XSum dan writingprompt. Dua model pengesan berasaskan roberta pra-terlatih dibandingkan dengan DetectGPT dan garis dasar ambang kemungkinan. DetectGPT boleh menyediakan pengesanan yang bersaing dengan model seliaan yang lebih berkuasa.
Variasi pengesanan teks janaan mesin
Bahagian ini adalah untuk melihat sama ada pengesan boleh mengesan teks jana mesin yang diedit manusia. Semakan manual telah disimulasikan dengan menggantikan 5 rentang perkataan teks dengan sampel dari T5–3B sehingga r% teks diganti. DetectGPT dapat mengekalkan pengesanan AUROC melebihi 0.8 walaupun hampir satu perempat daripada teks dalam sampel model telah diganti. DetectGPT menunjukkan prestasi pengesanan terkuat merentas semua peringkat semakan.
Atas ialah kandungan terperinci DetectGPT: Pengesanan teks janaan mesin tangkapan sifar menggunakan kelengkungan probabilistik. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Dalam beberapa tahun kebelakangan ini, model berasaskan pembelajaran mendalam telah menunjukkan prestasi yang baik dalam tugas seperti pengesanan objek dan pengecaman imej. Mengenai set data klasifikasi imej yang mencabar seperti ImageNet, yang mengandungi 1,000 klasifikasi objek berbeza, sesetengah model kini melebihi tahap manusia. Tetapi model ini bergantung pada proses latihan yang diawasi, mereka dipengaruhi dengan ketara oleh ketersediaan data latihan berlabel, dan kelas yang model dapat mengesan adalah terhad kepada kelas yang dilatih. Memandangkan imej berlabel tidak mencukupi untuk semua kelas semasa latihan, model ini mungkin kurang berguna dalam tetapan dunia sebenar. Dan kami mahu model itu dapat mengenali kelas yang tidak pernah dilihat semasa latihan, kerana hampir mustahil untuk melatih imej semua objek berpotensi. Kami akan belajar daripada beberapa sampel

Editor |ScienceAI Question Answering (QA) set data memainkan peranan penting dalam mempromosikan penyelidikan pemprosesan bahasa semula jadi (NLP). Set data QA berkualiti tinggi bukan sahaja boleh digunakan untuk memperhalusi model, tetapi juga menilai dengan berkesan keupayaan model bahasa besar (LLM), terutamanya keupayaan untuk memahami dan menaakul tentang pengetahuan saintifik. Walaupun pada masa ini terdapat banyak set data QA saintifik yang meliputi bidang perubatan, kimia, biologi dan bidang lain, set data ini masih mempunyai beberapa kekurangan. Pertama, borang data adalah agak mudah, kebanyakannya adalah soalan aneka pilihan. Ia mudah dinilai, tetapi mengehadkan julat pemilihan jawapan model dan tidak dapat menguji sepenuhnya keupayaan model untuk menjawab soalan saintifik. Sebaliknya, Soal Jawab terbuka

Pada Januari 2021, OpenAI mengumumkan dua model baharu: DALL-E dan CLIP. Kedua-dua model ialah model multimodal yang menyambungkan teks dan imej dalam beberapa cara. Nama penuh CLIP ialah Pra-latihan Bahasa-Imej Kontrastif (ContrastiveLanguage-Image-Pre-training), yang merupakan kaedah pra-latihan berdasarkan pasangan imej teks yang berbeza. Mengapa memperkenalkan CLIP? Kerana StableDiffusion yang popular pada masa ini bukanlah satu model, tetapi terdiri daripada berbilang model. Salah satu komponen utama ialah pengekod teks, yang digunakan untuk mengekod input teks pengguna ini ialah pengekod teks CL dalam model CLIP.

Mengurai set data menjadi set latihan membantu kami memahami model, yang penting untuk cara model membuat generalisasi kepada data baharu yang tidak kelihatan. Sesuatu model mungkin tidak digeneralisasikan dengan baik kepada data baru yang tidak kelihatan jika ia terlalu dipasang. Oleh itu ramalan yang baik tidak boleh dibuat. Mempunyai strategi pengesahan yang sesuai ialah langkah pertama untuk berjaya mencipta ramalan yang baik dan menggunakan nilai perniagaan model AI Artikel ini telah menyusun beberapa strategi pemisahan data biasa. Pembahagian kereta api dan ujian mudah membahagikan set data kepada bahagian latihan dan pengesahan, dengan 80% latihan dan 20% pengesahan. Anda boleh melakukan ini menggunakan pensampelan rawak Scikit. Pertama, benih rawak perlu diperbaiki, jika tidak, pemisahan data yang sama tidak boleh dibandingkan dan hasilnya tidak boleh dihasilkan semula semasa penyahpepijatan. Jika set data

Selepas model video AI Sora menjadi popular, syarikat utama seperti Meta dan Google telah mengetepikan untuk melakukan penyelidikan dan mengejar OpenAI. Baru-baru ini, penyelidik dari pasukan Google mencadangkan pengekod video universal - VideoPrism. Ia boleh mengendalikan pelbagai tugas pemahaman video melalui satu model beku. Alamat kertas imej: https://arxiv.org/pdf/2402.13217.pdf Contohnya, VideoPrism boleh mengelaskan dan mengesan orang yang meniup lilin dalam video di bawah. Pengambilan teks video imej, berdasarkan kandungan teks, kandungan yang sepadan dalam video boleh diambil semula. Untuk contoh lain, huraikan video di bawah - seorang gadis kecil sedang bermain dengan blok bangunan. Soalan dan jawapan QA juga tersedia.

Proses Gaussian Model Kernel (KMGPs) ialah alat canggih untuk mengendalikan kerumitan pelbagai set data. Ia memanjangkan konsep proses Gaussian tradisional melalui fungsi kernel. Artikel ini akan membincangkan secara terperinci asas teori, aplikasi praktikal dan cabaran KMGP. Model kernel Proses Gaussian ialah lanjutan daripada proses Gaussian tradisional dan digunakan dalam pembelajaran mesin dan statistik. Sebelum memahami kmgp, anda perlu menguasai pengetahuan asas proses Gaussian, dan kemudian memahami peranan model kernel. Proses Gaussian (GP) ialah satu set pembolehubah rawak, bilangan pembolehubah terhingga yang diedarkan bersama dengan taburan Gaussian, dan digunakan untuk menentukan taburan kebarangkalian fungsi. Proses Gaussian biasanya digunakan dalam regresi dan tugas klasifikasi dalam pembelajaran mesin dan boleh digunakan untuk menyesuaikan taburan kebarangkalian data. Ciri penting proses Gaussian ialah keupayaan mereka untuk memberikan anggaran dan ramalan ketidakpastian

Masalah melatih rangkaian neural dalam yang besar (DNN) menggunakan set data yang besar merupakan cabaran utama dalam bidang pembelajaran mendalam. Apabila saiz DNN dan set data meningkat, begitu juga keperluan pengiraan dan memori untuk melatih model ini. Ini menjadikannya sukar atau bahkan mustahil untuk melatih model ini pada satu mesin dengan sumber pengkomputeran yang terhad. Beberapa cabaran utama dalam melatih DNN besar menggunakan set data besar termasuk: Masa latihan yang panjang: Proses latihan boleh mengambil masa beberapa minggu atau bahkan beberapa bulan untuk disiapkan, bergantung pada kerumitan model dan saiz set data. Had memori: DNN yang besar mungkin memerlukan jumlah memori yang besar untuk menyimpan semua parameter model, kecerunan dan pengaktifan perantaraan semasa latihan. Ini boleh menyebabkan kesilapan ingatan dan mengehadkan apa yang boleh dilatih pada satu mesin.

Jika anda sedang mencari topik yang menarik, Artificial Intelligence (AI) tidak akan mengecewakan anda. Kecerdasan buatan merangkumi satu set algoritma statistik yang kuat dan membengkokkan minda yang boleh bermain catur, mentafsir tulisan tangan yang ceroboh, memahami pertuturan, mengklasifikasikan imej satelit dan banyak lagi. Ketersediaan set data gergasi untuk melatih model pembelajaran mesin telah menjadi salah satu faktor utama dalam kejayaan kecerdasan buatan. Tetapi semua kerja pengiraan ini tidak percuma. Sesetengah pakar AI semakin bimbang tentang kesan alam sekitar yang dikaitkan dengan membina algoritma baharu, perdebatan yang telah mendorong idea baharu tentang cara membuat mesin belajar dengan lebih cekap untuk mengurangkan jejak karbon AI. Kembali ke Bumi Untuk mendapatkan butirannya, kita perlu terlebih dahulu mempertimbangkan beribu-ribu pusat data (bersebaran di seluruh dunia) yang mengendalikan permintaan pengkomputeran kami 24/7.
