目录:
论文 1:Pengesanan Berbilang Skala Positif-Tidak Berlabel Teks Dijana AI
摘要:AI 造假的成功率很高,前几1天逌行 4上了热搜。在最热门的大语言模型上,北大、华为的研究者们最近探索了一种识别一一种识别一一一别一一一一一一一一一一一一一一别一一一一一一一一一一一一一一一一一了别一种识别一一一别一一一别一种识别方一一。和 AI 分别对同一问题做出回答的例子:
推荐: 识别 「chatgpt 造假」, 效果 超越 超越 超越 北大 北大 华为 的 的 的 生成 检测器 来 来 了 了 了 了 了 了>
论文 2:Ke Arah Mendedahkan Misteri di Sebalik Rantaian Pemikiran: Perspektif Teori
摘要:思维链提示(CoT)是大模型涌现中最神秘的现象之一,尤其决现说策问题中取得了惊艳效果。CoT 到底有多重要呢?它背后成功的机制是什么?缺的,并从理论和实验角度揭示了 CoT 如何释放 LLM 的巨大潜力。
本文选取了两个非常基础但核心的数学任务:算术和方程(下出务的输入输出示例)
论文 3:Model Bahasa Besar sebagai Pembuat Alat
作者:Tianle Cai、 Xuezhi Wang 等
论文地址:https://arxiv.org/pdf/2305.17126.pdf
Disyorkan: GPT-4 dan model besar lain telah mencapai titik perubahan evolusi: mereka bukan sahaja menggunakannya, tetapi juga membuat alatan mereka sendiri
Kertas 4: SpecInfer: Mempercepatkan Penyajian LLM Generatif dengan Inferens Spekulatif dan Pengesahan Pokok Token
Abstrak: Baru-baru ini, pasukan Catalyst Group dari Carnegie Mellon University (CMU) mengeluarkan SpecInfer, sebuah enjin "inferens spekulatif" yang boleh menggunakan model kecil yang ringan untuk membantu model besar tanpa menjejaskan ketepatan kandungan yang dihasilkan di semua. Dalam kes ini, dua hingga tiga kali kelajuan inferens dicapai.
Disyorkan: Kelajuan inferens LLM ditingkatkan sebanyak 2.8 kali ganda, alumni kelas Tsinghua Yao CMU mencadangkan Enjin "pendekatan spekulatif" "Inferens" SpecInfer, model kecil memanfaatkan model besar untuk penaakulan yang cekap
Kertas 5: Murah dan Pantas: Penalaan Arahan Visi-Bahasa yang Cekap untuk Model Bahasa Besar
Abstrak: Kertas kerja ini mencadangkan novel dan kos efektif penyelesaian untuk berkesan Menyesuaikan LLM kepada tugas VL (bahasa visual) dipanggil MMA. Daripada menggunakan rangkaian saraf yang besar untuk menyambungkan pengekod imej dan LLM, MMA menggunakan modul ringan, dipanggil penyesuai, untuk merapatkan jurang antara tugasan LLM dan VL, sambil turut membolehkan pengoptimuman bersama model imej dan model bahasa. Pada masa yang sama, MMA juga dilengkapi dengan algoritma penghalaan yang boleh membantu LLM bertukar secara automatik antara arahan mod tunggal dan berbilang tanpa menjejaskan keupayaan pemahaman bahasa semula jadinya.
Cadangan: Kurangkan masa latihan sebanyak 71.4%, jimat kos penyimpanan sebanyak 99.9%, Xiamen Pelarasan arahan universiti MMA penyelesaian baharu yang sangat baik membolehkan model alpaca mencapai pelbagai modaliti
Kertas 6: mPLUG-2: Model Asas Pelbagai Modal Bermodul Merentasi Teks, Imej dan Video
Abstrak: Untuk model asas multimodal, kami berharap bahawa ia bukan sahaja boleh mengendalikan khusus Ia juga berharap untuk mempunyai prestasi yang cemerlang apabila mengendalikan tugas-tugas modal tunggal. Pasukan Akademi Aidamo mendapati bahawa model sedia ada selalunya tidak dapat mengimbangi isu kerjasama modal dan keterjeratan modal dengan baik, yang mengehadkan prestasi model dalam pelbagai tugas hiliran modal tunggal dan rentas modal.
Berdasarkan ini, penyelidik dari DAMO Academy mencadangkan mPLUG-2, yang menggunakan reka bentuk struktur rangkaian modular untuk mengimbangi masalah kerjasama dan keterjeratan antara mod berbilang mod, mPLUG -2 Dalam 30 + tugasan berbilang/modal tunggal, ia mencapai hasil SOTA atau Setanding dengan volum data dan saiz model yang sama, dan mengatasi model yang sangat besar seperti Flamingo, VideoCoca dan GITv2 dalam VideoQA dan VideoCaption untuk mencapai SOTA mutlak. Di samping itu, mPLUG-Owl ialah karya terbaharu siri mPLUG Alibaba Damo Academy Ia meneruskan idea latihan modular siri mPLUG dan menaik taraf LLM menjadi model besar berbilang modal. Kertas penyelidikan mPLUG-2 telah diterima oleh ICML 2023.
Disyorkan: ICML 2023 Berdasarkan idea modular, Alibaba DAMO Academy mencadangkan model asas multi-modal mPLUG-2
Kertas 7: Ke Mana Seterusnya untuk Sistem Pengesyoran - vs. Model Pengesyoran Berasaskan Modaliti Dilawati Semula
Abstrak: Kertas kerja ini menyiasat isu yang berpotensi, iaitu sama ada sistem pengesyoran pelbagai mod MoRec dijangka menamatkan penguasaan 10 tahun IDRec dalam bidang sistem pengesyoran kertas kerja menjalankan penyelidikan yang mendalam. Keputusan berkaitan telah diterima oleh SIGIR 2023. Rajah di bawah menunjukkan seni bina rangkaian.
Cadangan: SIGIR 2023 | ditumbangkan?
Atas ialah kandungan terperinci Buat alat anda sendiri untuk model besar seperti GPT-4 untuk mengenal pasti penipuan ChatGPT. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!