Rumah > Peranti teknologi > AI > teks badan

Sesi perkongsian kertas model besar Xiaohongshu menghimpunkan pengarang dari empat persidangan antarabangsa utama

王林
Lepaskan: 2024-08-05 14:33:02
asal
441 orang telah melayarinya

Model besar menerajui pusingan baharu ledakan penyelidikan, dengan banyak hasil inovatif muncul dalam kedua-dua industri dan akademik.

Pasukan teknikal Xiaohongshu juga sentiasa meneroka dalam gelombang ini, dan hasil penyelidikan banyak kertas kerja telah kerap dibentangkan di persidangan antarabangsa terkemuka seperti ICLR, ACL, CVPR, AAI, SIGIR, dan WWW.

Apakah peluang dan cabaran baharu yang kami temui di persimpangan model besar dan pemprosesan bahasa semula jadi?

Apakah beberapa kaedah penilaian yang berkesan untuk model besar? Bagaimanakah ia boleh disepadukan dengan lebih baik ke dalam senario aplikasi?

Pada 27 Jun, 19:00-21:30, [REDtech akan datang] Terbitan kesebelas "Little Red Book 2024 Large Model Frontier Paper Sharing" akan disiarkan dalam talian!

REDtech menjemput khas pasukan carian komuniti Xiaohongshu ke bilik siaran langsung mereka akan berkongsi 6 kertas penyelidikan model berskala besar yang diterbitkan oleh Xiaohongshu pada tahun 2024. Feng Shaoxiong, orang yang bertanggungjawab ke atas Xiaohongshu Jingpai LTR, berganding bahu dengan Li Yiwei, Wang Xinglin, Yuan Peiwen, Zhang Chao, dan lain-lain untuk membincangkan teknologi penyahkodan dan penyulingan model besar terkini, kaedah penilaian model besar, dan penggunaan besar. model dalam aplikasi Praktikal pada platform Xiaohongshu. Sesi perkongsian kertas model besar Xiaohongshu menghimpunkan pengarang dari empat persidangan antarabangsa utama

Buat temu janji untuk siaran langsung, dan pengarang beberapa kertas kerja akan berkomunikasi dengan anda dalam talian! Anda akan mendapat cerapan terkini tentang teknologi model besar, membincangkan arah aliran pembangunan masa hadapan dan berkomunikasi cara menggunakan teknologi termaju ini untuk meningkatkan pengalaman pengguna dan mempromosikan pembangunan pintar platform. . Kaedah Seksual Penaakulan Pelbagai Langkah |. Dikongsi oleh: Li Yiwei

Ketekalan Diri (SC) sentiasa menjadi strategi penyahkodan yang digunakan secara meluas dalam penaakulan rantaian pemikiran dan mengambil jawapan majoriti sebagai jawapan akhir prestasi model. Tetapi ia adalah kaedah yang mahal yang memerlukan berbilang sampel saiz pratetap. Pada ICLR 2024, Xiaohongshu mencadangkan proses persampelan yang mudah dan berskala - Ketekalan Kendiri (ESC) Penghentian Awal, yang boleh mengurangkan Kos SC dengan ketara. Atas dasar ini, pasukan seterusnya memperoleh skim kawalan ESC untuk memilih keseimbangan kos prestasi secara dinamik untuk tugas dan model yang berbeza. Keputusan eksperimen pada tiga tugas penaakulan arus perdana (matematik, akal sehat dan penaakulan simbolik) menunjukkan bahawa ESC mengurangkan purata bilangan sampel merentas enam penanda aras sambil hampir mengekalkan prestasi asal. Sesi perkongsian kertas model besar Xiaohongshu menghimpunkan pengarang dari empat persidangan antarabangsa utamaAlamat kertas: https://arxiv.org/abs/2401.10480

02 Sepadukan Intipati dan Hilangkan Habuk: Ketekalan Diri Berbutir Halus untuk Penjanaan Bahasa Bentuk Percuma / Terpilih untuk ACL 2024

perkara yang lebih baik: Kaedah ketekalan diri yang halus untuk tugas penjanaan bentuk bebas| Pekongsi: Wang Xinglin

Xiaohongshu mencadangkan kaedah Ketekalan Diri Berbutir Halus (FSC) dalam ACL 2024, yang boleh meningkatkan diri dengan ketara -kaedah ketekalan dalam Prestasi pada tugas penjanaan bentuk bebas. Pasukan ini mula-mula menganalisis melalui eksperimen bahawa kelemahan kaedah konsisten kendiri sedia ada untuk tugas penjanaan bentuk bebas datang daripada pemilihan sampel biasa berbutir kasar, yang tidak dapat menggunakan pengetahuan umum antara serpihan halus sampel berbeza dengan berkesan. Atas dasar ini, pasukan mencadangkan kaedah FSC berdasarkan gabungan kendiri model besar, dan eksperimen mengesahkan bahawa ia mencapai prestasi yang lebih baik dengan ketara dalam penjanaan kod, penjanaan ringkasan dan tugasan penaakulan matematik, sambil mengekalkan penggunaan yang banyak.

Alamat kertas: https://github.com/WangXinglin/FSC

03 BatchEval: Towards Human-like Text Evaluation / Dipilih untuk ACL 2024, pengerusi bidang memberi markah penuh dan mengesyorkan kertas terbaik

Ke arah penilaian teks peringkat manusia| Shareer: Yuan Peiwen

Xiaohongshu mencadangkan kaedah BatchEval dalam ACL 2024, yang boleh mencapai kesan penilaian teks seperti manusia dengan overhed yang lebih rendah. Pasukan pertama menganalisis dari peringkat teori bahawa kelemahan kaedah penilaian teks sedia ada dalam keteguhan penilaian berpunca daripada pengagihan markah penilaian yang tidak sekata, dan prestasi suboptimum dalam penyepaduan skor datang daripada kekurangan kepelbagaian perspektif penilaian. Atas dasar ini, diilhamkan oleh perbandingan antara sampel dalam proses penilaian manusia untuk mewujudkan penanda aras penilaian yang lebih tiga dimensi dan komprehensif dengan pelbagai perspektif, BatchEval telah dicadangkan melalui analogi. Berbanding dengan beberapa kaedah terkini yang terkini, BatchEval mencapai prestasi yang lebih baik dengan ketara dalam kedua-dua overhed penilaian dan kesan penilaian. Alamat kertas: https://arxiv.org/abs/2401.00437 ketekalan Penilaian model bahasa besar|

Pekongsi

: Yuan Peiwen

Xiaohongshu a proposé la méthode PEEM dans ACL 2024, qui permet d'obtenir une évaluation précise de grands modèles de langage au-delà du niveau humain grâce à une cohérence mutuelle entre les modèles. L’équipe a d’abord analysé que la tendance actuelle au développement rapide de grands modèles de langage accélérerait leur atteinte progressive, voire leur dépassement, à bien des égards, dans de nombreux aspects. Dans cette situation, les humains ne seraient plus en mesure de fournir des signaux d’évaluation précis. Afin de réaliser l'évaluation des capacités dans ce scénario, l'équipe a proposé l'idée d'utiliser la cohérence mutuelle entre les modèles comme signal d'évaluation, et en a déduit que lorsque les échantillons d'évaluation sont infinis, s'il existe une distribution de prédiction indépendante entre le modèle de référence. et le modèle à évaluer, alors cette cohérence entre les modèles de référence peut être utilisée comme une mesure précise de la capacité du modèle. Sur cette base, l'équipe a proposé la méthode PEEM basée sur l'algorithme EM, et les expériences ont confirmé qu'elle peut effectivement atténuer l'insuffisance des conditions ci-dessus dans la réalité, réalisant ainsi une évaluation précise de grands modèles de langage qui dépassent les niveaux humains.

Adresse papier : https://github.com/ypw0102/PEEM

05 Transformer la poussière en or : distiller les capacités de raisonnement complexes des LLM en exploitant les données négatives / Sélectionné dans l'AAAI 2024 Oral

Utiliser des échantillons négatifs pour promouvoir grands modèles Distillation des capacités de raisonnement | Sharer : Li Yiwei

Les grands modèles de langage (LLM) fonctionnent bien sur diverses tâches de raisonnement, mais leurs propriétés de boîte noire et leur grand nombre de paramètres entravent leur application généralisée dans la pratique. Surtout lorsqu’ils traitent de problèmes mathématiques complexes, les LLM produisent parfois des chaînes de raisonnement erronées. Les méthodes de recherche traditionnelles transfèrent uniquement les connaissances des échantillons positifs et ignorent les données synthétiques contenant de mauvaises réponses. Lors de l'AAAI 2024, l'équipe d'algorithmes de recherche de Xiaohongshu a proposé un cadre innovant, a proposé et vérifié pour la première fois la valeur des échantillons négatifs dans le processus de distillation modèle et a construit un cadre de spécialisation de modèle qui, en plus d'utiliser des échantillons positifs, a également pleinement utilisation d'échantillons négatifs Pour affiner les connaissances du LLM. Le cadre comprend trois étapes de sérialisation, dont la formation assistée négative (NAT), l'amélioration de l'étalonnage négatif (NCE) et l'auto-cohérence dynamique (ASC), couvrant l'ensemble du processus, de la formation à l'inférence. Une vaste série d'expériences démontre le rôle essentiel des données négatives dans la distillation des connaissances LLM.

Adresse papier : https://arxiv.org/abs/2312.12832

06 NoteLLM : Un modèle de langage large récupérable pour la recommandation de notes / Sélectionné pour la WWW 2024

Système de recommandation de représentation de contenu de notes basé sur un grand modèle de langage| Partagé par : Zhang Chao

L'APP Xiaohongshu génère chaque jour un grand nombre de nouvelles notes. Comment recommander efficacement ces nouveaux contenus aux utilisateurs intéressés ? La représentation des recommandations basée sur le contenu des notes est une méthode permettant d'atténuer le problème de démarrage à froid des notes et constitue également la base de nombreuses applications en aval. Ces dernières années, les grands modèles linguistiques ont attiré beaucoup d’attention en raison de leurs fortes capacités de généralisation et de compréhension de textes. Par conséquent, nous espérons utiliser de grands modèles de langage pour créer un système de recommandation de représentation du contenu des notes afin d'améliorer la compréhension du contenu des notes. Nous présentons nos travaux récents sous deux perspectives : la génération de représentations améliorées et les représentations de contenu multimodales. À l'heure actuelle, ce système a été appliqué à plusieurs scénarios commerciaux de Xiaohongshu et a obtenu des avantages significatifs.

Adresse papier : https://arxiv.org/abs/2403.01744

Sesi perkongsian kertas model besar Xiaohongshu menghimpunkan pengarang dari empat persidangan antarabangsa utama

Comment regarder en direct

  • Heure de diffusion en direct : 27 juin 2024, 19h00-21h30

  • Live Broadcast Platform : compte vidéo WeChat [REDtech], diffusion en direct sur les comptes Bilibili, Douyin et Xiaohongshu du même nom. Sesi perkongsian kertas model besar Xiaohongshu menghimpunkan pengarang dari empat persidangan antarabangsa utama

Dans le même temps, la diffusion en direct sera également diffusée simultanément sur les comptes vidéo partenaires [Jichi Platform], [Ce site] et [Datawhale] WeChat.
Vous êtes invités à remplir le questionnaire et à nous dire quels sont les problèmes qui vous intéressent concernant le grand modèle, et à interagir en profondeur avec les invités pendant la diffusion en direct.

Sesi perkongsian kertas model besar Xiaohongshu menghimpunkan pengarang dari empat persidangan antarabangsa utama

Scannez le code QR ci-dessous pour entrer dans le groupe de communication de diffusion en direct, et vous obtiendrez le lien de diffusion en direct et commencerez le rappel dès que possible. Vous pourrez emballer et obtenir la [collection PDF papier] soigneusement organisée en un seul clic ; , et vous aurez également l'opportunité de communiquer directement avec l'auteur de l'article !

Sesi perkongsian kertas model besar Xiaohongshu menghimpunkan pengarang dari empat persidangan antarabangsa utama

Invitez des amis à prendre rendez-vous pour des cadeaux diffusés en direct

Sesi perkongsian kertas model besar Xiaohongshu menghimpunkan pengarang dari empat persidangan antarabangsa utama

L'équipe de recherche de la communauté de Xiaohongshu recrute actuellement pour plusieurs postes. L'équipe est responsable de l'optimisation des résultats de recherche de Xiaohongshu et de l'exploration de la découpe. technologies de pointe et s'engage à créer le plus grand moteur de recherche sur la vie en Chine. Nous espérons que vous pourrez nous rejoindre !

Sesi perkongsian kertas model besar Xiaohongshu menghimpunkan pengarang dari empat persidangan antarabangsa utama

Atas ialah kandungan terperinci Sesi perkongsian kertas model besar Xiaohongshu menghimpunkan pengarang dari empat persidangan antarabangsa utama. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:jiqizhixin.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan
Tentang kita Penafian Sitemap
Laman web PHP Cina:Latihan PHP dalam talian kebajikan awam,Bantu pelajar PHP berkembang dengan cepat!