Xiaohongshu의 대규모 모델 논문 공유 세션에는 4개 주요 국제 회의의 저자들이 모였습니다.
대형 모델이 산업계와 학계 모두에서 수많은 혁신적인 결과를 내놓으며 새로운 연구 붐을 주도하고 있습니다.
Xiaohongshu 기술팀도 이러한 흐름 속에서 끊임없이 탐구하고 있으며, 많은 논문의 연구 결과가 ICLR, ACL, CVPR, AAAI, SIGIR 및 WWW와 같은 최고의 국제 회의에서 자주 발표되었습니다.
대형 모델과 자연어 처리의 교차점에서 우리는 어떤 새로운 기회와 도전을 발견하고 있나요?
대형 모델에 대한 효과적인 평가 방법은 무엇인가요? 애플리케이션 시나리오에 어떻게 더 잘 통합될 수 있습니까?
6월 27일 19시~21시 30분, [REDtech가 온다] "리틀 레드북 2024 대형모델 프론티어 종이나눔" 11호가 온라인으로 방송됩니다!
REDtech에서는 Xiaohongshu 커뮤니티 검색팀을 생방송실에 특별히 초대하여 2024년 Xiaohongshu에서 출판한 6개의 대규모 모델 연구 논문을 공유할 예정입니다. Xiaohongshu Jingpai LTR 책임자 Feng Shaoxiong은 Li Yiwei, Wang Xinglin, Yuan Peiwen, Zhang Chao 등과 손을 잡고 최신 대형 모델 디코딩 및 증류 기술, 대형 모델 평가 방법 및 대형 모델 사용에 대해 논의했습니다. Xiaohongshu 플랫폼의 실제 응용 프로그램 모델입니다.
Activity Agenda
01 Escape Sky-high Cost: 다단계 추론을 위한 조기 중지 Self-Consistency / ICLR 2024에 선정됨
Escape Sky-high Cost: Early-stopping Self-Consistency for 다단계 추론 다단계 추론 성적 방법 | 공유자: Li Yiwei
자기 일관성(SC)은 사고 연쇄 추론에서 항상 널리 사용되는 해독 전략이었습니다. 이는 다중 사고 체인을 생성하고 최종 답을 개선합니다. 모델 성능. 그러나 미리 설정된 크기의 여러 샘플이 필요한 비용이 많이 드는 방법입니다. ICLR 2024에서 Xiaohongshu는 SC 비용을 크게 줄일 수 있는 간단하고 확장 가능한 샘플링 프로세스인 ESC(Early-Stopping Self-Consistency)를 제안했습니다. 이를 바탕으로 팀은 다양한 작업과 모델에 대한 성능-비용 균형을 동적으로 선택하기 위한 ESC 제어 체계를 추가로 도출했습니다. 세 가지 주류 추론 작업(수학, 상식, 기호 추론)에 대한 실험 결과에 따르면 ESC는 원래 성능을 거의 유지하면서 6개 벤치마크에서 평균 샘플 수를 크게 줄였습니다.
논문 주소: https://arxiv.org/abs/2401.10480
02 본질을 통합하고 불순물 제거: 자유 형식 언어 생성을 위한 세분화된 자체 일관성 / ACL 2024에 선정됨
Select 세부 사항: 자유 형식 생성 작업을 위한 Fine-grained self-consistency 방법| Sharer: Wang Xinglin
Xiaohongshu는 ACL 2024에서 FSC(Fine-Grained Self-Consistency) 방법을 제안했는데, 이는 자체 성능을 크게 향상시킬 수 있습니다. -자유 형식 생성 작업 성능의 일관성 방법. 연구팀은 먼저 자유 형식 생성 작업에 대한 기존 자기 일관성 방식의 단점이 서로 다른 샘플의 세밀한 조각 간의 공통 지식을 효과적으로 활용할 수 없는 거친 공통 샘플 선택에서 비롯된다는 점을 실험을 통해 분석했습니다. 이를 기반으로 연구팀은 대형 모델 자가 융합 기반의 FSC 방법을 제안했고, 실험을 통해 상당한 소비를 유지하면서도 코드 생성, 요약 생성, 수학적 추론 작업에서 훨씬 더 나은 성능을 달성했음을 확인했습니다.
논문 주소: https://github.com/WangXinglin/FSC
03 BatchEval: Towards Human-like Text Evaluation / ACL 2024에 선정, 현장 의장이 만점을 주고 최고의 논문을 추천
Mai 인간 수준의 텍스트 평가를 향하여 │ Shareer: Yuan Peiwen
Xiaohongshu는 ACL 2024에서 BatchEval 방법을 제안했습니다. 이 방법은 더 낮은 오버헤드로 인간과 유사한 텍스트 평가 효과를 얻을 수 있습니다. 연구팀은 먼저 기존 텍스트 평가 방식의 평가 견고성 단점은 평가 점수의 불균등한 분포에서 비롯되고, 점수 통합의 차선 성능은 평가 관점의 다양성 부족에서 비롯된다는 점을 이론적 차원에서 분석했다. 이를 바탕으로 인간의 평가 과정에서 샘플 간 비교를 통해 보다 입체적이고 종합적인 평가 벤치마크를 다양한 관점으로 구축하고자 BatchEval을 유추적으로 제안하였습니다. 현재의 여러 최첨단 방법과 비교할 때 BatchEval은 평가 오버헤드와 평가 효과 모두에서 훨씬 더 나은 성능을 달성합니다.
논문 주소: https://arxiv.org/abs/2401.00437
04 상호 일관성을 통한 SuperLLM에 대한 Poor-Supervised Evaluation / ACL 2024에 선정
상호를 통한 정확한 감독 신호가 부족한 상황에서 초인적 수준 달성 일관성 대형 언어 모델 평가| Sharer: Yuan Peiwen
Xiaohongshu는 ACL 2024에서 모델 간의 상호 일관성을 통해 인간 수준을 넘어선 대규모 언어 모델의 정확한 평가를 달성할 수 있는 PEEM 방법을 제안했습니다. 연구팀은 먼저 대규모 언어 모델의 급속한 발전 추세가 여러 측면에서 점진적인 도달을 가속화하거나 심지어 인간 수준을 능가할 것이라고 분석했습니다. 이러한 상황에서 인간은 더 이상 정확한 평가 신호를 제공할 수 없게 됩니다. 본 시나리오에서 능력 평가를 실현하기 위해, 팀은 모델 간 상호 일관성을 평가 신호로 활용하는 아이디어를 제안하고, 평가 샘플이 무한할 때 참조 모델 간에 독립적인 예측 분포가 있는 경우 이를 도출했습니다. 참조 모델 간의 이러한 일관성은 모델 기능을 정확하게 측정하는 데 사용될 수 있습니다. 이를 기반으로 연구팀은 EM 알고리즘을 기반으로 한 PEEM 방법을 제안했고, 실험을 통해 현실에서는 위 조건의 부족함을 효과적으로 완화할 수 있음을 확인하고, 이를 통해 인간 수준을 뛰어넘는 대규모 언어 모델의 정확한 평가를 달성했다.
논문 주소: https://github.com/ypw0102/PEEM
05 먼지를 금으로 만들기: 부정적 데이터를 활용하여 LLM의 복잡한 추론 능력 추출 / AAAI 2024 Oral
음성 샘플을 사용하여 홍보 대형 모델 추론 기능의 정제 | Sharer: Li Yiwei
대형 언어 모델(LLM)은 다양한 추론 작업에서 뛰어난 성능을 발휘하지만 블랙박스 속성과 엄청난 수의 매개변수가 실제로 널리 적용되는 데 방해가 됩니다. 특히 복잡한 수학적 문제를 다룰 때 LLM은 때때로 잘못된 추론 체인을 생성합니다. 전통적인 연구 방법은 긍정적인 샘플의 지식만 전달하고 잘못된 답이 있는 합성 데이터를 무시합니다. AAAI 2024에서 Xiaohongshu 검색 알고리즘 팀은 혁신적인 프레임워크를 제안하고, 모델 증류 프로세스에서 최초로 네거티브 샘플의 가치를 제안 및 검증했으며, 포지티브 샘플을 사용하는 것 외에도 완전한 모델 전문화 프레임워크를 구축했습니다. 부정적인 샘플을 사용하여 LLM 지식을 개선합니다. 프레임워크에는 NAT(Negative Assisted Training), NCE(Negative Calibration Enhancement) 및 ASC(Dynamic Self-Consistency)를 포함한 세 가지 직렬화 단계가 포함되어 있으며 훈련부터 추론까지 전체 프로세스를 포괄합니다. 광범위한 일련의 실험은 LLM 지식 증류에서 부정적인 데이터의 중요한 역할을 보여줍니다.
논문 주소: https://arxiv.org/abs/2312.12832
06 NoteLLM: A Retrievable Large Language Model for Note Recommendation / WWW 2024에 선정
대형 언어 모델 기반 노트 콘텐츠 표현 추천 시스템| 공유자: Zhang Chao
Xiaohongshu 앱은 매일 수많은 새로운 노트를 생성합니다. 관심 있는 사용자에게 이러한 새로운 콘텐츠를 효과적으로 추천하는 방법은 무엇일까요? 노트 내용을 기반으로 한 추천 표현은 노트의 콜드 스타트 문제를 완화하는 방법이자 많은 다운스트림 애플리케이션의 기초이기도 합니다. 최근에는 강력한 일반화 및 텍스트 이해 기능으로 인해 대규모 언어 모델이 많은 주목을 받았습니다. 따라서 우리는 노트 내용에 대한 이해를 높이기 위해 대규모 언어 모델을 사용하여 노트 내용 표현 추천 시스템을 구축하고자 합니다. 향상된 표현 생성과 다중 모드 콘텐츠 표현 생성이라는 두 가지 관점에서 최근 작업을 소개합니다. 현재 이 시스템은 Xiaohongshu의 여러 비즈니스 시나리오에 적용되어 상당한 이점을 얻었습니다. 논문주소 : https://arxiv.org/abs/2403.01744라이브 시청방법
-
생방송 시간 : 2024년 6월 27일 19:00~21:30
라이브 방송 플랫폼: WeChat 비디오 계정 [REDtech], 동일한 이름의 Bilibili, Douyin 및 Xiaohongshu 계정에서 라이브 방송됩니다.
친구를 초대하여 라이브 방송 선물 약속을 잡으세요
위 내용은 Xiaohongshu의 대규모 모델 논문 공유 세션에는 4개 주요 국제 회의의 저자들이 모였습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

8월 21일, 2024년 세계로봇대회가 베이징에서 성대하게 개최되었습니다. SenseTime의 홈 로봇 브랜드 "Yuanluobot SenseRobot"은 전체 제품군을 공개했으며, 최근에는 Yuanluobot AI 체스 두는 로봇인 체스 프로페셔널 에디션(이하 "Yuanluobot SenseRobot")을 출시하여 세계 최초의 A 체스 로봇이 되었습니다. 집. Yuanluobo의 세 번째 체스 게임 로봇 제품인 새로운 Guoxiang 로봇은 AI 및 엔지니어링 기계 분야에서 수많은 특별한 기술 업그레이드와 혁신을 거쳤으며 처음으로 3차원 체스 말을 집는 능력을 실현했습니다. 가정용 로봇의 기계 발톱을 통해 체스 게임, 모두 체스 게임, 기보 복습 등과 같은 인간-기계 기능을 수행합니다.

개학이 코앞으로 다가왔습니다. 새 학기를 앞둔 학생들뿐만 아니라 대형 AI 모델도 스스로 관리해야 합니다. 얼마 전 레딧에는 클로드가 게으르다고 불평하는 네티즌들이 붐볐습니다. "레벨이 많이 떨어졌고, 자주 멈췄고, 심지어 출력도 매우 짧아졌습니다. 출시 첫 주에는 4페이지 전체 문서를 한 번에 번역할 수 있었지만 지금은 반 페이지도 출력하지 못합니다. !" https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ "클로드에게 완전히 실망했습니다"라는 제목의 게시물에

베이징에서 열린 세계로봇컨퍼런스에서는 휴머노이드 로봇의 전시가 현장의 절대 화두가 됐다. 스타더스트 인텔리전트 부스에서는 AI 로봇 어시스턴트 S1이 덜시머, 무술, 서예 3대 퍼포먼스를 선보였다. 문학과 무술을 모두 갖춘 하나의 전시 공간은 수많은 전문 관객과 미디어를 끌어 모았습니다. 탄력 있는 현의 우아한 연주를 통해 S1은 정밀한 작동과 속도, 힘, 정밀성을 갖춘 절대적인 제어력을 보여줍니다. CCTV 뉴스는 '서예'의 모방 학습 및 지능형 제어에 대한 특별 보도를 진행했습니다. 회사 설립자 Lai Jie는 부드러운 움직임 뒤에 하드웨어 측면이 최고의 힘 제어와 가장 인간과 유사한 신체 지표(속도, 하중)를 추구한다고 설명했습니다. 등)이지만 AI측에서는 사람의 실제 움직임 데이터를 수집해 로봇이 강한 상황에 직면했을 때 더욱 강해지고 빠르게 진화하는 방법을 학습할 수 있다. 그리고 민첩하다

참가자들은 이번 ACL 컨퍼런스에서 많은 것을 얻었습니다. ACL2024는 6일간 태국 방콕에서 개최됩니다. ACL은 전산언어학 및 자연어 처리 분야 최고의 국제학술대회로 국제전산언어학회(International Association for Computational Linguistics)가 주최하고 매년 개최된다. ACL은 NLP 분야에서 학술 영향력 1위를 항상 차지하고 있으며, CCF-A 추천 컨퍼런스이기도 합니다. 올해로 62회째를 맞이하는 ACL 컨퍼런스에는 NLP 분야의 최신 저서가 400편 이상 접수됐다. 어제 오후 컨퍼런스에서는 최우수 논문과 기타 상을 발표했습니다. 이번에 최우수논문상 7개(미출판 2개), 우수주제상 1개, 우수논문상 35개가 있다. 이 컨퍼런스에서는 또한 3개의 리소스 논문상(ResourceAward)과 사회적 영향상(Social Impact Award)을 수상했습니다.

비전과 로봇 학습의 긴밀한 통합. 최근 화제를 모으고 있는 1X 휴머노이드 로봇 네오(NEO)와 두 개의 로봇 손이 원활하게 협력해 옷 개기, 차 따르기, 신발 싸기 등을 하는 모습을 보면 마치 로봇 시대로 접어들고 있다는 느낌을 받을 수 있다. 실제로 이러한 부드러운 움직임은 첨단 로봇 기술 + 정교한 프레임 디자인 + 다중 모드 대형 모델의 산물입니다. 우리는 유용한 로봇이 종종 환경과 복잡하고 절묘한 상호작용을 요구한다는 것을 알고 있으며, 환경은 공간적, 시간적 영역에서 제약으로 표현될 수 있습니다. 예를 들어, 로봇이 차를 따르도록 하려면 먼저 로봇이 찻주전자 손잡이를 잡고 차를 흘리지 않고 똑바로 세운 다음, 주전자 입구와 컵 입구가 일치할 때까지 부드럽게 움직여야 합니다. 을 누른 다음 주전자를 특정 각도로 기울입니다. 이것

지금까지 AI 웨어러블 디바이스 트랙에서는 특별히 좋은 결과를 얻은 제품이 없습니다. 올해 초 MWC24에서 출시된 AI핀은 평가 프로토타입이 출시되자 출시 당시 과대평가됐던 'AI 신화'가 깨지기 시작했고, 단숨에 대규모 수익률을 경험했다. 몇 달간, 역시 초기에 잘 팔렸던 RabbitR1은 상대적으로 좋아졌지만, 대량으로 출시되자 '안드로이드 케이스'와 비슷한 부정적인 평가를 받기도 했습니다. 이제 또 다른 회사가 AI 웨어러블 디바이스 트랙에 진입했습니다. 기술 매체 더버지(TheVerge)는 어제 AI 스타트업 플라우드(Plaud)가 노트핀(NotePin)이라는 제품을 출시했다는 블로그 게시물을 게재했다. 아직 '채색' 단계인 AIFriend와 달리 NotePin은 이제 시작되었습니다.

컨퍼런스 소개 과학기술의 급속한 발전과 함께 인공지능은 사회 발전을 촉진하는 중요한 힘이 되었습니다. 이 시대에 우리는 분산인공지능(DAI)의 혁신과 적용을 목격하고 참여할 수 있어 행운입니다. 분산 인공지능(Distributed Artificial Intelligence)은 인공지능 분야의 중요한 한 분야로, 최근 몇 년간 점점 더 많은 주목을 받고 있습니다. 대규모 언어 모델(LLM) 기반 에이전트가 갑자기 등장했습니다. 대규모 모델의 강력한 언어 이해와 생성 기능을 결합하여 자연어 상호 작용, 지식 추론, 작업 계획 등에 큰 잠재력을 보여주었습니다. AIAgent는 빅 언어 모델을 이어받아 현재 AI계에서 화제가 되고 있습니다. 오

Xiaohongshu 계정을 취소하는 방법은 무엇입니까? 이 가이드는 Xiaohongshu 계정 취소 절차를 단계별로 안내합니다. 1단계: Xiaohongshu 앱을 열고 "나" 페이지에 들어간 후 오른쪽 상단에 있는 "설정" 아이콘을 클릭하세요. 2단계: 설정 페이지에서 "계정 및 보안" 옵션을 찾아 클릭하세요. 3단계: "계정 및 보안" 페이지에 "계정 취소" 옵션이 표시되면 클릭하여 들어갑니다. 4단계: 취소 신청 페이지에서 "다음" 버튼을 클릭하여 계속 진행하세요. 5단계: 확인 페이지에서 하단의 "다음" 버튼을 다시 클릭하세요. 6단계: 계정 해지 사유를 선택한 후 "제출"을 클릭하여 해지 신청을 완료하세요. 계정에서 로그아웃하면 모든 데이터가 삭제되며 복구할 수 없다는 점에 유의하시기 바랍니다. 주의해서 진행하시기 바랍니다.
