기술 주변기기 일체 포함 답변 추출 정확도는 96.88%에 달하며 xFinder는 대형 모델의 '부정행위' 사고방식을 제거합니다.

답변 추출 정확도는 96.88%에 달하며 xFinder는 대형 모델의 '부정행위' 사고방식을 제거합니다.

Jun 19, 2024 am 08:11 AM
프로젝트 대규모 언어 모델 xFinder

답변 추출 정확도는 96.88%에 달하며 xFinder는 대형 모델의 부정행위 사고방식을 제거합니다.
AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

이 기사의 첫 번째 저자와 교신 저자는 모두 Shanghai Algorithm Innovation Research Institute 출신입니다. 그 중 교신저자인 Li Zhiyu 박사는 중국 런민대학교 컴퓨터공학과를 졸업하고 Alibaba, Xiaohongshu 등 인터넷 기업에서 알고리즘 구현 및 연구에 참여했으며, 수천억 개의 제품을 포함한 프로젝트에 참여했습니다. 지식 지도, 사용자 지도, 여론 지도 등 총 40편 이상의 논문이 출판되었습니다. Li Zhiyu는 현재 상하이 알고리즘 혁신 연구소(Xiong Feiyu 박사가 이끄는)의 대규모 모델 부서에서 전반적인 기술 연구 및 개발 작업을 담당하고 있습니다. 연구소 홈페이지: https://www.iaar.ac.cn/

대형 언어 모델(LLM)의 급속한 발전으로 인해 모델의 공정성과 신뢰성을 평가하는 방법에 대한 열띤 논의가 촉발되었습니다.

OpenCompass, LM Eval Harness, UltraEval과 같은 기존 평가 프레임워크와 다양한 벤치마크가 업계 발전을 주도하지만, 이러한 평가 프레임워크의 핵심 구성 요소에 대한 신뢰성이나 신뢰성 측정에 중점을 두는 팀은 소수에 불과합니다.

최근 상하이 알고리즘 혁신 연구소와 중국 런민 대학교 연구팀은 "xFinder: 대규모 언어 모델을 위한 강력하고 정확한 답변 추출"이라는 제목의 논문을 발표했습니다. 본 논문에서는 대규모 모델 평가에서 답변 추출 구성 요소의 신뢰성과 일관성을 평가하는 데 중점을 두고 LLM 평가 프레임워크의 전체 프로세스에 대한 심층 분석을 제공합니다.
답변 추출 정확도는 96.88%에 달하며 xFinder는 대형 모델의 부정행위 사고방식을 제거합니다.
  • 논문 주소:
    https://arxiv.org/abs/2405.11874
  • Github 링크:
    https://github.com/IAAR-Shanghai/xFinder
  • 껴안는 얼굴 링크:
    https://huggingface.co/collections/IAAR-Shanghai/xfinder-664b7b21e94e9a93f25a8412

현재 평가 프레임워크는 주로 정규식(RegEx)을 사용하여 답변을 추출하지만 다음에는 명백한 문제가 있습니다. 이 방법 결함. 매뉴얼 검토 결과, 최고 추출 정확도는 74.38%에 불과하고 평가 결과도 매우 신뢰할 수 없는 것으로 나타났습니다.

또한 RegEx 방법은 의도적이든 아니든 쉽게 장착되어 "부정행위" 가능성이 높아져 평가 결과의 신뢰성과 일관성에 영향을 미칩니다. 아래 그림은 LLM 평가 프레임워크의 RegEx 구성 요소 추출 오류를 보여줍니다.
답변 추출 정확도는 96.88%에 달하며 xFinder는 대형 모델의 부정행위 사고방식을 제거합니다.
이 문제를 효과적으로 해결하기 위해 상하이 알고리즘 혁신 연구소와 중국 런민 대학의 연구팀은 핵심 답변을 더 정확하게 추출하기 위해 xFinder라는 새로운 모델을 개발했습니다.

xFinder에는 다음과 같은 장점이 있습니다.

(1) 특정 형식의 답변 출력이 필요하지 않고 강력한 답변 추출 견고성을 가지며 추출 정확도가 95.18%로 상당히 높습니다. 평가 프레임워크에서 현재 최고의 LLM RegEx 방법보다 낫습니다.

(2) 다양한 질문 유형을 지원하고 문자 객관식 질문을 퀴즈 질문으로 자동 변환할 수 있으며 다양한 질문 유형의 혼합 평가를 지원하여 테스터가 질문 유형에 맞을 가능성을 줄입니다.

방법 소개
답변 추출 정확도는 96.88%에 달하며 xFinder는 대형 모델의 부정행위 사고방식을 제거합니다.
xFinder 구현 프로세스에는 주로 LLM 응답 콘텐츠 생성, KAF 데이터 세트 주석 및 xFinder 교육이 포함됩니다. xFinder 모델의 효과적인 교육을 달성하기 위해 팀은 KAF(Key Answer Finder) 데이터 세트라는 특수 데이터 세트를 구축했습니다. 데이터 세트에는 다양한 평가 작업을 다루는 26,900개의 훈련 샘플, 4,961개의 테스트 샘플, 4,482개의 일반화 샘플이 포함되어 있습니다.响 대규모 언어 모델은

을 생성하는 데 응답합니다. 먼저, 연구팀은 기존 주요 평가 벤치마크 및 보고서에서 여러 가지 일반적인 평가 작업 데이터 세트를 선택했습니다. 이러한 작업은 문자 선택 작업, 짧은 형식으로 분류됩니다. 텍스트 선택 작업, 카테고리 레이블 작업 및 수학 작업.
그런 다음 팀은 다양한 LLM 시리즈(예: Qwen, InternLM, ChatGLM 등)를 사용하여 이러한 작업에 대한 데이터 쌍을 생성했습니다. 다양한 LLM을 통해 팀은 풍부하고 다양한 데이터 쌍을 생성하여 xFinder 모델 교육을 위한 충분한 데이터 지원을 제공했습니다.

자동 주석 및 수동 검토

                                                              팀은 LLM 응답에서 주요 답변을 추출하고 이를 라벨로 사용하여 고품질 KAF 데이터 세트를 구축하는 전략을 사용했습니다. 훈련 세트의 주석 효율성을 향상시키기 위해 GPT-4를 사용하여 서로 다른 프롬프트를 통해 두 개의 주석 세트를 생성하는 반자동 프로세스를 채택했으며 일관성 없는 주석이 있는 항목을 필터링하기 위해 자체 일관성 전략을 사용했습니다. 수학 문제를 직접 검토하도록 제출했습니다. 테스트 세트와 일반화 세트의 유효성과 신뢰성을 보장하기 위해 모든 레이블은 두 차례의 수동 주석을 거칩니다. In Training XFINDER
KAF 데이터 세트의 다양성과 모델의 일반화 기능을 향상시키기 위해 연구팀은 두 가지 데이터 향상 전략을 채택했습니다.
(1) 시뮬레이션 LLM 응답: 50 KAF 훈련 세트의 문자 선택 질문 중 %는 LLM의 다양한 응답을 시뮬레이션하기 위해 하나 또는 두 개의 옵션을 추가하거나 삭제하여 수정되었습니다.
(2) 프롬프트 양식 강화: 핵심 답변 문장이 포함된 LLM 응답의 10%를 추출하고 프롬프트 부분을 대체합니다. 예를 들어 "최종 답변은 A입니다."를 "질문의 맥락에 따라, A가 가장 가능성이 높은 대답입니다."
또한 팀은 XTuner 도구와 QLoRA 방식을 사용하여 Llama 시리즈, Qwen 시리즈, Gemma 시리즈 등 기본 모델을 미세 조정하고 마침내 xFinder를 얻었습니다.

실험 결과

팀은 다양한 작업에서 xFinder의 성능을 평가하고 이를 기존 RegEx 방법과 비교하기 위해 광범위한 실험을 수행했습니다. KAF 테스트 세트 결과
답변 추출 정확도는 96.88%에 달하며 xFinder는 대형 모델의 부정행위 사고방식을 제거합니다. KAF 테스트 세트에서 XFinder-Qwen1505의 평균 추출 정확도는 96.88%에 이르렀으며 이는 최고의 평가 프레임워크의 정규식 방법의 74.38%보다 훨씬 높습니다.
구체적으로 xFinder-qwen1505의 추출 정확도는 문자 옵션 작업에서 96.83%, 분류 레이블 작업에서 98.05%입니다. %. 이러한 결과는 xFinder가 광범위한 작업에서 우수한 성능을 발휘하여 평가의 정확성과 신뢰성을 크게 향상시킨다는 것을 보여줍니다.

KAF 일반화 세트 결과
                                                                                                                  새로운 KAF 일반화 세트(이 일반화 세트는 KAF 데이터 세트의 훈련 세트 및 테스트 세트와 다른 LLM 및 테스트 작업 생성을 사용함) 샘플로 구성됨), xFinder -qwen1505는 평균 추출 정확도 93.42%로 뛰어난 성능을 보여주었습니다.
실험 결과에 따르면 xFinder는 다른 RegEx 기반 평가 프레임워크보다 더 나은 성능을 발휘할 뿐만 아니라 GPT-4보다 훨씬 뛰어나며 높은 견고성과 일반화 기능을 완벽하게 보여줍니다.

실제 시나리오에서의 평가
                   
답변 추출 정확도는 96.88%에 달하며 xFinder는 대형 모델의 부정행위 사고방식을 제거합니다. 연구팀은 xFinder와 기존 평가 프레임워크를 사용하여 10개의 LLM에 대한 종합적인 평가를 수행했습니다. 평가 작업에는 CommonsenseQA, BoolQ, GSM8K 등이 포함됩니다. 10개의 서로 다른 LLM에 5가지 답변 추출 방식을 적용하여 일련의 비교 실험을 수행했습니다.

요약하자면, 실험 결과는 주로 세 가지 주요 결과를 드러냅니다.

(1) 서로 다른 프레임워크에서 동일한 모델의 순위는 종종 큰 차이가 있어 모델의 실제 기능을 정확하게 반영하기 어렵습니다. 일관성이 떨어지는 모델입니다. ㅋㅋㅋ

(3) 기존 문자 옵션 설정에 비해 옵션 텍스트를 직접 사용하면 문자 옵션 설정의 불안정성을 반영하여 순위의 일관성을 크게 향상시킬 수 있습니다. 더 자세한 내용과 실험 결과는 부록에 제시되어 있으며, 이는 위 결과의 타당성을 더욱 확증해 줍니다.

결론
답변 추출 정확도는 96.88%에 달하며 xFinder는 대형 모델의 부정행위 사고방식을 제거합니다.
일반적으로 xFinder는 핵심 답변 추출 모듈을 최적화하여 LLM 평가의 정확성과 신뢰성을 향상시킵니다. 실험 결과에 따르면 xFinder는 다양한 작업에서 우수한 성능을 발휘하며 높은 견고성과 일반화 기능을 갖추고 있습니다. 앞으로도 연구팀은 LLM 성과에 대한 신뢰할 수 있는 평가를 위한 탄탄한 기반을 제공하기 위해 계속해서 xFinder를 최적화하고 기타 주요 평가 문제를 연구할 것입니다.

위 내용은 답변 추출 정확도는 96.88%에 달하며 xFinder는 대형 모델의 '부정행위' 사고방식을 제거합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

<gum> : Bubble Gum Simulator Infinity- 로얄 키를 얻고 사용하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora : 마녀 트리의 속삭임 - Grappling Hook 잠금 해제 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Nordhold : Fusion System, 설명
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

ControlNet의 저자가 또 다른 히트를 쳤습니다! 이틀 만에 14,000개의 별을 획득하여 그림에서 그림을 생성하는 전체 과정 ControlNet의 저자가 또 다른 히트를 쳤습니다! 이틀 만에 14,000개의 별을 획득하여 그림에서 그림을 생성하는 전체 과정 Jul 17, 2024 am 01:56 AM

역시 Tusheng 영상이지만 PaintsUndo는 다른 경로를 택했습니다. ControlNet 작성자 LvminZhang이 다시 살기 시작했습니다! 이번에는 회화 분야를 목표로 삼고 있습니다. 새로운 프로젝트인 PaintsUndo는 출시된 지 얼마 되지 않아 1.4kstar(여전히 상승세)를 받았습니다. 프로젝트 주소: https://github.com/lllyasviel/Paints-UNDO 이 프로젝트를 통해 사용자는 정적 이미지를 입력하고 PaintsUndo는 자동으로 라인 초안부터 완성품 따라가기까지 전체 페인팅 과정의 비디오를 생성하도록 도와줍니다. . 그리는 과정에서 선의 변화가 놀랍습니다. 최종 영상 결과는 원본 이미지와 매우 유사합니다. 완성된 그림을 살펴보겠습니다.

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다. RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다. Jun 24, 2024 pm 03:04 PM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 인공 지능 개발 과정에서 LLM(대형 언어 모델)의 제어 및 안내는 항상 핵심 과제 중 하나였으며 이러한 모델이 두 가지 모두를 보장하는 것을 목표로 했습니다. 강력하고 안전하게 인간 사회에 봉사합니다. 인간 피드백(RL)을 통한 강화 학습 방법에 초점을 맞춘 초기 노력

오픈 소스 AI 소프트웨어 엔지니어 목록의 1위인 UIUC의 에이전트 없는 솔루션은 SWE 벤치의 실제 프로그래밍 문제를 쉽게 해결합니다. 오픈 소스 AI 소프트웨어 엔지니어 목록의 1위인 UIUC의 에이전트 없는 솔루션은 SWE 벤치의 실제 프로그래밍 문제를 쉽게 해결합니다. Jul 17, 2024 pm 10:02 PM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 이 논문의 저자는 모두 일리노이 대학교 Urbana-Champaign(UIUC)의 Zhang Lingming 교사 팀 출신입니다. Steven Code Repair, 박사 4년차, 연구원

arXiv 논문은 '연발'로 게시될 수 있습니다. Stanford alphaXiv 토론 플랫폼은 온라인이며 LeCun은 이를 좋아합니다. arXiv 논문은 '연발'로 게시될 수 있습니다. Stanford alphaXiv 토론 플랫폼은 온라인이며 LeCun은 이를 좋아합니다. Aug 01, 2024 pm 05:18 PM

건배! 종이 토론이 말로만 진행된다면 어떤가요? 최근 스탠포드 대학교 학생들은 arXiv 논문에 대한 질문과 의견을 직접 게시할 수 있는 arXiv 논문에 대한 공개 토론 포럼인 alphaXiv를 만들었습니다. 웹사이트 링크: https://alphaxiv.org/ 실제로 이 웹사이트를 특별히 방문할 필요는 없습니다. URL에서 arXiv를 alphaXiv로 변경하면 alphaXiv 포럼에서 해당 논문을 바로 열 수 있습니다. 논문, 문장: 오른쪽 토론 영역에서 사용자는 저자에게 논문의 아이디어와 세부 사항에 대해 질문하는 질문을 게시할 수 있습니다. 예를 들어 다음과 같이 논문 내용에 대해 의견을 제시할 수도 있습니다.

리만 가설의 중요한 돌파구! 타오저쉬안(Tao Zhexuan)은 MIT와 옥스퍼드의 새로운 논문을 적극 추천했으며, 37세의 필즈상 수상자도 참여했다. 리만 가설의 중요한 돌파구! 타오저쉬안(Tao Zhexuan)은 MIT와 옥스퍼드의 새로운 논문을 적극 추천했으며, 37세의 필즈상 수상자도 참여했다. Aug 05, 2024 pm 03:32 PM

최근 새천년 7대 과제 중 하나로 알려진 리만 가설이 새로운 돌파구를 마련했다. 리만 가설은 소수 분포의 정확한 특성과 관련된 수학에서 매우 중요한 미해결 문제입니다(소수는 1과 자기 자신으로만 나눌 수 있는 숫자이며 정수 이론에서 근본적인 역할을 합니다). 오늘날의 수학 문헌에는 리만 가설(또는 일반화된 형식)의 확립에 기초한 수학적 명제가 천 개가 넘습니다. 즉, 리만 가설과 그 일반화된 형식이 입증되면 천 개가 넘는 명제가 정리로 확립되어 수학 분야에 지대한 영향을 미칠 것이며, 리만 가설이 틀린 것으로 입증된다면, 이러한 제안의 일부도 그 효과를 잃을 것입니다. MIT 수학 교수 Larry Guth와 Oxford University의 새로운 돌파구

OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다. OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다. Jul 19, 2024 am 01:29 AM

AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.

LLM은 시계열 예측에 적합하지 않습니다. 추론 능력도 사용하지 않습니다. LLM은 시계열 예측에 적합하지 않습니다. 추론 능력도 사용하지 않습니다. Jul 15, 2024 pm 03:59 PM

시계열 예측에 언어 모델을 실제로 사용할 수 있나요? Betteridge의 헤드라인 법칙(물음표로 끝나는 모든 뉴스 헤드라인은 "아니오"로 대답할 수 있음)에 따르면 대답은 아니오여야 합니다. 사실은 사실인 것 같습니다. 이렇게 강력한 LLM은 시계열 데이터를 잘 처리할 수 없습니다. 시계열, 즉 시계열은 이름에서 알 수 있듯이 시간 순서대로 배열된 데이터 포인트 시퀀스 집합을 나타냅니다. 시계열 분석은 질병 확산 예측, 소매 분석, 의료, 금융 등 다양한 분야에서 중요합니다. 시계열 분석 분야에서는 최근 많은 연구자들이 LLM(Large Language Model)을 사용하여 시계열의 이상 현상을 분류, 예측 및 탐지하는 방법을 연구하고 있습니다. 이 논문에서는 텍스트의 순차적 종속성을 잘 처리하는 언어 모델이 시계열로도 일반화될 수 있다고 가정합니다.

최초의 Mamba 기반 MLLM이 출시되었습니다! 모델 가중치, 학습 코드 등은 모두 오픈 소스입니다. 최초의 Mamba 기반 MLLM이 출시되었습니다! 모델 가중치, 학습 코드 등은 모두 오픈 소스입니다. Jul 17, 2024 am 02:46 AM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 서문 최근 몇 년 동안 다양한 분야에서 MLLM(Multimodal Large Language Model)의 적용이 눈에 띄는 성공을 거두었습니다. 그러나 많은 다운스트림 작업의 기본 모델로서 현재 MLLM은 잘 알려진 Transformer 네트워크로 구성됩니다.

See all articles