대학 입시부터 올림픽 무대까지, 대형 모델과 인간 지능의 최후의 대결

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com, zhaoyunfeng@jiqizhixin.com
Shanghai Jiao Tong University의 Generative Artificial Intelligence Laboratory(GAIR Lab) 연구팀의 주요 연구 방향은 다음과 같습니다. 평가. 팀 홈페이지 : https://plms.ai/
향후 20년 안에 AI는 인간의 지능을 넘어설 것으로 예상됩니다. 튜링상 수상자 Hinton은 인터뷰에서 "향후 20년 안에 AI가 인간 지능을 능가할 것으로 예상된다"고 언급하며 주요 기술 기업들이 대형 모델(다중 모드 대형 모델 포함)의 "효율성"을 평가하기 위해 조기 준비를 해야 한다고 제안했습니다. 이 준비를 위해서는 "지능 수준"이 필수 전제 조건입니다.
다차원에서 AI를 엄격하게 평가할 수 있는 학제간 문제 세트를 갖춘 인지 추론 능력 평가 벤치마크가 매우 시급해졌습니다.
논문 주소: https://arxiv.org/pdf/2406.12753 프로젝트 주소: https://gair-nlp.github.io/OlympicArena/ 코드 주소: https ://github.com/GAIR-NLP/OlympicArena
OlympicArena의 기능은 다중 모드 지원, 다중 인지 능력 검사 및 세분화된 평가(두 가지 모두 고려)를 간략하게 설명합니다. 옳고 그름에 대한 평가, 추론의 각 단계에 대한 평가).
포괄적: OlympicArena에는 수학, 물리학, 화학, 생물학, 지리, 천문학, 컴퓨터 등 7개 핵심 주제에 걸쳐 34개 전문 분야가 포함된 62개 올림픽 대회의 총 11,163개 질문이 포함되어 있습니다. 동시에 객관식 문제와 같은 객관식 문제에 주로 초점을 맞춘 이전 벤치마크와 달리 OlympicArena는 표현식, 방정식, 간격, 화학 방정식 작성, 심지어 프로그래밍 문제까지 다양한 문제 유형을 지원합니다. 또한 OlympicArena는 다중 양식(질문의 거의 절반에 그림이 포함됨)을 지원하고 현실과 가장 일치하는 입력 형식(인터리브된 텍스트 이미지)을 채택하여 대형 모델이 작업을 완료하는 데 도움이 되는 시각적 정보 사용을 완벽하게 테스트합니다. . 추론하는 능력. 매우 어려움: 고등학교(대학 입학 시험) 문제나 대학 문제에 초점을 맞춘 이전 벤치마크와 달리 OlympicArena는 대규모 모델의 방대한 지식보다는 복잡한 추론 능력에 대한 순수한 검사에 더 중점을 둡니다. , 회상 능력 또는 간단한 응용 능력. 따라서 OlympicArena의 모든 문제는 올림피아드 난이도 수준입니다. 또한, 연구팀은 다양한 유형의 추론 능력에서 대형 모델의 성능을 세밀하게 평가하기 위해 논리적 추론 능력 8가지와 시각적 추론 능력 5가지를 정리한 뒤, 기존 대형 모델의 성능을 구체적으로 분석했다. 다양한 유형의 추론 능력 모델. 추론 능력에 따른 성능 차이. Rigor: 대형 모델의 건전한 발전을 이끌어내는 것이 학계가 해야 할 역할입니다. 현재 공개 벤치마크에서는 인기 있는 대형 모델 중 상당수가 데이터 유출 문제를 겪게 됩니다. 대형 모델)을 훈련 데이터에 포함). 이에 연구팀은 벤치마크의 유효성을 더욱 엄격하게 검증하기 위해 일부 인기 대형 모델을 대상으로 OlympicArena의 데이터 유출을 구체적으로 테스트했습니다. 세밀한 평가: 이전 벤치마크에서는 대규모 모델이 제공하는 최종 답이 정답과 일치하는지 여부만 평가하는 경우가 많았습니다. 이는 매우 복잡한 추론 문제에 대한 평가에서 일방적이며 현재 모델을 잘 반영할 수 없습니다. .보다 현실적인 추론 능력. 이에 연구진은 답변에 대한 평가 외에 질문 과정(단계)의 정확성에 대한 평가도 포함시켰다. 동시에 연구팀은 다양한 분야, 다양한 양식, 다양한 추론 능력에서 모델의 성능 차이를 분석하는 등 다양한 차원에서 다양한 결과를 분석했습니다.
OlympicArena의 다양한 주제에 대한 다양한 모델의 정확도 CS 프로그래밍 질문은 편견 없는 pass@k 지수를 사용하고 나머지는 정확도 지수를 사용합니다.
텍스트와 이미지가 함께 입력되면 LMM은 텍스트에 더 주의를 기울이고 이미지의 정보를 무시할 수 있습니다. 일부 LMM은 텍스트 모델을 기반으로 시각적 기능을 교육할 때 고유한 언어 기능(예: 추론 기능) 중 일부를 잃을 수 있는데, 이는 이 프로젝트의 복잡한 시나리오에서 특히 분명합니다. 이 벤치마크 질문은 복잡한 텍스트-이미지 래핑 입력 형식을 사용합니다. 일부 모델은 이 형식을 제대로 지원하지 못하여 텍스트에 포함된 이미지 위치 정보를 처리하고 이해할 수 없습니다.
왼쪽 그림: 추론 프로세스가 평가되는 모든 질문에서 모든 모델에 대한 답변의 정확성과 프로세스의 정확성 간의 상관 관계. 오른쪽: 잘못된 프로세스 단계의 위치 분포.
그림과 같이( b) 위의 단계 수준 평가 일반적으로 답변에만 의존하는 평가와 결과 사이에는 높은 수준의 일치가 있습니다. 모델이 정답을 생성하면 추론 프로세스의 품질이 대부분 높아집니다. 추론 과정의 정확성은 대개 답만 보는 정확성보다 높습니다. 이는 매우 복잡한 문제의 경우에도 모델이 일부 중간 단계를 올바르게 수행할 수 있음을 보여줍니다. 따라서 모델은 인지 추론에서 상당한 잠재력을 가질 수 있으며, 이는 연구자에게 새로운 연구 방향을 열어줍니다. 연구팀은 또한 일부 분야에서는 답변만으로 평가할 때 성능이 좋은 일부 모델이 추론 프로세스에서 성능이 좋지 않다는 사실을 발견했습니다. 연구팀은 이러한 단계가 최종 결과에 중요하지 않더라도 모델이 답변을 생성할 때 중간 단계의 타당성을 무시하는 경우가 있기 때문이라고 추측합니다. 또한 연구팀은 오류 단계의 위치 분포에 대한 통계 분석(그림 c 참조)을 수행한 결과 질문의 후반 추론 단계에서 오류가 발생하는 비율이 더 높다는 것을 발견했습니다. 이는 추론 과정이 누적될수록 모델이 오류가 발생하기 쉽고 오류가 누적된다는 것을 보여주며, 이는 모델이 장쇄 논리적 추론을 처리할 때 여전히 개선의 여지가 많다는 것을 보여줍니다.
수학 올림피아드 문제에서 실수를 저지른 GPT-4V의 예
감지된 유출 샘플 수와 이러한 샘플 문제에 해당하는 일반 텍스트 및 다중 모달 모델 적당량을 만드세요.
비전: 인간과 AI가 함께 발전하는 영광스러운 순간
위 내용은 대학 입시부터 올림픽 무대까지, 대형 모델과 인간 지능의 최후의 대결의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

역시 Tusheng 영상이지만 PaintsUndo는 다른 경로를 택했습니다. ControlNet 작성자 LvminZhang이 다시 살기 시작했습니다! 이번에는 회화 분야를 목표로 삼고 있습니다. 새로운 프로젝트인 PaintsUndo는 출시된 지 얼마 되지 않아 1.4kstar(여전히 상승세)를 받았습니다. 프로젝트 주소: https://github.com/lllyasviel/Paints-UNDO 이 프로젝트를 통해 사용자는 정적 이미지를 입력하고 PaintsUndo는 자동으로 라인 초안부터 완성품 따라가기까지 전체 페인팅 과정의 비디오를 생성하도록 도와줍니다. . 그리는 과정에서 선의 변화가 놀랍습니다. 최종 영상 결과는 원본 이미지와 매우 유사합니다. 완성된 그림을 살펴보겠습니다.

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 이 논문의 저자는 모두 일리노이 대학교 Urbana-Champaign(UIUC)의 Zhang Lingming 교사 팀 출신입니다. Steven Code Repair, 박사 4년차, 연구원

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 인공 지능 개발 과정에서 LLM(대형 언어 모델)의 제어 및 안내는 항상 핵심 과제 중 하나였으며 이러한 모델이 두 가지 모두를 보장하는 것을 목표로 했습니다. 강력하고 안전하게 인간 사회에 봉사합니다. 인간 피드백(RL)을 통한 강화 학습 방법에 초점을 맞춘 초기 노력

건배! 종이 토론이 말로만 진행된다면 어떤가요? 최근 스탠포드 대학교 학생들은 arXiv 논문에 대한 질문과 의견을 직접 게시할 수 있는 arXiv 논문에 대한 공개 토론 포럼인 alphaXiv를 만들었습니다. 웹사이트 링크: https://alphaxiv.org/ 실제로 이 웹사이트를 특별히 방문할 필요는 없습니다. URL에서 arXiv를 alphaXiv로 변경하면 alphaXiv 포럼에서 해당 논문을 바로 열 수 있습니다. 논문, 문장: 오른쪽 토론 영역에서 사용자는 저자에게 논문의 아이디어와 세부 사항에 대해 질문하는 질문을 게시할 수 있습니다. 예를 들어 다음과 같이 논문 내용에 대해 의견을 제시할 수도 있습니다.

AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.

최근 새천년 7대 과제 중 하나로 알려진 리만 가설이 새로운 돌파구를 마련했다. 리만 가설은 소수 분포의 정확한 특성과 관련된 수학에서 매우 중요한 미해결 문제입니다(소수는 1과 자기 자신으로만 나눌 수 있는 숫자이며 정수 이론에서 근본적인 역할을 합니다). 오늘날의 수학 문헌에는 리만 가설(또는 일반화된 형식)의 확립에 기초한 수학적 명제가 천 개가 넘습니다. 즉, 리만 가설과 그 일반화된 형식이 입증되면 천 개가 넘는 명제가 정리로 확립되어 수학 분야에 지대한 영향을 미칠 것이며, 리만 가설이 틀린 것으로 입증된다면, 이러한 제안의 일부도 그 효과를 잃을 것입니다. MIT 수학 교수 Larry Guth와 Oxford University의 새로운 돌파구

시계열 예측에 언어 모델을 실제로 사용할 수 있나요? Betteridge의 헤드라인 법칙(물음표로 끝나는 모든 뉴스 헤드라인은 "아니오"로 대답할 수 있음)에 따르면 대답은 아니오여야 합니다. 사실은 사실인 것 같습니다. 이렇게 강력한 LLM은 시계열 데이터를 잘 처리할 수 없습니다. 시계열, 즉 시계열은 이름에서 알 수 있듯이 시간 순서대로 배열된 데이터 포인트 시퀀스 집합을 나타냅니다. 시계열 분석은 질병 확산 예측, 소매 분석, 의료, 금융 등 다양한 분야에서 중요합니다. 시계열 분석 분야에서는 최근 많은 연구자들이 LLM(Large Language Model)을 사용하여 시계열의 이상 현상을 분류, 예측 및 탐지하는 방법을 연구하고 있습니다. 이 논문에서는 텍스트의 순차적 종속성을 잘 처리하는 언어 모델이 시계열로도 일반화될 수 있다고 가정합니다.

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 서문 최근 몇 년 동안 다양한 분야에서 MLLM(Multimodal Large Language Model)의 적용이 눈에 띄는 성공을 거두었습니다. 그러나 많은 다운스트림 작업의 기본 모델로서 현재 MLLM은 잘 알려진 Transformer 네트워크로 구성됩니다.
