특정 계층의 구성 요소를 90% 이상 제거하지 않고 LLM을 유지하면서 성능을 향상시키기 위해 Transformer 순위를 줄입니다.
MIT와 Microsoft가 공동 연구를 진행한 결과 대형 언어 모델의 작업 성능을 향상하고 크기를 줄이는 데 추가 교육이 필요하지 않다는 사실을 확인했습니다.
대형 모델 시대에 Transformer는 고유한 기능으로 유명합니다. 전체 과학 연구 분야. LLM(Transformer-based Language Model)은 도입 이후 다양한 작업에서 뛰어난 성능을 보여왔습니다. Transformer의 기본 아키텍처는 자연어 모델링 및 추론을 위한 최첨단 기술이 되었으며 컴퓨터 비전 및 강화 학습과 같은 분야에서 강력한 전망을 보여주었습니다
그러나 현재 Transformer 아키텍처는 매우 크고 일반적으로 훈련과 추론을 위해 많은 양의 컴퓨팅 리소스가 필요합니다.
다음과 같이 다시 작성하세요. 더 많은 매개변수나 데이터로 훈련된 Transformer가 분명히 다른 모델보다 더 많은 능력을 발휘하기 때문에 이렇게 하는 것이 합리적입니다. 그러나 점점 더 많은 연구에 따르면 Transformer 기반 모델과 신경망은 학습된 가설을 유지하기 위해 모든 적응 매개변수를 유지할 필요가 없습니다.
일반적으로 모델을 훈련할 때 과잉 매개변수화가 도움이 되는 것 같지만 이러한 모델은 추론하기 전에 잘라냅니다. 연구에 따르면 신경망은 성능 저하 없이 90% 이상의 가중치를 제거할 수 있는 경우가 많습니다. 이 현상은 모델 추론에 도움이 되는 가지치기 전략에 대한 연구자들의 관심을 촉발시켰습니다.
MIT와 Microsoft의 연구원들은 "The Truth is in There: Improving Reasoning in Language Models with Layer-Selective Rank Reduction"이라는 논문에서 다음과 같은 놀라운 발견을 제시했습니다. Transformer 모델의 특정 레이어를 잘라내면 특정 작업에 대한 모델 성능이 크게 향상될 수 있습니다.
논문을 보려면 다음 링크를 클릭하세요: https://arxiv.org/pdf/2312.13558.pdf
-
논문 홈페이지: https://pratyushashama.github.io/laser/
연구에서는 이러한 간단한 개입을 LASER(Layer Selective Rank Reduction)라고 부르는데, 이는 특이값 분해를 통해 Transformer 모델에서 특정 레이어의 학습된 가중치 행렬의 고차 성분을 선택적으로 줄여 LLM의 성능을 크게 향상시킵니다. 이 작업은 추가 매개변수나 데이터 없이 모델 학습이 완료된 후에 수행할 수 있습니다.
작업 중에 모델별 가중치 행렬 및 레이어에서 가중치 감소가 수행됩니다. 또한 이 연구에서는 많은 유사한 행렬이 가중치를 크게 줄일 수 있으며 일반적으로 구성 요소의 90% 이상이 제거될 때까지 성능 저하가 관찰되지 않는다는 사실을 발견했습니다.
또한 이 연구에서는 이러한 감소로 정확도가 크게 향상될 수 있다는 사실도 발견했습니다. 자연어에 국한되어 강화 학습에서도 성능 향상이 발견되었습니다.
또한 본 연구에서는 고차 구성 요소에 저장된 내용을 추론하여 삭제하여 성능을 향상시키려는 시도를 합니다. 연구에 따르면 LASER는 올바른 질문에 대답했지만 개입 전 원래 모델은 주로 높은 빈도의 단어(예: "the", "of" 등)로 응답했으며 이는 의미론적 유형도 동일하지 않았습니다. 즉, 이러한 구성 요소로 인해 모델은 개입 없이 관련 없는 고주파 단어를 생성하게 됩니다.
그러나 어느 정도 순위 감소를 수행하면 모델의 답변이 정답으로 변환될 수 있습니다.
이를 이해하기 위해 연구에서는 나머지 구성 요소가 개별적으로 무엇을 인코딩하는지 조사하고 고차 특이 벡터만 사용하여 가중치 행렬을 근사화했습니다. 이러한 구성요소는 정답과 동일한 의미 범주에서 서로 다른 응답이나 공통적으로 자주 사용되는 단어를 설명하는 것으로 나타났습니다.
이러한 결과는 시끄러운 고차 구성 요소가 저차 구성 요소와 결합될 때 충돌하는 응답이 평균 답변을 생성하며 이는 정확하지 않을 수 있음을 시사합니다. 그림 1은 Transformer 아키텍처와 LASER 이후의 절차를 시각적으로 보여줍니다. 여기서는 다층 퍼셉트론(MLP)의 특정 계층의 가중치 행렬이 해당 계층의 낮은 순위 근사값으로 대체됩니다.
레이저 개요
에서는 레이저 개입에 대한 자세한 소개를 제공합니다. 단일 단계 LASER 개입은 매개변수 τ, 레이어 수 ℓ 및 감소된 순위 ρ를 포함하는 삼중선(τ, ℓ, ρ)으로 정의됩니다. 이 값들은 함께 낮은 순위 근사치로 대체될 행렬과 근사 정도를 설명합니다. 연구자들은 매개변수 유형에 따라 간섭할 행렬 유형을 분류합니다
연구원들은 MLP 및 Attention 레이어의 행렬로 구성된 W = {W_q, W_k, W_v, W_o, U_in, U_out}의 행렬에 중점을 둡니다. 계층의 수는 연구자 개입의 계층을 나타냅니다(첫 번째 계층은 0부터 색인화됩니다). 예를 들어 Llama-2에는 32개의 레이어가 있으므로 ℓ ∈ {0, 1, 2,・・・31}입니다.
궁극적으로 ρ ∈ [0, 1)은 하위 순위 근사를 만들 때 최대 순위 중 어느 부분을 유지해야 하는지 설명합니다. 예를 들어 라고 가정하면 이 행렬의 최대 순위는 d입니다. 연구자들은 이를 ⌊ρ・d⌋- 근사로 대체했습니다.
아래 그림 1은 LASER의 예입니다. 이 그림에서 τ = U_in 및 ℓ = L은 L^번째 레이어의 Transformer 블록에서 MLP의 첫 번째 레이어의 가중치 행렬을 업데이트하는 것을 나타냅니다. 또 다른 매개변수는 순위-k 근사에서 k를 제어합니다.
LASER는 네트워크의 특정 정보 흐름을 제한하여 예기치 않게 상당한 성능 이점을 제공할 수 있습니다. 이러한 개입은 순서에 상관없이 일련의 개입을 적용하는 등 쉽게 결합할 수도 있습니다 .
LASER 방법은 그러한 개입에 대한 단순한 검색일 뿐이며, 최대한의 이익을 얻을 수 있도록 수정되었습니다. 그러나 이러한 개입을 결합하는 다른 방법이 많이 있으며 이는 향후 작업의 방향입니다.
본래의 의미를 그대로 유지하려면 내용을 중국어로 다시 작성해야 합니다. 원래 문장이 나올 필요는 없습니다
실험 부분에서 연구원은 PILE 데이터 세트에 대해 사전 훈련된 GPT-J 모델을 사용했습니다. 모델의 레이어 수는 27개이고 매개 변수는 60억 개입니다. 그런 다음 모델의 동작은 (주제, 관계 및 답변) 트리플 샘플이 포함된 CounterFact 데이터 세트에서 평가되며 각 질문에 대해 3개의 패러프레이징 프롬프트가 제공됩니다.
첫 번째는 CounterFact 데이터 세트에 대한 GPT-J 모델 분석입니다. 아래 그림 2는 Transformer 아키텍처의 각 행렬에 서로 다른 양의 순위 감소를 적용한 결과 데이터세트의 분류 손실에 미치는 영향을 보여줍니다. 각 Transformer 계층은 2계층 소형 MLP로 구성되며 입력 및 출력 행렬이 별도로 표시됩니다. 다양한 색상은 제거된 구성요소의 다양한 비율을 나타냅니다.
해석의 정확성과 견고성 향상과 관련하여 위 그림 2와 아래 표 1에서 볼 수 있듯이 연구원들은 단일 레이어에서 순위 감소를 수행할 때 GPT-J 모델이 다음 레이어에서 잘 수행된다는 사실을 발견했습니다. CounterFact 데이터 세트 정확도가 13.1%에서 24.0%로 증가했습니다. 이러한 개선은 순위 감소의 결과일 뿐이며 모델의 추가 교육이나 미세 조정이 포함되지 않는다는 점에 유의하는 것이 중요합니다.
순위 감소를 통해 데이터 세트에서 어떤 사실이 복원될지 연구자들의 관심사가 되었습니다. 연구진은 그림 3
에서 볼 수 있듯이 순위 감소를 통한 복구 사실이 데이터에 거의 나타나지 않는다는 사실을 발견했습니다. 고차 구성 요소는 무엇을 저장합니까? 연구자들은 최종 가중치 행렬을 근사화하기 위해 고차 성분을 사용합니다. LASER와는 달리 그림 5(a)와 같이 근사화를 위해 저차 성분을 사용하지 않습니다. 서로 다른 수의 고차 구성 요소를 사용하여 행렬을 근사할 때 그림 5(b)
와 같이 실제 답과 예측 답 사이의 평균 코사인 유사성을 측정했습니다. 마지막으로 연구자들은 연구 결과를 3가지 다른 일반화 가능성으로 평가했습니다. 다중 언어 이해 작업에 대한 LLM. 각 작업에 대해 정확도, 분류 정확도, 손실이라는 세 가지 측정항목을 생성하여 모델 성능을 평가했습니다. 위의 표 1에서 볼 수 있듯이 순위 감소가 크더라도 모델 정확도가 떨어지지는 않지만 모델 성능을 향상시킬 수 있습니다.
위 내용은 특정 계층의 구성 요소를 90% 이상 제거하지 않고 LLM을 유지하면서 성능을 향상시키기 위해 Transformer 순위를 줄입니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











역시 Tusheng 영상이지만 PaintsUndo는 다른 경로를 택했습니다. ControlNet 작성자 LvminZhang이 다시 살기 시작했습니다! 이번에는 회화 분야를 목표로 삼고 있습니다. 새로운 프로젝트인 PaintsUndo는 출시된 지 얼마 되지 않아 1.4kstar(여전히 상승세)를 받았습니다. 프로젝트 주소: https://github.com/lllyasviel/Paints-UNDO 이 프로젝트를 통해 사용자는 정적 이미지를 입력하고 PaintsUndo는 자동으로 라인 초안부터 완성품 따라가기까지 전체 페인팅 과정의 비디오를 생성하도록 도와줍니다. . 그리는 과정에서 선의 변화가 놀랍습니다. 최종 영상 결과는 원본 이미지와 매우 유사합니다. 완성된 그림을 살펴보겠습니다.

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 이 논문의 저자는 모두 일리노이 대학교 Urbana-Champaign(UIUC)의 Zhang Lingming 교사 팀 출신입니다. Steven Code Repair, 박사 4년차, 연구원

AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 인공 지능 개발 과정에서 LLM(대형 언어 모델)의 제어 및 안내는 항상 핵심 과제 중 하나였으며 이러한 모델이 두 가지 모두를 보장하는 것을 목표로 했습니다. 강력하고 안전하게 인간 사회에 봉사합니다. 인간 피드백(RL)을 통한 강화 학습 방법에 초점을 맞춘 초기 노력

건배! 종이 토론이 말로만 진행된다면 어떤가요? 최근 스탠포드 대학교 학생들은 arXiv 논문에 대한 질문과 의견을 직접 게시할 수 있는 arXiv 논문에 대한 공개 토론 포럼인 alphaXiv를 만들었습니다. 웹사이트 링크: https://alphaxiv.org/ 실제로 이 웹사이트를 특별히 방문할 필요는 없습니다. URL에서 arXiv를 alphaXiv로 변경하면 alphaXiv 포럼에서 해당 논문을 바로 열 수 있습니다. 논문, 문장: 오른쪽 토론 영역에서 사용자는 저자에게 논문의 아이디어와 세부 사항에 대해 질문하는 질문을 게시할 수 있습니다. 예를 들어 다음과 같이 논문 내용에 대해 의견을 제시할 수도 있습니다.

최근 새천년 7대 과제 중 하나로 알려진 리만 가설이 새로운 돌파구를 마련했다. 리만 가설은 소수 분포의 정확한 특성과 관련된 수학에서 매우 중요한 미해결 문제입니다(소수는 1과 자기 자신으로만 나눌 수 있는 숫자이며 정수 이론에서 근본적인 역할을 합니다). 오늘날의 수학 문헌에는 리만 가설(또는 일반화된 형식)의 확립에 기초한 수학적 명제가 천 개가 넘습니다. 즉, 리만 가설과 그 일반화된 형식이 입증되면 천 개가 넘는 명제가 정리로 확립되어 수학 분야에 지대한 영향을 미칠 것이며, 리만 가설이 틀린 것으로 입증된다면, 이러한 제안의 일부도 그 효과를 잃을 것입니다. MIT 수학 교수 Larry Guth와 Oxford University의 새로운 돌파구

LLM에 인과관계 사슬을 보여주면 공리를 학습합니다. AI는 이미 수학자 및 과학자의 연구 수행을 돕고 있습니다. 예를 들어, 유명한 수학자 Terence Tao는 GPT와 같은 AI 도구의 도움을 받아 자신의 연구 및 탐색 경험을 반복적으로 공유했습니다. AI가 이러한 분야에서 경쟁하려면 강력하고 신뢰할 수 있는 인과관계 추론 능력이 필수적입니다. 본 논문에서 소개할 연구에서는 작은 그래프의 인과 전이성 공리 시연을 위해 훈련된 Transformer 모델이 큰 그래프의 전이 공리로 일반화될 수 있음을 발견했습니다. 즉, Transformer가 단순한 인과 추론을 수행하는 방법을 학습하면 보다 복잡한 인과 추론에 사용될 수 있습니다. 팀이 제안하는 공리적 훈련 프레임워크는 시연만으로 패시브 데이터를 기반으로 인과 추론을 학습하는 새로운 패러다임입니다.

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 서문 최근 몇 년 동안 다양한 분야에서 MLLM(Multimodal Large Language Model)의 적용이 눈에 띄는 성공을 거두었습니다. 그러나 많은 다운스트림 작업의 기본 모델로서 현재 MLLM은 잘 알려진 Transformer 네트워크로 구성됩니다.
