기술 주변기기 일체 포함 ICML 2024 | LoRA 아키텍처에서 벗어나 학습 매개변수가 크게 줄어들고 새로운 유형의 푸리에 미세 조정이 등장합니다.

ICML 2024 | LoRA 아키텍처에서 벗어나 학습 매개변수가 크게 줄어들고 새로운 유형의 푸리에 미세 조정이 등장합니다.

Jun 10, 2024 pm 05:58 PM
프로젝트

ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了
AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

이 기사는 Hong Kong University of Science and Technology(Guangzhou)에서 Large Model Efficient Fine-tuning(LLM PEFT)에 관한 기사를 소개합니다. 미세 조정) 기사 "이산 푸리에 변환을 사용한 매개변수 효율적인 미세 조정", 이 기사는 ICML 2024에서 승인되었으며 코드는 오픈 소스입니다.

ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了

  • 논문 주소: https://arxiv.org/abs/2405.03003
  • 프로젝트 주소: https://github.com/Chaos96/fourierft

배경

대형 기본 모델은 자연어 처리(NLP) 및 컴퓨터 비전(CV) 분야에서 놀라운 성과를 거두었습니다. 특수한 다운스트림 작업에 더 적합하도록 대규모 기본 모델을 미세 조정하는 것이 인기 있는 연구 주제가 되었습니다. 그러나 모델이 점점 더 커지고 다운스트림 작업이 점점 더 다양해짐에 따라 전체 모델을 미세 조정하는 데 따른 컴퓨팅 및 스토리지 소비는 더 이상 허용되지 않습니다. LoRA는 하위 피팅 미세 조정 증분 방식을 채택하여 이러한 소모량을 크게 줄이는 데 성공했지만 각 어댑터(어댑터)의 크기는 여전히 무시할 수 없는 수준입니다. 이는 이 기사의 핵심 질문인 LoRA에 비해 훈련 가능한 매개변수를 더욱 크게 줄이는 방법에 대한 동기를 부여합니다. 또한 흥미로운 추가 질문은 더 적은 수의 매개변수로 상위 증분 행렬 을 얻을 수 있는지 여부입니다.

method

푸리에 기반은 1차원 벡터 신호 및 2차원 이미지의 압축과 같은 다양한 데이터 압축 응용 분야에 널리 사용됩니다. 이러한 응용 분야에서는 밀도가 높은 공간 영역 신호가 푸리에 변환을 통해 희박한 주파수 영역 신호로 변환됩니다. 저자는 이러한 원리를 바탕으로 모델 가중치의 증가도 공간 영역 신호로 간주할 수 있으며 이에 대응하는 주파수 영역 신호는 희소 표현을 통해 실현될 수 있다고 추측합니다.

이 가정을 기반으로 저자는 주파수 영역에서 증분 가중치 신호를 학습하는 새로운 방법을 제안합니다. 구체적으로, 이 방법은 임의의 위치에서 희박한 주파수 영역 신호를 통해 공간 영역 가중치 증가를 나타냅니다. 사전 훈련된 모델을 로드할 때 먼저 n개의 점을 유효한 주파수 영역 신호로 무작위로 선택한 다음 이 신호를 1차원 벡터로 접합합니다. 순방향 전파 과정에서 이 1차원 벡터는 푸리에 변환을 통해 공간 행렬을 복원하는 데 사용됩니다. 역전파 과정에서는 푸리에 변환의 미분성으로 인해 이 학습 가능한 벡터를 직접 업데이트할 수 있습니다. 이 방법은 모델 미세 조정에 필요한 매개변수 수를 효과적으로 줄일 뿐만 아니라 미세 조정 성능도 보장합니다. 이러한 방식으로 저자는 대규모 기본 모델의 효율적인 미세 조정을 달성할 뿐만 아니라 기계 학습 분야에서 푸리에 변환의 잠재적 응용 가치를 보여줍니다.

ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了

푸리에 변환 기반의 높은 정보 콘텐츠 덕분에 LoRA와 비슷하거나 심지어 이를 초과하는 성능을 달성하려면 작은 n 값만 필요합니다. 일반적으로 푸리에 미세 조정의 훈련 가능한 매개변수는 LoRA의 1/1000에서 1/10에 불과합니다.

Experiments

1. 자연어 이해

저자는 자연어 이해를 위한 GLUE 벤치마크에서 푸리에 미세 조정 방법을 평가했습니다. 기준 비교 방법에는 FF(Full Finetuning), Bitfit, Adapter Tuning, LoRA, DyLoRA 및 AdaLoRA가 포함됩니다. 다음 표는 다양한 GLUE 작업에 대한 다양한 방법의 성능과 필요한 훈련 매개변수의 양을 보여줍니다. 결과는 푸리에 미세 조정이 가장 적은 수의 매개변수를 사용하는 다른 미세 조정 방법의 성능에 도달하거나 심지어 초과한다는 것을 보여줍니다.

ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了

2. 자연어 교수 미세 조정

대형 모델의 자연어 생성은 현재 모델 미세 조정의 중요한 응용 분야입니다. 저자는 LLaMA 모델 계열, MT-Bench 작업 및 Vicuna 작업에 대한 푸리에 미세 조정 성능을 평가합니다. 결과는 푸리에 미세 조정이 매우 적은 양의 훈련 매개변수로 LoRA와 유사한 효과를 달성한다는 것을 보여주며, 푸리에 미세 조정 방법의 다양성과 효율성을 추가로 검증합니다.

ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了

3. 이미지 분류

저자는 8가지 일반적인 이미지 분류 데이터 세트를 대상으로 Vision Transformer에서 푸리에 미세 조정 성능을 테스트했습니다. 실험 결과, 이미지 분류 작업에서 푸리에 미세 조정의 압축률 향상은 LoRA에 비해 자연어 작업에 비해 크게 크지는 않지만 LoRA에 비해 훨씬 적은 수의 매개변수로 LoRA의 효과를 능가하는 것으로 나타났습니다. 이는 다양한 응용 분야에서 푸리에 트리밍의 효과와 장점을 더욱 입증합니다.

ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了

4. 낮은 순위 돌파

GLUE 벤치마크의 RTE 데이터세트에서 FourierFT는 LoRA(일반적으로 4 또는 8)보다 훨씬 높은 순위를 점진적으로 달성할 수 있습니다.

ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了

5. GPU 리소스 소비

FourierFT는 미세 조정 과정에서 LoRA보다 적은 GPU 소비를 달성할 수 있습니다. 아래 그림은 단일 4090 그래픽 카드를 사용하는 RoBERTa-Large 모델의 최대 메모리 소비량을 보여줍니다.

ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了

결론

저자는 대규모 기본 모델을 미세 조정할 때 훈련 가능한 매개변수 수를 줄이기 위해 푸리에 변환을 사용하는 푸리에 미세 조정이라는 효율적인 미세 조정 방법을 소개했습니다. 이 방법은 무게 변화를 나타내기 위해 소수의 푸리에 스펙트럼 계수를 학습함으로써 저장 및 컴퓨팅 요구 사항을 크게 줄입니다. 실험 결과 푸리에 미세 조정은 자연어 이해, 자연어 생성, 명령 조정, 이미지 분류 등의 작업에서 기존의 하위 적응 방법(예: LoRA)과 비교하여 우수한 성능을 유지하는 것으로 나타났습니다. 동시에 LoRA의 성능은 훈련 가능한 매개변수가 크게 감소합니다.

위 내용은 ICML 2024 | LoRA 아키텍처에서 벗어나 학습 매개변수가 크게 줄어들고 새로운 유형의 푸리에 미세 조정이 등장합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

<gum> : Bubble Gum Simulator Infinity- 로얄 키를 얻고 사용하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Nordhold : Fusion System, 설명
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora : 마녀 트리의 속삭임 - Grappling Hook 잠금 해제 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

ControlNet의 저자가 또 다른 히트를 쳤습니다! 이틀 만에 14,000개의 별을 획득하여 그림에서 그림을 생성하는 전체 과정 ControlNet의 저자가 또 다른 히트를 쳤습니다! 이틀 만에 14,000개의 별을 획득하여 그림에서 그림을 생성하는 전체 과정 Jul 17, 2024 am 01:56 AM

역시 Tusheng 영상이지만 PaintsUndo는 다른 경로를 택했습니다. ControlNet 작성자 LvminZhang이 다시 살기 시작했습니다! 이번에는 회화 분야를 목표로 삼고 있습니다. 새로운 프로젝트인 PaintsUndo는 출시된 지 얼마 되지 않아 1.4kstar(여전히 상승세)를 받았습니다. 프로젝트 주소: https://github.com/lllyasviel/Paints-UNDO 이 프로젝트를 통해 사용자는 정적 이미지를 입력하고 PaintsUndo는 자동으로 라인 초안부터 완성품 따라가기까지 전체 페인팅 과정의 비디오를 생성하도록 도와줍니다. . 그리는 과정에서 선의 변화가 놀랍습니다. 최종 영상 결과는 원본 이미지와 매우 유사합니다. 완성된 그림을 살펴보겠습니다.

오픈 소스 AI 소프트웨어 엔지니어 목록의 1위인 UIUC의 에이전트 없는 솔루션은 SWE 벤치의 실제 프로그래밍 문제를 쉽게 해결합니다. 오픈 소스 AI 소프트웨어 엔지니어 목록의 1위인 UIUC의 에이전트 없는 솔루션은 SWE 벤치의 실제 프로그래밍 문제를 쉽게 해결합니다. Jul 17, 2024 pm 10:02 PM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 이 논문의 저자는 모두 일리노이 대학교 Urbana-Champaign(UIUC)의 Zhang Lingming 교사 팀 출신입니다. Steven Code Repair, 박사 4년차, 연구원

RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다. RLHF에서 DPO, TDPO까지 대규모 모델 정렬 알고리즘은 이미 '토큰 수준'입니다. Jun 24, 2024 pm 03:04 PM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 인공 지능 개발 과정에서 LLM(대형 언어 모델)의 제어 및 안내는 항상 핵심 과제 중 하나였으며 이러한 모델이 두 가지 모두를 보장하는 것을 목표로 했습니다. 강력하고 안전하게 인간 사회에 봉사합니다. 인간 피드백(RL)을 통한 강화 학습 방법에 초점을 맞춘 초기 노력

arXiv 논문은 '연발'로 게시될 수 있습니다. Stanford alphaXiv 토론 플랫폼은 온라인이며 LeCun은 이를 좋아합니다. arXiv 논문은 '연발'로 게시될 수 있습니다. Stanford alphaXiv 토론 플랫폼은 온라인이며 LeCun은 이를 좋아합니다. Aug 01, 2024 pm 05:18 PM

건배! 종이 토론이 말로만 진행된다면 어떤가요? 최근 스탠포드 대학교 학생들은 arXiv 논문에 대한 질문과 의견을 직접 게시할 수 있는 arXiv 논문에 대한 공개 토론 포럼인 alphaXiv를 만들었습니다. 웹사이트 링크: https://alphaxiv.org/ 실제로 이 웹사이트를 특별히 방문할 필요는 없습니다. URL에서 arXiv를 alphaXiv로 변경하면 alphaXiv 포럼에서 해당 논문을 바로 열 수 있습니다. 논문, 문장: 오른쪽 토론 영역에서 사용자는 저자에게 논문의 아이디어와 세부 사항에 대해 질문하는 질문을 게시할 수 있습니다. 예를 들어 다음과 같이 논문 내용에 대해 의견을 제시할 수도 있습니다.

OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다. OpenAI Super Alignment Team의 사후 작업: 두 개의 대형 모델이 게임을 하고 출력이 더 이해하기 쉬워졌습니다. Jul 19, 2024 am 01:29 AM

AI 모델이 내놓은 답변이 전혀 이해하기 어렵다면 감히 사용해 보시겠습니까? 기계 학습 시스템이 더 중요한 영역에서 사용됨에 따라 우리가 그 결과를 신뢰할 수 있는 이유와 신뢰할 수 없는 경우를 보여주는 것이 점점 더 중요해지고 있습니다. 복잡한 시스템의 출력에 대한 신뢰를 얻는 한 가지 가능한 방법은 시스템이 인간이나 다른 신뢰할 수 있는 시스템이 읽을 수 있는 출력 해석을 생성하도록 요구하는 것입니다. 즉, 가능한 오류가 발생할 수 있는 지점까지 완전히 이해할 수 있습니다. 설립하다. 예를 들어, 사법 시스템에 대한 신뢰를 구축하기 위해 우리는 법원이 자신의 결정을 설명하고 뒷받침하는 명확하고 읽기 쉬운 서면 의견을 제공하도록 요구합니다. 대규모 언어 모델의 경우 유사한 접근 방식을 채택할 수도 있습니다. 그러나 이 접근 방식을 사용할 때는 언어 모델이 다음을 생성하는지 확인하세요.

리만 가설의 중요한 돌파구! 타오저쉬안(Tao Zhexuan)은 MIT와 옥스퍼드의 새로운 논문을 적극 추천했으며, 37세의 필즈상 수상자도 참여했다. 리만 가설의 중요한 돌파구! 타오저쉬안(Tao Zhexuan)은 MIT와 옥스퍼드의 새로운 논문을 적극 추천했으며, 37세의 필즈상 수상자도 참여했다. Aug 05, 2024 pm 03:32 PM

최근 새천년 7대 과제 중 하나로 알려진 리만 가설이 새로운 돌파구를 마련했다. 리만 가설은 소수 분포의 정확한 특성과 관련된 수학에서 매우 중요한 미해결 문제입니다(소수는 1과 자기 자신으로만 나눌 수 있는 숫자이며 정수 이론에서 근본적인 역할을 합니다). 오늘날의 수학 문헌에는 리만 가설(또는 일반화된 형식)의 확립에 기초한 수학적 명제가 천 개가 넘습니다. 즉, 리만 가설과 그 일반화된 형식이 입증되면 천 개가 넘는 명제가 정리로 확립되어 수학 분야에 지대한 영향을 미칠 것이며, 리만 가설이 틀린 것으로 입증된다면, 이러한 제안의 일부도 그 효과를 잃을 것입니다. MIT 수학 교수 Larry Guth와 Oxford University의 새로운 돌파구

LLM은 시계열 예측에 적합하지 않습니다. 추론 능력도 사용하지 않습니다. LLM은 시계열 예측에 적합하지 않습니다. 추론 능력도 사용하지 않습니다. Jul 15, 2024 pm 03:59 PM

시계열 예측에 언어 모델을 실제로 사용할 수 있나요? Betteridge의 헤드라인 법칙(물음표로 끝나는 모든 뉴스 헤드라인은 "아니오"로 대답할 수 있음)에 따르면 대답은 아니오여야 합니다. 사실은 사실인 것 같습니다. 이렇게 강력한 LLM은 시계열 데이터를 잘 처리할 수 없습니다. 시계열, 즉 시계열은 이름에서 알 수 있듯이 시간 순서대로 배열된 데이터 포인트 시퀀스 집합을 나타냅니다. 시계열 분석은 질병 확산 예측, 소매 분석, 의료, 금융 등 다양한 분야에서 중요합니다. 시계열 분석 분야에서는 최근 많은 연구자들이 LLM(Large Language Model)을 사용하여 시계열의 이상 현상을 분류, 예측 및 탐지하는 방법을 연구하고 있습니다. 이 논문에서는 텍스트의 순차적 종속성을 잘 처리하는 언어 모델이 시계열로도 일반화될 수 있다고 가정합니다.

최초의 Mamba 기반 MLLM이 출시되었습니다! 모델 가중치, 학습 코드 등은 모두 오픈 소스입니다. 최초의 Mamba 기반 MLLM이 출시되었습니다! 모델 가중치, 학습 코드 등은 모두 오픈 소스입니다. Jul 17, 2024 am 02:46 AM

AIxiv 칼럼은 본 사이트에서 학술 및 기술 콘텐츠를 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 서문 최근 몇 년 동안 다양한 분야에서 MLLM(Multimodal Large Language Model)의 적용이 눈에 띄는 성공을 거두었습니다. 그러나 많은 다운스트림 작업의 기본 모델로서 현재 MLLM은 잘 알려진 Transformer 네트워크로 구성됩니다.

See all articles