200개 이상의 관련 연구를 집대성한 대형 모델 '평생 학습'의 최신 리뷰는 여기

WBOY
풀어 주다: 2024-09-02 15:24:03
원래의
175명이 탐색했습니다.
整合 200 多项相关研究,大模型「终生学习」最新综述来了

AIxiv 칼럼은 본 사이트에 학술적, 기술적인 내용을 게재하는 칼럼입니다. 지난 몇 년 동안 이 사이트의 AIxiv 칼럼에는 전 세계 주요 대학 및 기업의 최고 연구실을 대상으로 한 2,000개 이상의 보고서가 접수되어 학술 교류 및 보급을 효과적으로 촉진하고 있습니다. 공유하고 싶은 훌륭한 작품이 있다면 자유롭게 기여하거나 보고를 위해 연락주시기 바랍니다. 제출 이메일: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

이 논문의 저자는 모두 중국 남중국 공과 대학의 Ma Qianli 교수 팀 출신입니다. 그들의 연구실은 Machine Learning과 Data Dig 연구실입니다. 논문의 공동 1저자는 박사과정 학생 Zheng Junhao, 석사과정 학생 Qiu Shengjie, 석사과정 학생 Shi Chengming입니다. 이들의 주요 연구 방향은 대형 모델과 평생 학습을 포함합니다. 교신 저자는 Ma Qianli 교수(IEEE/ ACM TASLP). 최근 Ma Qianli 교수 팀은 권위 있는 국제 저널(예: TPAMI 등)과 최고의 국제 학술 컨퍼런스(예: NeurIPS, AAAI, IJCAI, ACL, KDD, ICDE 등) 국내외 유명 대학 및 과학 연구 기관과 광범위한 협력.

대규모 언어 모델의 적용이 다양한 분야로 계속 확장됨에 따라 이러한 모델이 데이터, 작업 및 사용자 선호도의 변화에 ​​지속적으로 적응할 수 있도록 하는 방법은 다음과 같습니다. 주요 이슈가 되었습니다. 기존의 정적 데이터 세트 훈련 방법은 더 이상 현실 세계의 동적 요구 사항을 충족할 수 없습니다.

이러한 과제를 해결하기 위해 평생학습, 즉 지속학습 기술이 탄생했습니다. 이를 통해 대규모 언어 모델은 작업 기간 동안 지속적으로 학습하고 적응할 수 있으며, 이전에 학습한 정보를 유지하는 동시에 새로운 지식을 통합하고 치명적인 망각(Catastrophic Forgetting)을 방지할 수 있습니다.

최근 남중국공과대학 연구진은 평생학습 방법과 그 발전 전망인 대형 언어 모델(LLM)을 조사, 정리, 요약하여 다음과 같이 정리했습니다. 포괄적이고 최첨단의 검토.

整合 200 多项相关研究,大模型「终生学习」最新综述来了

  • 논문 제목: 대형 언어 모델의 평생 학습을 향하여: 설문조사
  • 기관: 중국 남부 공과대학 대학
  • 논문 주소: https://arxiv.org/abs/2406.06391
  • 프로젝트 주소: https://github .com/ qianlima-lab/awesome-lifelong-learning-methods-for-llm

그림 1은 평생 학습의 큰 언어 적용을 보여줍니다. 모델은 인간의 학습 과정과 유사합니다. 그림은 두 가지 병렬 학습 경로를 통해 평생 학습에서 인간과 대규모 언어 모델의 진화를 보여줍니다.

整合 200 多项相关研究,大模型「终生学习」最新综述来了

인간의 학습

1. 걷기: 인간은 걷기와 같은 가장 기본적인 기술부터 학습을 시작합니다.
2. 자전거 타기: 학습이 진행됨에 따라 인간은 자전거 타기와 같은 더 복잡한 기술을 습득합니다.
3. 자동차 운전: 결국 인간은 운전과 같은 더 복잡하고 고급 기술을 익힐 수 있습니다.

각 단계는 인간이 평생 학습 과정에서 새로운 기술과 지식을 계속해서 습득하는 과정을 나타냅니다.

대규모 언어모델 학습(LLMs Learning)

1. 새로운 언어(New 언어): 대규모 언어 모델은 새로운 언어 학습(예: 다양한 자연어 처리 방법 학습)으로 시작됩니다.
2. 새로운 도메인: 다음으로 모델은 새로운 도메인 지식(예: 자연어 처리에서 의료 분야로 확장)을 학습합니다.
3. 새로운 정보: 궁극적으로 모델은 언어이든 도메인이든 새로운 정보를 학습하고 통합할 수 있습니다.

각 단계는 평생 학습 과정에서 지식을 지속적으로 확장하고 업데이트하는 대규모 언어 모델의 프로세스를 나타냅니다. 이 다이어그램은 평생 학습 과정을 강조합니다. 평생 학습은 기초부터 고급까지 단계별로 발전하는 지속적인 과정입니다. 평생학습은 단순한 지식의 축적이 아니라 역동적이고 진화하는 과정입니다.

최근에는 평생학습이 점점 더 주목받는 연구 주제가 되었고, 신경망 평생학습에 대한 대규모 조사가 등장했습니다. 대부분의 기존 연구는 주로 CNN(Convolutional Neural Network)의 평생 학습과 그래프 신경망(Graph Neural Network)의 평생 학습의 다양한 응용 시나리오에 중점을 두고 있습니다. 그러나 언어 모델의 평생 학습에 초점을 맞춘 문헌은 소수에 불과합니다. 최근 일부 리뷰에서는 평생 학습에 관한 최신 문헌을 수집했지만, 그 중 연속 텍스트 분류, 연속 명명 엔터티 인식, 연속 관계 추출 및 연속 기계 번역과 같은 시나리오를 다루지 않았습니다. 검색 기반 평생 학습에 대한 논의도 거의 없습니다. .

이번 리뷰는 12가지 시나리오에서 시작하는 대규모 언어 모델의 평생 학습 방법에 대한 최초의 종합적이고 체계적인 조사입니다.

전체적으로 리뷰의 주요 기여는 다음과 같습니다.

  • 소설 분류: 소개 평생 학습에 관한 광범위한 문헌을 12가지 시나리오로 나누는 상세한 구조적 프레임워크가 개발되었습니다.
  • 보편적 기법: 모든 평생 학습 상황에 대한 공통 기법이 식별되어 존재합니다. 각 시나리오의 기술 그룹
  • 향후 방향: LLM 이전 시대에는 덜 탐구되었던 모델 확장 및 데이터 선택과 같은 일부 새로운 기술에 중점을 둡니다.

1. 소개

본 리뷰는 체계적으로 요약되었습니다. 기존 평생학습 기술 방식은 그림 2와 같이 내부 지식과 외부 지식의 두 가지 범주로 구분된다.

整合 200 多项相关研究,大模型「终生学习」最新综述来了

  • 내부 지식은 지속적인 사전 훈련 및 지속적인 미세 조정을 포함한 전체 또는 부분 훈련을 통해 모델 매개변수에 새로운 지식을 흡수하는 것을 의미합니다.
  • 외부 지식이란 검색 기반 평생학습, 평생학습 도구 등 모델 매개변수를 업데이트하지 않고 위키피디아나 응용 프로그램 인터페이스 등 외부 리소스의 새로운 지식을 모델에 통합하는 것을 말합니다.

내부 지식

1. 🎜>

  • 지속적인 수직 도메인 사전 훈련: 특정 수직 분야(예: 금융, 의료 등)용.
  • 지속적 언어 영역 사전 학습: 자연어 및 코드 언어에 대한 지속적인 사전 학습입니다.
  • 지속적인 시간 영역 사전 학습: 시간 관련 데이터(예: 시계열 데이터)에 대한 지속적인 사전 학습입니다.

2. 지속적인 미세 조정:

  • 특정 작업:

  • 지속적인 텍스트 분류: 텍스트 분류 작업을 위한 지속적인 미세 조정입니다.
  • 지속적인 명명된 엔터티 인식: 명명된 엔터티 인식 작업을 위한 지속적인 미세 조정입니다.
  • 지속적 관계 추출: 관계 추출 작업을 위한 지속적인 미세 조정입니다.
  • 지속적인 기계 번역: 기계 번역 작업을 위한 지속적인 미세 조정입니다.

  • 작업 불가지론:

  • 지속적인 학습 조정: 모델의 지속적인 학습은 학습 미세 조정을 통해 이루어집니다.
  • 지속적인 지식 편집: 지식 업데이트를 위한 지속적인 학습입니다.
  • 지속적 정렬: 새로운 작업에 모델을 정렬하기 위한 지속적인 학습입니다.

외부지식(External Knowledge)

1. 검색 기반 평생 학습: 외부 지식 기반을 검색하여 달성되는 평생 학습입니다.

2. 도구 기반 평생 학습: 외부 도구를 호출하여 달성되는 평생 학습.

2. 평생학습 개요

2.1 문제 정의

평생학습의 목표는 일련의 과제를 통해 언어 모델을 학습하고 자연어를 입력하여 목표 출력을 생성하는 것입니다. 특히, 질문 및 답변과 같은 생성 작업의 경우 입력 및 출력은 각각 기계 번역 작업의 경우 질문과 답변을 나타내고, 입력 및 출력은 텍스트 분류 작업의 경우 소스 언어와 대상 언어를 나타냅니다. 출력은 카테고리 레이블입니다. 자동 회귀 언어 모델의 사전 학습 작업의 경우 입력은 일련의 토큰이고 출력은 해당하는 다음 토큰입니다.

2.2 평가 지표

개요에서는 평생 평가를 소개합니다. 학습 효과 지표는 주로 전반적인 성과, 안정성, 적응성의 세 가지 관점에서 평가됩니다.

  • 전체 측정: 평균 정확도(AA) 및 평균 포함 증분 정확도(AIA). AA는 모든 작업을 학습한 후 모델의 평균 성능을 의미하고, AIA는 각 작업을 학습한 후 과거 변화를 고려합니다.
  • 안정성 측정: FGT(망각 측정) 및 BWT(역방향 전송) 포함. FGT는 이전 작업의 평균 성능 저하를 평가하고, BWT는 이전 작업의 평균 성능 변화를 평가합니다.
  • 가소성 측정: 새로운 작업에 대한 모델 성능의 평균 향상인 순방향 전달(FWD)을 포함합니다.

2.3 일반 기술

그림 3 4의 요약 주요 평생 학습 방법은 연속 작업(Task
t-1 ~ Task t)을 처리할 때 대규모 언어 모델의 치명적인 망각 문제를 처리하는 것으로 입증되었습니다. 각 방법에 대한 설명은 다음과 같습니다.

整合 200 多项相关研究,大模型「终生学习」最新综述来了

(a) 재생 기반 방법:

  • 의미: 이 방법은 새 작업을 훈련할 때 사용됩니다. 이전 작업의 데이터를 재생하여 모델의 오래된 작업 기억. 일반적으로 재생된 데이터는 버퍼에 저장되어 현재 작업의 데이터와 함께 학습에 사용됩니다. 주로 다음을 포함합니다:

– 경험 재생: 이전 작업의 데이터 샘플 중 일부를 저장하고 새로운 작업 발생을 훈련할 때 이러한 데이터를 훈련에 재사용하여 망각을 줄입니다.

– 생성적 재생: 이전 데이터를 저장하는 것과 달리 이 방법은 생성 모델을 사용하여 의사 샘플을 생성함으로써 이전 작업에 대한 지식을 새 작업 학습에 도입합니다.

  • 그림 3은 Task t-1에서 Task t까지의 과정을 보여줍니다. , 버퍼에 있는 이전 데이터(입력 t-1 )가 사용됩니다.

(b) 정규화 기반 방법:

  • 의미: 이 방법은 모델 매개변수에 정규화 제약 조건을 적용하여 새 작업을 학습할 때 모델이 이전 작업 매개변수를 과도하게 조정하는 것을 방지합니다. 정규화 제약 조건은 모델이 이전 작업의 메모리를 유지하는 데 도움이 될 수 있습니다. 주로 다음을 포함합니다:
– 가중치 정규화: 모델 매개변수에 추가 제약을 적용하여 새로운 작업을 훈련할 때 중요한 가중치의 수정을 제한하여 이전 작업 지식의 무결성을 보호합니다. 예를 들어 L2 정규화 및 EWC(Elastic Weight Consolidation)는 일반적인 기술입니다.

– 특성 정규화: 정규화는 가중치에 작용할 뿐만 아니라 특성 공간에서 모델 성능을 제한하여 새 작업과 기존 작업 간의 특성 분포가 안정적으로 유지되도록 보장합니다.

  • 그림 3은 Task
    t-1에서 Task t까지의 과정을 보여줍니다. , Task t-1의 성능을 유지하기 위해 매개변수 정규화를 사용합니다.

(c) 아키텍처 기반 방법:

整合 200 多项相关研究,大模型「终生学习」最新综述来了

    의미: 이 접근 방식은 이전에 학습한 지식과의 간섭을 최소화하면서 새로운 작업을 원활하게 통합하기 위해 모델 구조를 조정하는 데 중점을 둡니다. 여기에는 주로 그림 4의 6가지 방법이 포함됩니다.
  • –(a) 프롬프트 조정: 모델 입력 앞에 "소프트 프롬프트"를 추가하여 모델 생성 또는 분류 작업을 안내합니다. 이 방법은 모델의 백본 구조를 변경하지 않고 소수의 매개변수(예: 프롬프트 단어)만 조정하면 됩니다.

–(b) 접두사 조정: 훈련된 조정 가능한 매개변수를 입력 시퀀스의 접두사 부분에 추가합니다. 이러한 매개변수는 모델이 상황별 정보를 더 잘 캡처하는 데 도움이 되도록 Transformer 레이어의 self-attention 메커니즘에 삽입됩니다.

–(c) Low-Rank Adaptation(LoRA, Low-Rank Adaptation): LoRA는 대형 모델의 주요 가중치를 변경하지 않고 특정 수준에 하위 행렬을 추가하여 새로운 작업에 적응합니다. 이 접근 방식은 모델 성능을 유지하면서 매개변수 조정 횟수를 크게 줄입니다.

–(d) 어댑터: 어댑터는 모델의 여러 레이어 사이에 삽입된 학습 가능한 모듈입니다. 이러한 모듈은 원래 모델 가중치를 변경하지 않고 소수의 추가 매개변수로 적응할 수 있습니다. 일반적으로 FFN(Feed Forward Network) 및 MHA(Multi-Head Attention) 부분에 적용됩니다.

–(e) 전문가 혼합: 모델의 특정 계층 또는 하위 네트워크일 수 있는 특정 "전문가" 모듈을 선택적으로 활성화하여 다양한 입력을 처리합니다. 라우터 모듈은 활성화해야 할 전문가 모듈을 결정하는 역할을 담당합니다.

–(f) 모델 확장: 원본 레이어(Old Layer)를 유지하면서 새 레이어(New Layer)를 추가하여 모델의 용량을 확장합니다. 이 접근 방식을 통해 모델은 보다 복잡한 작업 요구 사항을 수용할 수 있도록 용량을 점진적으로 늘릴 수 있습니다.

  • 그림: 그림 3은 Task t-1에서 Task t까지의 과정을 보여줍니다. 모델이 새로운 작업을 학습하면 일부 매개변수가 동결됩니다. 새로 추가된 모듈은 새로운 작업을 훈련하는 데 사용됩니다(Trainable).

(d) 증류 기반 방법:

  • 의미: 이 방법은 지식 증류를 통해 이전 모델의 지식을 새 모델로 전달합니다. 새 작업을 훈련할 때 새 모델은 현재 작업의 데이터를 학습할 뿐만 아니라 이전 작업에 대해 이전 모델의 출력을 모방하여 이전 작업에 대한 지식을 유지합니다. 주로 다음을 포함합니다:

– 새로운 데이터의 추출: 학생 모델은 교사 모델의 지도에 따라 새로운 작업을 학습하고 기존 데이터를 추출합니다. 오래된 지식의 망각을 줄이기 위해.

– 기존 데이터의 증류: 기존 데이터에 대한 교사 모델의 성능을 사용하여 학생 모델이 새로운 과제를 학습하도록 안내함으로써 기존 데이터를 유지하는 지식의 효과 .

–Pseudo-Old Data의 증류: Pseudo-Old Data(Pseudo-Old Data)를 생성하여 학생 모델이 새로운 과제를 학습할 수 있음 오래된 지식에 대한 기억 유지 .

  • 그림: 그림 3은 작업 t-1에서 작업 t으로의 전환을 보여줍니다. 프로세스에서 모델이 새로운 작업을 훈련할 때 이전 모델의 예측 결과를 모방하여 이전 작업에 대한 지식을 유지합니다.

3. 지속적인 사전 교육

지속적인 사전 교육 -훈련 포괄적인 사전 훈련에 드는 많은 비용을 들이지 않고 대규모 언어 모델의 내부 지식을 업데이트할 수 있으므로 대규모 언어 모델의 기능이 향상됩니다. 현재 연구는 수직적, 언어적, 시간적 영역을 포괄하여 치명적인 망각 및 시간적 적응과 같은 어려운 문제를 다루고 있습니다. 경험 재생, 지식 증류, 매개변수의 효율적인 미세 조정, 모델 확장 및 재가열과 같은 기술은 좋은 전망을 보여주었습니다.

3.1 연속 수직장 사전 훈련

연속 수직장 사전 훈련 -훈련(지속적 수직 도메인 사전 훈련)은 이전에 획득한 지식을 유지하면서 일련의 도메인별 데이터 세트에 대해 언어 모델을 지속적으로 훈련하여 모델이 여러 수직 분야 또는 작업에서 잘 수행되도록 하는 것을 목표로 합니다.

주요 방법:

1. 매개변수 효율적인 미세 조정:

  • 예: CorpusBrain++는 백본 어댑터 아키텍처와 경험 재생 전략을 사용하여 실제 지식 집약적인 언어 작업을 처리합니다.
  • 예: Med-PaLM은 소수의 예를 사용하여 의료 분야의 지시 프롬프트 튜닝을 도입합니다.

2. 모델 확장:

  • 예: ELLE 기존 사전 학습된 언어 모델의 폭과 깊이를 유연하게 확장하여 지식 획득 및 통합의 효율성을 높이기 위해 기능 보존 모델 확장 전략을 채택합니다.
  • 예: LLaMA Pro는 Transformer 블록을 확장하고 새로운 코퍼스로 미세 조정하여 일반 사용, 프로그래밍 및 수학 작업에 탁월합니다.

3. 다시 데우기:

  • 예: Gupta et al.이 제안한 전략은 새로운 데이터 세트를 도입할 때 학습률을 조정하여 장기 훈련 중에 학습률이 너무 낮아지는 것을 방지함으로써 새로운 데이터 세트에 대한 적응 효과를 향상시킵니다.

4. 데이터 선택:

  • 예: RHO -1은 훈련 프로세스에 더 큰 영향을 미치는 토큰의 우선순위를 지정하는 SLM(선택적 언어 모델)로 훈련됩니다.
  • 예: EcomGPT-CT는 반구조화된 전자상거래 데이터를 사용하여 도메인별 작업에 대한 모델 성능을 향상합니다.

3.2 연속 언어 영역 사전 훈련

지속적인 언어 도메인 사전 훈련(Continual Language Domain Pretraining)은 언어 모델이 이전 지식을 잊지 않으면서 새로운 데이터를 지속적으로 통합하고 변화하는 언어 도메인에 적응할 수 있도록 하는 것을 목표로 합니다.

주요 방법:

1. 아키텍처 기반 방법:

  • 예: Yadav 등은 교사 강제 메커니즘을 도입하여 새로운 작업에 대한 모델의 미세 조정을 안내하는 프롬프트 세트를 생성하여 프롬프트 조정을 개선합니다.
  • 예: ModuleFormer와 Lifelong-MoE는 전문가 혼합(MoE) 접근 방식을 사용하여 모듈화 및 동적으로 모델 용량 증가를 통해 LLM의 효율성과 적응성을 향상합니다.

2. 다시 데우기:

  • 예: Ibrahim et al.이 제안한 재가열 방법은 새로운 데이터를 훈련할 때 학습 속도를 일시적으로 높여 모델이 새로운 언어에 더 빠르게 적응하도록 돕습니다.

3.3 연속 시간 영역 사전 훈련

지속 시간 지속적인 시간 영역 사전 훈련에는 시간에 민감한 데이터에 대한 정확성과 관련성을 유지하기 위해 언어 모델을 지속적으로 업데이트하는 작업이 포함됩니다.

주요 과제:

1. 성능 저하: Lazaridou et al. 미래 데이터에 대한 모델 성능이 크게 저하되어 시간적 일반화에서 LLM의 어려움이 강조됩니다.
2. 제한된 개선: Röttger et al.은 시간적 적응이 마스크 언어 모델 작업에서 약간의 개선을 보였지만 순수 도메인 적응에 비해 다운스트림 작업 성능의 개선은 크지 않다는 것을 발견했습니다.

이러한 방법과 연구를 통해 저자는 다양한 차원에서 지속적인 사전 훈련의 방법과 과제를 보여주고 수직 영역, 언어 영역 및 시간 영역에서의 적용을 강조합니다. 평생학습의 필요성과 효과.

4. 지속적인 미세 조정

지속적인 사전 교육을 통해 내부 역량을 강화할 수 있습니다. 대규모 언어 모델의 지식을 바탕으로 지속적인 미세 조정을 통해 대규모 언어 모델의 내부 지식을 향상시키고 텍스트 분류, 명명된 엔터티 인식, 관계 추출, 기계 번역 또는 일반 생성 작업과 같은 특정 작업에 대규모 언어 모델을 적용합니다. 지시 조정, 지식 편집 및 인간 선호도에 맞춰 정렬 등. 치명적인 망각 및 작업 간섭과 같은 문제를 해결하기 위해 증류, 재생, 정규화, 아키텍처 기반 및 그래디언트 기반 방법과 같은 기술이 사용됩니다. 저자는 그림 5에서 7개의 연속적인 미세 조정 시나리오를 보여줍니다.

整合 200 多项相关研究,大模型「终生学习」最新综述来了

이 다이어그램은 지속적인 학습을 통해 대규모 언어 모델에서 7가지 유형의 작업이 어떻게 구현되는지 보여줍니다. 각 부분에 대한 자세한 설명은 다음과 같습니다.

(a) 연속 텍스트 분류

  • 예: 지속적인 텍스트 분류 작업은 변화하는 분류 요구 사항에 적응할 수 있도록 새로운 분류 범주(예: 의도: 전송 -> 의도: 신용 점수 -> 의도: 재미있는 사실)를 점진적으로 도입하여 모델을 교육합니다.

(b) 연속 명명된 엔터티 인식

  • 예 : 지속적인 명명된 엔터티 인식 작업은 특정 엔터티를 인식하면서 새로운 엔터티 유형(예: 운동선수 -> 스포츠팀 -> 정치인)을 점진적으로 도입하는 방법을 보여 주므로 모델은 새로운 엔터티 능력을 인식하면서 이전 엔터티에 대한 인식을 계속 유지할 수 있습니다. .

(c) 연속 관계 추출

  • 예: 지속적인 관계 추출 작업은 새로운 관계 유형(예: 관계: 설립자 -> 관계: 출생지 또는 도 -> 관계: 본사 국가)을 지속적으로 도입하여 모델이 관계 추출 기능을 점진적으로 확장하는 방법을 보여줍니다.

(d) 지속적인 지식 편집

  • 예: 지속적인 지식 편집 작업을 통해 모델의 지식 기반(예: 미국 대통령은 누구입니까? -> 크리스티아누 호날두가 현재 어느 클럽에서 뛰고 있습니까? -> 지난 겨울은 어디였습니까?)을 지속적으로 업데이트하여 최신 사실에 정확하게 답할 수 있습니다. 올림픽 개최?).

(e) 연속 기계 번역

  • 예: 지속적인 기계 번역 작업은 모델의 번역 기능을 다양한 언어(예: 영어 -> 중국어, 영어 -> 스페인어, 영어 -> 프랑스어)로 점진적으로 확장하여 다국어 환경에서 모델의 적응성을 보여줍니다.

(f) 지속적인 지시 미세 조정

  • 예: 지속적인 지침 미세 조정 작업은 새로운 지침 유형(예: 요약 -> 스타일 전송 -> 수학)을 점진적으로 도입하여 여러 작업 유형에서 모델의 성능 능력을 훈련합니다.

(g) 연속 정렬

  • 예: 연속 정렬 작업은 새로운 정렬 목표(예: 유용하고 무해함 -> 간결하고 조직적 -> 긍정적인 감정)를 도입하여 다양한 도덕적 및 행동 표준 하에서 모델의 지속적인 학습 기능을 보여줍니다.

5. 외부 지식

지속적인 사전 교육 LLM의 평생 학습에는 지속적인 미세 조정이 중요합니다. 그러나 LLM이 더 커지고 강력해짐에 따라 새로운 외부 지식을 수정하지 않고 수행할 수 있는 두 가지 새로운 방향이 점점 더 대중화되고 있습니다. 대규모 언어 모델. 저자는 검색 기반 평생 학습과 도구 기반 평생 학습을 고려합니다. 두 접근 방식 모두 LLM에서 평생 학습을 달성하는 유망한 방법이기 때문입니다. 그림 6에서는 두 가지 접근 방식을 모두 보여줍니다.

整合 200 多项相关研究,大模型「终生学习」最新综述来了

検索ベースの生涯学習

  • はじめに: 世界中の情報が増え続ける中、スケールアップと進化過去のデータに基づいてトレーニングされた静的モデルはすぐに古くなり、新しい開発に関するコンテンツを理解したり生成したりできなくなります。検索ベースの生涯学習は、大規模な言語モデルが外部ソースから最新の知識を取得して吸収するという重要なニーズに対応し、モデルは必要に応じてこれらの外部リソースを取得することで知識ベースを補完または更新します。これらの外部リソースは、現在の大規模な知識ベースを提供し、事前トレーニングされた LLM の静的特性を強化するための重要な補完的な資産を提供します。
  • 例: 図内のこれらの外部リソースは、モデルからアクセスおよび取得できます。ウィキペディア、書籍、データベースなどの外部情報ソースにアクセスすることで、モデルは知識を更新し、新しい情報に遭遇したときに適応することができます。

ツールベースの生涯学習

  • はじめに: ツールベースの生涯学習は、その機能を静的な知識を超えて拡張し、環境と動的に対話できるようにする必要性から生まれました。実際のアプリケーションでは、モデルは多くの場合、直接的なテキストの生成や解釈を超える操作を含むタスクを実行する必要があります。
  • 例: 図のモデルは、これらのツールを使用して自身の機能を拡張および更新し、外部ツールとの対話を通じて生涯学習を可能にします。たとえば、モデルはアプリケーション プログラミング インターフェイスを通じてリアルタイム データを取得したり、物理ツールを通じて外部環境と対話して特定のタスクを完了したり、新しい知識を取得したりできます。

6. 議論と結論

6.1 主な課題

  • 壊滅的な忘却: これは生涯学習の中核的な課題の 1 つであり、新しい情報の導入により上書きされる可能性があります。モデルが以前に学習したこと。
  • 可塑性と安定性のジレンマ: モデルの学習能力と安定性の維持の間のバランスを見つけることが非常に重要であり、これはモデルが新しい知識を保持しながら新しい知識を獲得する能力に直接影響します。幅広い一般的な能力。
  • 高額な計算コスト: 大規模な言語モデルを完全に微調整するための計算要件は非常に高くなる可能性があります。
  • モデルの重みや事前トレーニングされたデータが利用できない: プライバシー、独自の制限、または商用ライセンスのため、生のトレーニング データやモデルの重みは、さらなる改善のために利用できないことがよくあります。

6.2 現在の傾向

  • 特定のタスクから一般的なタスクへ: 研究は、特定のタスク (テキスト分類、固有表現認識など) から、命令調整、知識編集などのより広範囲の一般的なタスクに徐々に移行していきます。
  • 完全な微調整から部分的な微調整へ: 完全な微調整、部分的な微調整戦略 (アダプター層、プロンプト チューニング、 LoRA) の人気はますます高まっています。
  • 内部知識から外部知識へ: 頻繁な内部更新の制限を克服するために、検索拡張生成やツールなどの外部知識ソースを使用する戦略が増えています。学習によりモデルが可能になります。現在の外部データに動的にアクセスして活用します。

6.3 今後の方向性

  • マルチモーダル生涯学習: テキストを超えた複数のモダリティ (画像、ビデオ、オーディオ、時系列データ、ナレッジ グラフなど) を生涯学習に統合し、より包括的で適応性のある性モデルを開発します。
  • 効率的な生涯学習: 研究者たちは、モデルの枝刈り、モデルの結合、モデルの拡張、その他の方法など、モデルのトレーニングと更新の計算要件を管理するためのより効率的な戦略の開発に取り組んでいます。
  • 普遍的な生涯学習: 最終的な目標は、大規模な言語モデルが、静的なデータセットのみに依存することなく、新しい知識を積極的に獲得し、環境との動的な相互作用を通じて学習できるようにすることです。

6.4 結論

著者は既存の研究を分割するinto それは、12 の生涯学習シナリオの包括的な概要を提供します。この分析はまた、壊滅的な忘却の管理、計算効率の確保、知識獲得における特異性と一般性の間のバランスを維持する必要性を強調しています。この分野が進化し続けるにつれて、これらの高度な戦略の統合は、次世代の人工知能システムを形成する上で重要な役割を果たし、真に人間のような学習と適応能力の実現に近づくのに役立ちます。

これらの技術的アプローチとそれぞれのカテゴリの詳細な研究を通じて、このレビューは、生涯学習ツールへの生涯学習機能の統合を強調し、それによって現実世界を強化することを目的としています。アプリケーションの適応性、信頼性、全体的なパフォーマンス。同時に、研究者やエンジニアに、生涯学習テクノロジーをより深く理解して適用し、大規模な言語モデルのさらなる開発を促進するための包括的な視点を提供します。記事に興味があれば、元の論文をチェックして研究の詳細を学ぶことができます。

위 내용은 200개 이상의 관련 연구를 집대성한 대형 모델 '평생 학습'의 최신 리뷰는 여기의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:jiqizhixin.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿
회사 소개 부인 성명 Sitemap
PHP 중국어 웹사이트:공공복지 온라인 PHP 교육,PHP 학습자의 빠른 성장을 도와주세요!