374개의 관련 연구를 요약한 Tao Dacheng 팀은 홍콩 대학교 및 UMD와 함께 LLM 지식 증류에 대한 최신 리뷰를 발표했습니다.
대형 언어 모델(LLM)은 지난 2년 동안 급속도로 발전했으며 GPT-4, Gemini, Claude 등과 같은 일부 경이로운 모델과 제품이 등장했지만 대부분은 비공개 소스입니다. 현재 연구 커뮤니티에서 액세스할 수 있는 대부분의 오픈 소스 LLM과 폐쇄 소스 LLM 사이에는 큰 격차가 있습니다. 따라서 오픈 소스 LLM 및 기타 소규모 모델과 폐쇄 소스 대규모 모델 간의 격차를 줄이기 위해 기능을 개선하는 것이 연구 핫스팟이 되었습니다. 이 분야에서.
LLM, 특히 비공개 소스 LLM의 강력한 기능을 통해 과학 연구자와 산업 실무자는 자신의 모델을 교육할 때 이러한 대규모 모델의 결과와 지식을 활용할 수 있습니다. 이 프로세스는 본질적으로 지식 증류(KD) 프로세스입니다. 즉, 교사 모델(예: GPT-4)에서 더 작은 모델(예: Llama)로 지식을 증류하여 작은 모델의 기능을 크게 향상시킵니다. 대규모 언어 모델의 지식 증류 기술은 어디에나 존재하며 연구자가 자신의 모델을 훈련하고 개선하는 데 도움을 주는 비용 효율적이고 효과적인 방법임을 알 수 있습니다.
그렇다면 현재 작업에서는 지식 추출 및 데이터 수집을 위해 폐쇄 소스 LLM을 어떻게 활용합니까? 이 지식을 작은 모델로 효율적으로 훈련시키는 방법은 무엇입니까? 작은 모델이 교사 모델로부터 어떤 강력한 기술을 습득할 수 있나요? LLM의 지식 증류는 도메인 특성을 지닌 업계에서 어떤 역할을 합니까? 이러한 문제는 심층적인 사고와 연구가 필요합니다.
2020년 Tao Dacheng 팀은 딥 러닝에서 지식 증류의 적용을 포괄적으로 탐구한 "Knowledge Distillation: A Survey"를 출판했습니다. 이 기술은 주로 모델 압축 및 가속에 사용됩니다. 대규모 언어 모델의 등장으로 지식 증류의 응용 분야가 지속적으로 확장되어 소규모 모델의 성능을 향상시킬 수 있을 뿐만 아니라 모델 자체 개선도 달성할 수 있습니다.
2024년 초 Tao Dacheng 팀은 홍콩 대학 및 메릴랜드 대학과 협력하여 374개의 관련 연구를 요약하고 지식을 얻는 방법을 논의한 최신 리뷰 "A Survey on Knowledge Distillation of Large Language Models"를 발표했습니다. 대규모 언어 모델 학습, 소규모 모델 학습, 모델 압축 및 자체 학습에서 지식 증류의 역할. 동시에 이 검토에서는 대규모 언어 모델 기술의 정제와 수직적 필드의 정제도 다루므로 연구자가 자신의 모델을 훈련하고 개선하는 방법을 완전히 이해할 수 있습니다.
논문 제목: A Survey on Knowledge Distillation of Large Language Models
논문 링크: https://arxiv.org/abs/2402.13116
프로젝트 링크: https://github. com/Tebmer/Awesome-Knowledge-Distillation-of-LLMs
개요 아키텍처
대규모 언어 모델 지식 증류의 전체 프레임워크는 아래 그림과 같이 요약됩니다.
첫 번째, 기반 대규모 언어 모델 지식 증류 과정에서 이 리뷰는 지식 증류를 두 단계로 분해합니다:
1. 지식 추출: 즉, 교사 모델에서 지식을 얻는 방법입니다. 프로세스에는 주로 다음이 포함됩니다.
a) 먼저 교사 모델에서 추출할 기술 또는 수직적 역량을 식별하기 위한 지침을 작성합니다. b) 그런 다음 시드 지식(예: 특정 데이터 세트)을 입력으로 사용하여 교사 모델을 구동하고 해당 응답을 생성하여 해당 지식을 안내합니다. c) 동시에 지식 획득에는 주석, 확장, 합성, 특징 추출, 피드백 및 자체 지식과 같은 몇 가지 특정 기술이 포함됩니다. 2.증류 알고리즘: 즉, 습득한 지식을 학생 모델에 주입하는 방법입니다. 이 부분의 특정 알고리즘에는 감독된 미세 조정, 발산 및 유사성, 강화 학습(AI 피드백을 통한 강화 학습, RLAIF) 및 순위 최적화가 포함됩니다.
본 리뷰의 분류 방법은 이 프로세스를 기반으로 관련 작업을 지식 증류 알고리즘, 기술 증류, 수직장 증류라는 세 가지 차원에서 요약합니다. 후자의 두 가지는 지식 증류 알고리즘을 기반으로 증류됩니다. 본 분류에 대한 세부 내용과 해당 관련 업무를 요약하면 아래 그림과 같다.지식 증류 알고리즘
Knowledge Elicitation
본 리뷰에서는 교사 모델로부터 지식을 획득하는 방식에 따라 기술을 라벨링, 확장, 데이터 합성(데이터 큐레이션), 특징 추출로 구분합니다. (Feature), 피드백(Feedback), 스스로 생성된 지식(Self-Knowledge)입니다. 각 방법의 예는 다음과 같습니다.라벨링: 지식 라벨링은 교사 LLM이 주어진 입력을 시드 지식으로 사용하여 지침이나 예를 기반으로 해당 출력을 생성한다는 것을 의미합니다. 예를 들어 시드 지식은 특정 데이터 세트의 입력이고 교사 모델은 사고 체인의 출력에 레이블을 지정합니다.
Expansion: 이 기술의 핵심 기능은 LLM의 상황별 학습 기능을 사용하여 제공된 시드 예제를 기반으로 예제와 유사한 데이터를 생성하는 것입니다. 예시를 통해 보다 다양하고 광범위한 데이터 세트를 생성할 수 있다는 장점이 있습니다. 그러나 생성되는 데이터가 계속해서 증가함에 따라 데이터 동질성 문제가 발생할 수 있습니다.
데이터 큐레이션: 데이터 합성의 특징은 데이터를 처음부터 합성한다는 것입니다. 교사 LLM으로부터 대규모의 고품질 데이터 세트를 얻기 위해 다량의 메타 정보(예: 주제, 지식 문서, 원본 데이터 등)를 다양하고 막대한 양의 시드 지식으로 사용합니다.
특성 획득(Feature): 특성 지식을 얻는 일반적인 방법은 입력 및 출력 시퀀스를 교사 LLM으로 출력한 다음 내부 표현을 추출하는 것입니다. 이 방법은 주로 오픈 소스 LLM에 적합하며 모델 압축에 자주 사용됩니다.
피드백: 피드백 지식은 일반적으로 학생들이 더 나은 결과물을 생성하도록 안내하기 위한 선호도, 평가 또는 수정 정보 제공과 같이 학생의 결과물에 대한 피드백을 교사 모델에 제공합니다.
Self-Knowledge: 지식은 학생 스스로도 얻을 수 있는데, 이를 자기 생성 지식이라고 합니다. 이 경우 동일한 모델은 교사와 학생 모두의 역할을 하며 기술을 정제하고 이전에 생성된 자체 출력을 개선하여 반복적으로 자체적으로 개선됩니다. 이 접근 방식은 오픈 소스 LLM에 적합합니다.
요약: 현재는 확장 방식이 여전히 널리 사용되고 있으며, 고품질의 데이터를 대량 생성할 수 있기 때문에 데이터 합성 방식이 점차 주류로 자리잡고 있습니다. 피드백 방법은 학생 모델의 정렬 기능을 향상시키는 데 도움이 되는 지식을 제공할 수 있습니다. 오픈소스 대형 모델을 교사 모델로 사용함으로써 특징 획득 및 자체 생성 지식 방법이 대중화되었습니다. 특징 획득 방법은 오픈 소스 모델을 압축하는 데 도움이 되는 반면, 자체 생성 지식 방법은 대규모 언어 모델을 지속적으로 개선할 수 있습니다. 중요한 것은 위의 방법을 효과적으로 결합할 수 있으며 연구자는 다양한 조합을 탐색하여 보다 효과적인 지식을 이끌어낼 수 있다는 것입니다.
알고리즘 추출
지식을 습득한 후에는 학생 모델로 추출해야 합니다. 증류 알고리즘에는 감독된 미세 조정, 발산 및 유사성, 강화 학습, 순위 최적화가 포함됩니다. 아래 그림에 예가 나와 있습니다.
감독 미세 조정: 감독 미세 조정(SFT)은 교사 모델에 의해 생성된 시퀀스의 가능성을 최대화하여 학생 모델을 미세 조정합니다. 교사 모델을 모방하는 모델입니다. 이는 현재 LLM의 지식 증류에 가장 일반적으로 사용되는 기술입니다.
발산 및 유사성: 이 알고리즘은 교사 모델의 내부 매개변수 지식을 학생 모델 훈련을 위한 감독 신호로 사용하며 오픈 소스 교사 모델에 적합합니다. 발산과 유사성을 기반으로 하는 방법은 확률 분포와 숨겨진 상태를 각각 정렬합니다.
강화 학습: 이 알고리즘은 교사 피드백 지식을 사용하여 학생 모델, 즉 RLAIF 기술을 훈련하는 데 적합합니다. 두 가지 주요 측면이 있습니다: (1) 교사가 생성한 피드백 데이터를 사용하여 학생 보상 모델을 훈련하는 것, (2) 훈련된 보상 모델을 통해 기대되는 보상을 최대화하여 학생 모델을 최적화하는 것입니다. 교사는 보상 모델로 직접 봉사할 수도 있습니다.
순위 최적화: 순위 최적화는 DPO, RRHF 등과 같은 일부 고전 알고리즘과 같이 안정성과 높은 계산 효율성을 장점으로 학생 모델에 주입할 수도 있습니다.
Skill Distillation
대형 언어 모델에는 뛰어난 기능이 많이 있다는 것은 잘 알려져 있습니다. 지식증류기술을 통해 교사가 해당 기술을 포함하는 지식을 생성하도록 통제하고, 학생 모델을 훈련하여 이러한 능력을 습득할 수 있도록 지도합니다. 이러한 기능에는 주로 다음 컨텍스트(예: 지침), 정렬, 에이전트, 자연어 처리(NLP) 작업 및 다중 양식과 같은 기능이 포함됩니다.
다음 표에는 스킬 증류의 고전 작업이 요약되어 있으며, 각 작업에 관련된 스킬, 시드 지식, 교사 모델, 학생 모델, 지식 획득 방법 및 증류 알고리즘도 요약되어 있습니다.
수직장 증류
일반 분야의 대규모 언어 모델 외에도 이제 수직 분야의 대규모 언어 모델을 훈련하려는 많은 노력이 있으며, 이는 대규모 언어 모델의 적용 및 배포에 있어 연구 커뮤니티와 업계에 도움이 됩니다. GPT-4와 같은 대규모 언어 모델은 수직 분야에 대한 도메인 지식이 제한되어 있지만 여전히 일부 도메인 지식과 기능을 제공하거나 기존 도메인 데이터 세트를 향상시킬 수 있습니다. 여기에 관련된 분야에는 주로 (1) 법률, (2) 의료 보건, (3) 금융, (4) 과학 및 기타 분야가 포함됩니다. 이 부분의 분류 및 관련 작업은 아래 그림에 나와 있습니다.
미래 방향
이 리뷰는 주로 다음을 포함하여 대규모 언어 모델의 지식 증류의 현재 문제와 잠재적인 미래 연구 방향을 탐구합니다.
데이터 선택: 더 나은 증류 결과를 얻기 위해 데이터를 자동으로 선택하는 방법은 무엇입니까?
다중 교사 증류: 다양한 교사 모델의 지식을 하나의 학생 모델로 증류해 보세요.
교사 모델의 풍부한 지식: 피드백, 특성 지식 등 교사 모델에서 더욱 풍부한 지식을 탐색하고, 다양한 지식 습득 방법의 조합을 탐색할 수 있습니다.
증류 중 치명적인 망각 극복 : 지식 증류 또는 이전 중에 원본 모델을 효과적으로 보존하는 능력은 여전히 어려운 문제로 남아 있습니다.
신뢰할 수 있는 지식 증류: 현재 KD는 주로 다양한 기술을 증류하는 데 중점을 두고 있으며 대형 모델의 신뢰성에는 상대적으로 덜 관심을 기울이고 있습니다.
약-강 증류(약-강 증류). OpenAI는 약한 모델이 강한 모델의 학습 프로세스를 효과적으로 안내할 수 있도록 혁신적인 기술 전략을 탐구해야 하는 "약한 일반화" 개념을 제안합니다.
자가 정렬(자기 증류). 학생 모델이 피드백, 비판 및 설명을 생성하여 생성된 콘텐츠를 자율적으로 개선하고 정렬하도록 지침을 설계할 수 있습니다.
결론
이 리뷰는 오픈 소스 대규모 언어 모델과 같은 학생 모델을 개선하기 위해 대규모 언어 모델에 대한 지식을 사용하는 방법에 대한 포괄적이고 체계적인 요약을 제공하며 최근 인기 있는 자체 증류 기술도 포함합니다. . 본 리뷰에서는 지식 증류를 지식 획득과 증류 알고리즘의 두 단계로 나누고, 기술 증류와 수직장 증류도 요약합니다. 마지막으로, 이 검토에서는 대규모 언어 모델의 지식 증류의 경계를 넓히고 더 접근하기 쉽고 효율적이며 효과적이며 신뢰할 수 있는 대규모 언어 모델을 얻기를 희망하면서 대규모 언어 모델 증류의 미래 방향을 탐색합니다.
위 내용은 374개의 관련 연구를 요약한 Tao Dacheng 팀은 홍콩 대학교 및 UMD와 함께 LLM 지식 증류에 대한 최신 리뷰를 발표했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











하지만 공원에 있는 노인을 이길 수는 없을까요? 파리올림픽이 본격화되면서 탁구가 많은 주목을 받고 있다. 동시에 로봇은 탁구 경기에서도 새로운 돌파구를 마련했습니다. 방금 DeepMind는 탁구 경기에서 인간 아마추어 선수 수준에 도달할 수 있는 최초의 학습 로봇 에이전트를 제안했습니다. 논문 주소: https://arxiv.org/pdf/2408.03906 DeepMind 로봇은 탁구를 얼마나 잘 치나요? 아마도 인간 아마추어 선수들과 동등할 것입니다: 포핸드와 백핸드 모두: 상대는 다양한 플레이 스타일을 사용하고 로봇도 견딜 수 있습니다: 다양한 스핀으로 서브를 받습니다. 그러나 게임의 강도는 그만큼 강렬하지 않은 것 같습니다. 공원에 있는 노인. 로봇용, 탁구용

8월 21일, 2024년 세계로봇대회가 베이징에서 성대하게 개최되었습니다. SenseTime의 홈 로봇 브랜드 "Yuanluobot SenseRobot"은 전체 제품군을 공개했으며, 최근에는 Yuanluobot AI 체스 두는 로봇인 체스 프로페셔널 에디션(이하 "Yuanluobot SenseRobot")을 출시하여 세계 최초의 A 체스 로봇이 되었습니다. 집. Yuanluobo의 세 번째 체스 게임 로봇 제품인 새로운 Guoxiang 로봇은 AI 및 엔지니어링 기계 분야에서 수많은 특별한 기술 업그레이드와 혁신을 거쳤으며 처음으로 3차원 체스 말을 집는 능력을 실현했습니다. 가정용 로봇의 기계 발톱을 통해 체스 게임, 모두 체스 게임, 기보 복습 등과 같은 인간-기계 기능을 수행합니다.

개학이 코앞으로 다가왔습니다. 새 학기를 앞둔 학생들뿐만 아니라 대형 AI 모델도 스스로 관리해야 합니다. 얼마 전 레딧에는 클로드가 게으르다고 불평하는 네티즌들이 붐볐습니다. "레벨이 많이 떨어졌고, 자주 멈췄고, 심지어 출력도 매우 짧아졌습니다. 출시 첫 주에는 4페이지 전체 문서를 한 번에 번역할 수 있었지만 지금은 반 페이지도 출력하지 못합니다. !" https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ "클로드에게 완전히 실망했습니다"라는 제목의 게시물에

베이징에서 열린 세계로봇컨퍼런스에서는 휴머노이드 로봇의 전시가 현장의 절대 화두가 됐다. 스타더스트 인텔리전트 부스에서는 AI 로봇 어시스턴트 S1이 덜시머, 무술, 서예 3대 퍼포먼스를 선보였다. 문학과 무술을 모두 갖춘 하나의 전시 공간은 수많은 전문 관객과 미디어를 끌어 모았습니다. 탄력 있는 현의 우아한 연주를 통해 S1은 정밀한 작동과 속도, 힘, 정밀성을 갖춘 절대적인 제어력을 보여줍니다. CCTV 뉴스는 '서예'의 모방 학습 및 지능형 제어에 대한 특별 보도를 진행했습니다. 회사 설립자 Lai Jie는 부드러운 움직임 뒤에 하드웨어 측면이 최고의 힘 제어와 가장 인간과 유사한 신체 지표(속도, 하중)를 추구한다고 설명했습니다. 등)이지만 AI측에서는 사람의 실제 움직임 데이터를 수집해 로봇이 강한 상황에 직면했을 때 더욱 강해지고 빠르게 진화하는 방법을 학습할 수 있다. 그리고 민첩하다

참가자들은 이번 ACL 컨퍼런스에서 많은 것을 얻었습니다. ACL2024는 6일간 태국 방콕에서 개최됩니다. ACL은 전산언어학 및 자연어 처리 분야 최고의 국제학술대회로 국제전산언어학회(International Association for Computational Linguistics)가 주최하고 매년 개최된다. ACL은 NLP 분야에서 학술 영향력 1위를 항상 차지하고 있으며, CCF-A 추천 컨퍼런스이기도 합니다. 올해로 62회째를 맞이하는 ACL 컨퍼런스에는 NLP 분야의 최신 저서가 400편 이상 접수됐다. 어제 오후 컨퍼런스에서는 최우수 논문과 기타 상을 발표했습니다. 이번에 최우수논문상 7개(미출판 2개), 우수주제상 1개, 우수논문상 35개가 있다. 이 컨퍼런스에서는 또한 3개의 리소스 논문상(ResourceAward)과 사회적 영향상(Social Impact Award)을 수상했습니다.

오늘 오후 Hongmeng Zhixing은 공식적으로 새로운 브랜드와 신차를 환영했습니다. 8월 6일, Huawei는 Hongmeng Smart Xingxing S9 및 Huawei 전체 시나리오 신제품 출시 컨퍼런스를 개최하여 파노라마식 스마트 플래그십 세단 Xiangjie S9, 새로운 M7Pro 및 Huawei novaFlip, MatePad Pro 12.2인치, 새로운 MatePad Air, Huawei Bisheng을 선보였습니다. 레이저 프린터 X1 시리즈, FreeBuds6i, WATCHFIT3 및 스마트 스크린 S5Pro를 포함한 다양한 새로운 올-시나리오 스마트 제품, 스마트 여행, 스마트 오피스, 스마트 웨어에 이르기까지 화웨이는 풀 시나리오 스마트 생태계를 지속적으로 구축하여 소비자에게 스마트한 경험을 제공합니다. 만물인터넷. Hongmeng Zhixing: 스마트 자동차 산업의 업그레이드를 촉진하기 위한 심층적인 권한 부여 화웨이는 중국 자동차 산업 파트너와 손을 잡고

비전과 로봇 학습의 긴밀한 통합. 최근 화제를 모으고 있는 1X 휴머노이드 로봇 네오(NEO)와 두 개의 로봇 손이 원활하게 협력해 옷 개기, 차 따르기, 신발 싸기 등을 하는 모습을 보면 마치 로봇 시대로 접어들고 있다는 느낌을 받을 수 있다. 실제로 이러한 부드러운 움직임은 첨단 로봇 기술 + 정교한 프레임 디자인 + 다중 모드 대형 모델의 산물입니다. 우리는 유용한 로봇이 종종 환경과 복잡하고 절묘한 상호작용을 요구한다는 것을 알고 있으며, 환경은 공간적, 시간적 영역에서 제약으로 표현될 수 있습니다. 예를 들어, 로봇이 차를 따르도록 하려면 먼저 로봇이 찻주전자 손잡이를 잡고 차를 흘리지 않고 똑바로 세운 다음, 주전자 입구와 컵 입구가 일치할 때까지 부드럽게 움직여야 합니다. 을 누른 다음 주전자를 특정 각도로 기울입니다. 이것

기계력 보고서 편집자: Yang Wen AI 영상계의 왕이 될 수 있는 사람은 누구일까요? 미국 TV 시리즈 '왕좌의 게임'에는 '철왕좌'가 있다. 전설에 따르면 적들이 버린 수천 자루의 검을 녹인 거대 용 '흑사병'이 최고의 권위를 상징한다는 전설이 있다. 이 철의자에 앉기 위해 대가족들은 싸우고 또 싸우기 시작했습니다. 소라 등장 이후 AI 영상계에 왕성한 '왕좌의 게임'이 론칭됐다. 이 게임의 주역으로는 바다 건너편의 RunwayGen-3와 Luma는 물론 국내 Kuaishou Keling, ByteDream, 및 Zhimo, Vidu, PixVerseV2 등. 오늘은 AI 영상계의 '철왕좌'에 앉을 자격이 있는 사람이 누구인지 평가하고 알아보겠습니다. -1- 빈센트 비디오
