변환기 모델의 차원 축소는 줄어들고, 특정 계층의 구성 요소 중 90% 이상이 제거되면 LLM 성능은 변경되지 않습니다.
대형 모델 시대, 트랜스포머만으로도 과학 연구 분야 전체를 지원합니다. 출시 이후 Transformer 기반 언어 모델은 다양한 작업에서 뛰어난 성능을 보여주었습니다. 기본 Transformer 아키텍처는 자연어 모델링 및 추론 분야에서 최첨단 기술이 되었으며 컴퓨터 비전과 같은 분야에서도 유망한 것으로 나타났습니다. 강력한 전망을 보여줍니다
현재 Transformer 아키텍처는 매우 크고 일반적으로 훈련 및 추론을 위해 많은 컴퓨팅 리소스가 필요합니다
이것은 의도적인 것입니다. 왜냐하면 더 많은 매개변수나 데이터로 훈련된 Transformer는 분명히 다른 모델보다 더 큽니다. 그럼에도 불구하고, 점점 더 많은 연구 결과에 따르면 Transformer 기반 모델과 신경망은 학습된 가설을 보존하기 위해 모든 적합한 매개변수가 필요하지 않습니다.
일반적으로 대규모 과잉 매개변수화는 모델을 훈련할 때 도움이 되는 것처럼 보이지만 추론 전에 이러한 모델을 크게 정리할 수 있습니다. 연구에 따르면 신경망은 종종 제대로 수행되지 않고 가중치의 90% 이상을 제거할 수 있습니다. 감소. 이 현상으로 인해 연구자들은 모델 추론을 지원하는 가지치기 전략으로 눈을 돌리게 되었습니다. MIT와 Microsoft의 연구원들은 "진실은 거기에 있습니다: 레이어 선택 순위 감소를 통한 개선"이라는 제목의 논문에서 놀라운 발견이 이루어졌습니다. "언어 모델의 추론 능력" 논문. 그들은 Transformer 모델의 특정 레이어에서 미세한 가지치기를 하면 특정 작업에서 모델의 성능을 크게 향상시킬 수 있다는 것을 발견했습니다
Paper 주소: https://arxiv.org/pdf/2312.13558.pdf
- Paper 홈페이지: https://pratyushasharma.github.io/laser/
- 이 간단한 개입을 연구에서는 LASER(LAyer SElective Rank Reduction)라고 합니다. Transformer 모델에서 특이값 분해를 통해 특정 계층의 학습 가중치 행렬의 고차 성분을 선택적으로 줄여 LLM의 성능을 크게 향상시킵니다. 이 작업은 모델 훈련이 완료된 후에 수행할 수 있으며 추가 매개 변수나 데이터가 필요하지 않습니다.
작업 중에 모델별 가중치 행렬 및 레이어를 적용하여 가중치 감소가 수행됩니다. 또한 이 연구에서는 많은 유사한 행렬이 무게를 크게 줄일 수 있다는 사실을 발견했으며 일반적으로 구성 요소의 90% 이상이 제거될 때까지 성능 저하가 관찰되지 않았습니다.
이 연구에서는 또한 이러한 요소를 줄이면 정확도가 크게 향상될 수 있다는 사실도 발견했습니다. 흥미롭게도 이 발견은 자연어에만 적용되는 것이 아니라 강화 학습의 성능도 향상시킵니다.
또한 이 연구에서는 삭제를 통해 성능을 향상시키기 위해 고차 구성 요소에 무엇이 저장되어 있는지 추론하려고 시도합니다. 연구에 따르면 LASER를 사용하여 질문에 답한 후 원래 모델은 주로 빈도가 높은 단어(예: "the", "of" 등)를 사용하여 응답했습니다. 이 단어는 정답의 의미 유형과도 일치하지 않습니다. 즉, 개입하지 않으면 이러한 구성 요소로 인해 모델이 관련 없는 고주파 단어를 생성하게 됩니다
그러나 어느 정도 순위 감소를 수행한 후에는 모델의 답변은 올바른 답변으로 변환될 수 있습니다.
이를 이해하기 위해 연구에서는 나머지 구성 요소가 개별적으로 무엇을 인코딩하는지 조사하고 고차 특이 벡터만 사용하여 가중치 행렬을 근사화했습니다. 이들 구성요소는 정답과 동일한 의미 범주 내에서 서로 다른 응답이나 공통적으로 자주 등장하는 단어를 기술하는 것으로 나타났습니다.
이러한 결과는 시끄러운 고차 구성 요소가 저차 구성 요소와 결합될 때 충돌하는 응답이 평균 답변을 생성하며 이는 정확하지 않을 수 있음을 시사합니다. 그림 1은 Transformer 아키텍처와 LASER 이후의 절차를 시각적으로 보여줍니다. 여기서는 다층 퍼셉트론(MLP)의 특정 계층의 가중치 행렬이 해당 계층의 낮은 순위 근사값으로 대체됩니다.
LASER 개요
연구원은 LASER 개입에 대해 자세히 소개했습니다. 단일 단계 LASER 개입은 세 가지 매개변수(τ, ℓ 및 ρ)로 정의됩니다. 이러한 매개변수는 낮은 순위 근사로 대체될 행렬과 근사 정도를 함께 설명합니다. 연구자는 매개변수 유형에 따라 개입할 행렬을 분류합니다
연구원은 MLP(Multilayer Perceptron)와 Attention Matrix로 구성된 행렬 W = {W_q, W_k, W_v, W_o, U_in, U_out}에 중점을 둡니다. 힘 레이어의 구성. 레이어 수는 연구자 개입 수준을 나타내며 첫 번째 레이어의 지수는 0입니다. 예를 들어 Llama-2는 레벨이 32개이므로 ℓ ∈ {0, 1, 2,・・・31}
로 표현됩니다.궁극적으로 ρ ∈ [0, 1)은 하위 순위 근사를 만들 때 최대 순위 중 어느 부분을 유지해야 하는지 설명합니다. 예를 들어 라고 가정하면 행렬의 최대 순위는 d입니다. 연구자들은 이를 ⌊ρ・d⌋- 근사로 대체했습니다.
다음 사항이 필요합니다. 아래 그림 1에는 LASER의 예가 나와 있습니다. 그림에서 기호 τ = U_in 및 ℓ = L은 MLP의 첫 번째 계층 가중치 행렬이 L번째 계층의 Transformer 블록에서 업데이트됨을 나타냅니다. 순위 k 근사치에서 k 값을 제어하기 위한 매개변수도 있습니다.
LASER는 네트워크의 특정 정보 흐름을 제한하고 예기치 않게 상당한 성능 이점을 제공할 수 있습니다. 이러한 개입은 임의의 순서로 일련의 개입을 적용하는 등 쉽게 결합할 수도 있습니다.
LASER 방법은 이러한 유형의 개입에 대한 단순한 검색일 뿐이며 최대 이익을 가져오도록 수정되었습니다. 그러나 이러한 개입을 결합하는 다른 방법이 많이 있으며 이는 향후 작업의 방향입니다.
실험 결과
실험 부분에서 연구원은 27개의 레이어와 60억 개의 매개 변수를 가진 PILE 데이터 세트에 대해 사전 훈련된 GPT-J 모델을 사용했습니다. 그런 다음 모델의 동작은 (주제, 관계 및 답변) 트리플 샘플이 포함된 CounterFact 데이터 세트에서 평가되며 각 질문에 대해 3개의 패러프레이징 프롬프트가 제공됩니다.
먼저 CounterFact 데이터 세트에서 GPT-J 모델을 분석했습니다. 그림 2는 Transformer 아키텍처의 각 행렬에 서로 다른 양의 순위 감소를 적용한 후 데이터 세트의 분류 손실에 미치는 영향을 보여줍니다. 각 Transformer 계층은 2계층 소형 MLP로 구성되며 입력 및 출력 행렬이 별도로 표시됩니다. 다양한 색상은 제거된 구성요소의 다양한 비율을 나타냅니다.
향상된 해석의 정확성과 견고성과 관련하여 위 그림 2와 아래 표 1에 표시된 것처럼 연구원들은 단일 레이어에서 순위 감소를 수행할 때 사실적 CounterFact 데이터세트의 GPT-J 모델 정확도가 13.1%에서 24.0%로 증가했습니다. 이러한 개선은 순위 감소의 결과일 뿐이며 모델의 추가 교육이나 미세 조정이 포함되지 않는다는 점에 유의하는 것이 중요합니다.
하위복원을 하면 어떤 사실이 복원되나요? 연구자들은 그림 3
에서 볼 수 있듯이 순위 감소를 통해 얻은 사실이 데이터 세트에 거의 나타나지 않을 가능성이 높다는 사실을 발견했습니다. 고차 구성 요소는 무엇을 저장합니까? 연구원들은 아래 그림 5(a)에 표시된 것처럼 (LASER와 같은 저차 구성 요소를 사용하는 대신) 고차 구성 요소를 사용하여 최종 중량 행렬을 근사화합니다. 그들은 아래 그림 5(b)에 표시된 것처럼 서로 다른 수의 고차 구성 요소를 사용하여 행렬을 근사할 때 예측 답변과 관련하여 실제 답변의 평균 코사인 유사성을 측정했습니다.
연구원들은 마침내 다중 언어 이해 작업에서 찾은 세 가지 LLM의 일반화 가능성을 평가했습니다. 각 작업에 대해 생성 정확도, 분류 정확도 및 손실이라는 세 가지 측정항목을 사용하여 모델 성능을 평가했습니다. 표 1의 결과에 따르면, 행렬의 순위가 크게 감소하더라도 모델의 정확도가 떨어지지는 않고 대신 모델의 성능을 향상시킬 수 있습니다
위 내용은 변환기 모델의 차원 축소는 줄어들고, 특정 계층의 구성 요소 중 90% 이상이 제거되면 LLM 성능은 변경되지 않습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











MySQL 시작이 실패하는 데는 여러 가지 이유가 있으며 오류 로그를 확인하여 진단 할 수 있습니다. 일반적인 원인에는 포트 충돌 (포트 점유 체크 및 구성 수정), 권한 문제 (서비스 실행 사용자 권한 실행), 구성 파일 오류 (파라미터 설정 확인), 데이터 디렉토리 손상 (데이터 복원 또는 테이블 공간 재건), IBDATA 테이블 공간 문제 (IBDATA1 파일 확인), 플러그로드 (확인 오류 로그)가 포함됩니다. 문제를 해결할 때 오류 로그를 기반으로 문제를 분석하고 문제의 근본 원인을 찾고 문제를 방지하고 해결하기 위해 정기적으로 데이터를 백업하는 습관을 개발해야합니다.

MySQL은 JSON 데이터를 반환 할 수 있습니다. json_extract 함수는 필드 값을 추출합니다. 복잡한 쿼리의 경우 where 절을 사용하여 JSON 데이터를 필터링하지만 성능 영향에주의하십시오. JSON에 대한 MySQL의 지원은 지속적으로 증가하고 있으며 최신 버전 및 기능에주의를 기울이는 것이 좋습니다.

데이터베이스 산 속성에 대한 자세한 설명 산 속성은 데이터베이스 트랜잭션의 신뢰성과 일관성을 보장하기위한 일련의 규칙입니다. 데이터베이스 시스템이 트랜잭션을 처리하는 방법을 정의하고 시스템 충돌, 전원 중단 또는 여러 사용자의 동시 액세스가 발생할 경우에도 데이터 무결성 및 정확성을 보장합니다. 산 속성 개요 원자력 : 트랜잭션은 불가분의 단위로 간주됩니다. 모든 부분이 실패하고 전체 트랜잭션이 롤백되며 데이터베이스는 변경 사항을 유지하지 않습니다. 예를 들어, 은행 송금이 한 계정에서 공제되지만 다른 계정으로 인상되지 않은 경우 전체 작업이 취소됩니다. BeginTransaction; updateAccountssetBalance = Balance-100WH

sqllimit 절 : 쿼리 결과의 행 수를 제어하십시오. SQL의 한계 절은 쿼리에서 반환 된 행 수를 제한하는 데 사용됩니다. 이것은 대규모 데이터 세트, 페이지 진화 디스플레이 및 테스트 데이터를 처리 할 때 매우 유용하며 쿼리 효율성을 효과적으로 향상시킬 수 있습니다. 구문의 기본 구문 : SelectColumn1, Collect2, ... Fromtable_namelimitnumber_of_rows; 번호_of_rows : 반환 된 행 수를 지정하십시오. 오프셋이있는 구문 : SelectColumn1, Column2, ... Fromtable_namelimitOffset, number_of_rows; 오프셋 : skip

MySQL 데이터베이스 성능 최적화 안내서 리소스 집약적 응용 프로그램에서 MySQL 데이터베이스는 중요한 역할을 수행하며 대규모 트랜잭션 관리를 담당합니다. 그러나 응용 프로그램 규모가 확장됨에 따라 데이터베이스 성능 병목 현상은 종종 제약이됩니다. 이 기사는 일련의 효과적인 MySQL 성능 최적화 전략을 탐색하여 응용 프로그램이 고 부하에서 효율적이고 반응이 유지되도록합니다. 실제 사례를 결합하여 인덱싱, 쿼리 최적화, 데이터베이스 설계 및 캐싱과 같은 심층적 인 주요 기술을 설명합니다. 1. 데이터베이스 아키텍처 설계 및 최적화 된 데이터베이스 아키텍처는 MySQL 성능 최적화의 초석입니다. 몇 가지 핵심 원칙은 다음과 같습니다. 올바른 데이터 유형을 선택하고 요구 사항을 충족하는 가장 작은 데이터 유형을 선택하면 저장 공간을 절약 할 수있을뿐만 아니라 데이터 처리 속도를 향상시킬 수 있습니다.

기본 키는 데이터베이스의 각 행을 고유하게 식별하는 키 속성이기 때문에 MySQL 기본 키는 비어있을 수 없습니다. 기본 키가 비어 있으면 레코드를 고유하게 식별 할 수 없으므로 데이터 혼동으로 이어질 수 있습니다. 자체 점수 정수 열 또는 UUID를 기본 키로 사용하는 경우 효율성 및 우주 점유와 같은 요소를 고려하고 적절한 솔루션을 선택해야합니다.

해시 값으로 저장되기 때문에 MongoDB 비밀번호를 Navicat을 통해 직접 보는 것은 불가능합니다. 분실 된 비밀번호 검색 방법 : 1. 비밀번호 재설정; 2. 구성 파일 확인 (해시 값이 포함될 수 있음); 3. 코드를 점검하십시오 (암호 하드 코드 메일).

MySQL 및 MariaDB 데이터베이스의 효과적인 모니터링은 최적의 성능을 유지하고 잠재적 인 병목 현상을 식별하며 전반적인 시스템 신뢰성을 보장하는 데 중요합니다. Prometheus MySQL Expler는 능동적 인 관리 및 문제 해결에 중요한 데이터베이스 메트릭에 대한 자세한 통찰력을 제공하는 강력한 도구입니다.
