ICLR 블라인드 리뷰 단계에서 리뷰어들로부터 높은 평가를 받은 논문: Transformer 아키텍처의 주요 혁신이 될까요?
많은 주목할만한 성과에도 불구하고 심층 신경망(DNN) 훈련의 실질적인 진전은 이론적 근거와 크게 별개였습니다. 대부분의 성공적인 현대 DNN은 잔여 연결 및 정규화 계층의 특정 배열에 의존하지만 새로운 아키텍처에서 이러한 구성 요소를 사용하는 방법에 대한 일반적인 원칙은 아직 알려지지 않았으며 기존 아키텍처에서의 역할은 아직 완전히 이해되지 않았습니다.
잔차 아키텍처는 가장 인기 있고 성공적인 것으로, 원래 CNN(컨볼루션 신경망)의 맥락에서 개발되었으며 나중에 주목 네트워크에서 유비쿼터스 변환기 아키텍처를 탄생시켰습니다. 잔여 아키텍처가 성공할 수 있는 한 가지 이유는 일반 DNN에 비해 더 나은 신호 전파입니다. 여기서 신호 전파는 DNN 레이어를 통한 기하학적 정보의 전송을 의미하며 커널 함수로 표현됩니다.
최근 신호 전파 원리를 사용하여 잔여 연결 및/또는 잔여 아키텍처의 정규화 계층을 사용하지 않고 더 깊은 DNN을 훈련하는 것이 커뮤니티의 관심 분야가 되었습니다. 그 이유는 두 가지입니다. 첫째, 잔류 아키텍처의 효율성에 대한 신호 전파 가설을 검증하여 DNN 해석 가능성에 대한 이해를 명확하게 합니다. 둘째, 이는 잔류 패러다임을 넘어서는 DNN 훈련 가능성에 대한 일반적인 원리와 방법을 가능하게 할 수 있습니다.
CNN의 경우 Xiao et al.(2018)의 작업은 더 나은 초기화를 통해 향상된 신호 전파가 잔여 네트워크보다 속도가 훨씬 느리더라도 일반 심층 네트워크를 효율적으로 훈련할 수 있음을 보여줍니다. Martens et al.(2021)의 연구에서는 활성화 함수 변환을 사용하여 신호 전파를 제어하고 K-FAC와 같은 강력한 2차 최적화 프로그램을 사용하여 일반 네트워크 및 잔여 네트워크의 훈련을 구현하는 DKS(Deep Kernel Shaping)를 제안했습니다. ImageNet에서는 속도가 동일합니다. Zhang et al.(2022)의 작업은 DKS를 더 큰 종류의 활성화 함수로 확장하고 일반화에서 거의 동일성을 달성합니다.
신호 전파에서 분석해야 할 핵심 수량은 DNN의 초기화 시간 커널, 더 정확하게는 무한 너비 제한 아래의 대략적인 커널입니다. 델타 초기화를 사용하는 MLP(다층 퍼셉트론) 및 CNN의 경우 커널은 2D 함수만 포함하는 간단한 계층 재귀로 작성되어 간단한 분석을 용이하게 할 수 있습니다. 크로스 레이어 변환기의 커널 진화는 더 복잡하므로 DKS와 같은 기존 방법은 변환기나 실제로 self-attention 레이어가 포함된 아키텍처에 적합하지 않습니다.
MLP에서 신호 전파는 (1차원) 커널의 동작을 관찰하여 판단하는 반면, 변환기의 신호 전파는 네트워크 계층의 (고차원) 커널 행렬의 진화를 관찰하여 판단할 수 있습니다.
이 연구에서는 깊이가 증가함에 따라 대각선 요소가 급격히 증가하거나 축소되는 상황을 피해야 합니다. 이는 통제되지 않은 활성화 표준과 관련되어 있으며 포화 손실 또는 수치적 문제로 이어질 수 있습니다. 깊은 변압기의 훈련 가능성을 위해서는 랭크 붕괴를 피하는 것이 필요하지만, 깊은 잔차가 없는 변압기를 훈련할 수 있는지 여부는 여전히 미해결 문제로 남아 있습니다.
ICLR 2023의 블라인드 검토 단계에서 나온 이 논문은 이 문제를 해결하고 잔류 연결이나 정규화 계층 없이 심층 변환기를 성공적으로 훈련할 수 있음을 처음으로 보여줍니다. 이를 위해 깊은 잔차가 없는 변압기의 신호 전파 및 순위 붕괴 문제를 연구하고 이를 방지하기 위한 세 가지 방법을 도출합니다. 특히 이 접근 방식은 매개변수 초기화, 바이어스 행렬 및 위치 종속 재스케일링의 조합을 사용하고 위치 인코딩 및 인과 마스킹과의 상호 작용을 포함하여 변환기의 신호 전파와 관련된 여러 복잡성을 강조합니다. 연구원들은 그들의 방법이 심층 훈련 가능한 잔류 없는 변환기를 생성할 수 있음을 경험적으로 입증했습니다.
실험 부분인 WikiText-103 및 C4 데이터 세트에서 연구원들은 주요 방법인 E-SPA(Exponential Signal Preserving Attention)를 사용하여 훈련 시간이 훈련 시간의 약 5배까지 확장될 수 있음을 시연했습니다. 종이에 있는 잔류 변압기의 손실과 비슷한 표준 변압기의 손실. 또한 연구원들은 이 방법을 잔여 연결과 결합함으로써 정규화 레이어가 없는 변환기가 표준 변환기와 비슷한 훈련 속도를 달성할 수 있음을 보여주었습니다.
논문 주소: https://openreview.net/pdf?id=NPrsUQgMjKK
이 논문에서 Google AI 수석 엔지니어 Rohan Anil은 이것이 Transformer 아키텍처의 한 단계 발전이라고 믿습니다. . 큰 진전, 즉 근본적인 개선입니다.
지름길 없이 훈련 가능한 심층 Transformer 구축
지금까지 Transformer 순위 붕괴를 수정하는 유일한 전략은 self-attention 레이어의 고유한 훈련 가능성 문제를 건너뛰는 잔여 연결에 의존합니다. 이에 비해 본 연구에서는 이 질문을 직접적으로 다루고 있다. 먼저 어텐션 레이어를 통한 신호 전파를 더 잘 이해한 다음 통찰력을 기반으로 수정하여 잔여 연결 유무에 관계없이 훈련할 수 있는 심층 변환기에서 충실한 신호 전송을 달성합니다.
구체적으로 먼저 연구에서는 딥 바닐라 트랜스포머의 간단한 설정만 주의 깊게 수행한 다음 트랜스포머가 단일 헤드(h=1) 설정 또는 다중 헤드 설정을 가지고 있다고 가정했습니다. 주의 매트릭스 A는 머리 사이에서 변하지 않습니다. 블록 l ≤ L이 초기화 시 Attention 행렬 A_l을 갖는다면, 최종 블록의 표현은
으로 초기화 시 직교할 수 있습니다.위의 가정 하에서 을 사용하여 교차 위치 입력 커널 행렬을 나타내는 경우 일부 단순화 처리 후 다음 공식을 얻을 수 있습니다.
이 단순화된 공식에서 주의 변환기 커널 행렬), (A_l)_l에 대한 세 가지 요구 사항을 결정할 수 있습니다.
순위 붕괴 및 대각선 값 폭발/소멸과 같은 퇴보 상황을 피하면서 각 블록에서 잘 수행되어야 합니다. 요소별로 음수가 아닌 ∀l이어야 합니다.
A_l은 인과 마스크 주의와 호환되도록 하부 삼각 ∀l이어야 합니다.
다음 섹션 3.1과 3.2에서는 위의 요구 사항을 충족하는 Attention 매트릭스를 찾는 데 중점을 두고 연구하며 E-SPA, U-SPA 및 Value-Skipinit의 3가지 방법을 제안합니다. 각 방법은 Attention 매트릭스를 사용합니다. 변압기를 제어하면 깊은 수심에서도 충실한 신호 전파가 가능합니다. 또한 섹션 3.3에서는 이러한 어텐션 매트릭스를 구현하기 위해 소프트맥스 어텐션을 수정하는 방법을 보여줍니다.
-
아래 그림에서 연구에서는 제안된 두 가지 SPA 방식인 U-SPA와 E-SPA를 검증했습니다. 결과는 네트워크 붕괴 현상이 심할 때에도 바닐라 트랜스포머에서 순위 전용 주의를 성공적으로 피할 수 있음을 보여줍니다. .
Experiments
WikiText-103 기준: 첫째, 이 연구는 잔여 연결이 없는 표준 깊은 변환기가 정규화 계층(LN)과 변환된 활성화가 있더라도 훈련할 수 없다는 것을 확인하지만 우리의 방법은 이 문제를 해결할 수 있습니다. 그림 2에서 볼 수 있듯이 표준 변압기에서 잔여 연결을 제거하면 훈련이 불가능해지고 훈련 손실은 약 7.5에서 안정화되는 것을 분명히 알 수 있습니다. 그림 1에서 볼 수 있듯이 표준 변압기는 랭크 붕괴로 어려움을 겪습니다.
한편, 본 연구에서 제안한 E-SPA 방법은 U-SPA와 Value-Skipinit보다 성능이 뛰어납니다. 그러나 잔차와 LN이 있는 기본 변환기는 잔차가 없는 방법에 비해 훈련 속도 이점을 여전히 유지합니다.
표 1에서 연구에서는 제안된 방법을 사용하여 MLP 블록에서 다양한 활성화 함수의 영향과 무잔류 변압기에서 LN의 사용을 평가합니다. 깊이 36에서 우리의 방법은 DKS 변환 GeLU, TAT 변환 Leaky ReLU 및 변환되지 않은 GeLU와 같은 일련의 활성화에 대해 우수한 훈련 성능을 달성하지만 변환되지 않은 Sigmoid는 달성하지 않음을 알 수 있습니다. 또한 레이어 정규화는 훈련 속도에 상대적으로 중요하지 않으며 활성화 사양을 제어하기 위한 메커니즘이 이미 내장되어 있는 SPA를 사용할 때 변환된 활성화에 해로울 수도 있다는 것이 실험적으로 나타났습니다.
그림 3에서 추가 반복 없이 기본 변압기 훈련 손실을 일치시키는 한 가지 방법은 정규화된 잔여 연결을 사용하는 것임을 알 수 있습니다.
표 2는 정규화된 잔차와 LN이 있는 E-SPA가 기본 PreLN 변환기보다 성능이 우수하다는 것을 보여줍니다.
아래 그림 4(a)는 E-SPA가 다른 방법보다 더 나은 성능을 보인다는 것을 보여줍니다. 4(b)는 단순히 훈련 시간을 늘리면 훈련 손실 격차를 없앨 수 있음을 보여줍니다.
위 내용은 ICLR 블라인드 리뷰 단계에서 리뷰어들로부터 높은 평가를 받은 논문: Transformer 아키텍처의 주요 혁신이 될까요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











0. 이 글은 어떤 내용을 담고 있나요? 우리는 다재다능하고 빠른 최첨단 생성 단안 깊이 추정 모델인 DepthFM을 제안합니다. DepthFM은 전통적인 깊이 추정 작업 외에도 깊이 인페인팅과 같은 다운스트림 작업에서 최첨단 기능을 보여줍니다. DepthFM은 효율적이며 몇 가지 추론 단계 내에서 깊이 맵을 합성할 수 있습니다. 이 작품을 함께 읽어보아요~ 1. 논문 정보 제목: DepthFM: FastMoncularDepthEstimationwithFlowMatching 저자: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

봄 축제에 맞춰 Tongyi Qianwen Large Model(Qwen) 버전 1.5가 온라인에 출시되었습니다. 오늘 아침, 새 버전 소식이 AI 커뮤니티의 이목을 끌었습니다. 대형 모델의 새 버전에는 0.5B, 1.8B, 4B, 7B, 14B 및 72B의 6가지 모델 크기가 포함됩니다. 그 중 가장 강력한 버전의 성능은 GPT3.5와 Mistral-Medium을 능가합니다. 이 버전에는 기본 모델과 채팅 모델이 포함되어 있으며 다국어 지원을 제공합니다. Alibaba의 Tongyi Qianwen 팀은 관련 기술이 Tongyi Qianwen 공식 웹사이트와 Tongyi Qianwen 앱에도 출시되었다고 밝혔습니다. 또한 오늘의 Qwen 1.5 릴리스에는 다음과 같은 주요 기능이 있습니다. 32K 컨텍스트 길이를 지원하고 Base+Chat 모델의 체크포인트를 엽니다.

현재 딥 에지 감지 네트워크는 일반적으로 다중 레벨 기능을 더 잘 추출하기 위해 업 및 다운 샘플링 모듈을 포함하는 인코더-디코더 아키텍처를 채택합니다. 그러나 이 구조는 정확하고 상세한 에지 감지 결과를 출력하기 위해 네트워크를 제한합니다. 이 문제에 대한 대응으로 AAAI2024에 대한 논문이 새로운 솔루션을 제공합니다. 논문 제목: DiffusionEdge:DiffusionProbabilisticModelforCrispEdgeDetection 저자: Ye Yunfan(국방기술대학교), Xu Kai(국립국방기술대학교), Huang Yuxing(국립국방기술대학교), Yi Renjiao(국립국방기술대학교), Cai Zhiping (국방기술대학교) 논문링크 : https://ar

LLM(대형 언어 모델)은 일반적으로 수십억 개의 매개변수를 가지며 수조 개의 토큰에 대해 훈련됩니다. 그러나 이러한 모델은 훈련하고 배포하는 데 비용이 매우 많이 듭니다. 계산 요구 사항을 줄이기 위해 다양한 모델 압축 기술이 종종 사용됩니다. 이러한 모델 압축 기술은 일반적으로 증류, 텐서 분해(낮은 순위 인수분해 포함), 가지치기 및 양자화의 네 가지 범주로 나눌 수 있습니다. 가지치기 방법은 한동안 사용되어 왔지만 성능을 유지하기 위해 가지치기 후 RFT(복구 미세 조정)가 필요한 경우가 많아 전체 프로세스에 비용이 많이 들고 확장이 어렵습니다. ETH Zurich와 Microsoft의 연구원들은 SliceGPT라는 이 문제에 대한 솔루션을 제안했습니다. 이 방법의 핵심 아이디어는 가중치 행렬에서 행과 열을 삭제하여 네트워크의 임베딩을 줄이는 것입니다.

Boston Dynamics Atlas가 공식적으로 전기 로봇 시대에 돌입했습니다! 어제 유압식 Atlas가 역사의 무대에서 "눈물을 흘리며" 물러났습니다. 오늘 Boston Dynamics는 전기식 Atlas가 작동 중이라고 발표했습니다. 상업용 휴머노이드 로봇 분야에서는 보스턴 다이내믹스가 테슬라와 경쟁하겠다는 각오를 다진 것으로 보인다. 새 영상은 공개된 지 10시간 만에 이미 100만 명이 넘는 조회수를 기록했다. 옛 사람들은 떠나고 새로운 역할이 등장하는 것은 역사적 필연이다. 올해가 휴머노이드 로봇의 폭발적인 해라는 것은 의심의 여지가 없습니다. 네티즌들은 “로봇의 발전으로 올해 개막식도 인간처럼 생겼고, 자유도도 인간보다 훨씬 크다. 그런데 정말 공포영화가 아닌가?”라는 반응을 보였다. 영상 시작 부분에서 아틀라스는 바닥에 등을 대고 가만히 누워 있는 모습입니다. 다음은 입이 떡 벌어지는 내용이다

원제목: PointTransformerV3: Simpler, Faster, Stronger 논문 링크: https://arxiv.org/pdf/2312.10035.pdf 코드 링크: https://github.com/Pointcept/PointTransformerV3 저자 단위: HKUSHAILabMPIPKUMIT 논문 아이디어: 이 기사는 다음과 같습니다. 관심 메커니즘 내에서 혁신 추구에 게시할 의도가 없습니다. 대신, 포인트 클라우드 처리 맥락에서 정확성과 효율성 간의 기존 균형을 극복하기 위해 규모의 힘을 활용하는 데 중점을 둡니다. 3D 대규모 표현 학습의 최근 발전에서 영감을 얻고,

세상은 미친 듯이 큰 모델을 만들고 있습니다. 인터넷의 데이터만으로는 충분하지 않습니다. 훈련 모델은 '헝거게임'처럼 생겼고, 전 세계 AI 연구자들은 이러한 데이터를 탐식하는 사람들에게 어떻게 먹이를 줄지 고민하고 있습니다. 이 문제는 다중 모드 작업에서 특히 두드러집니다. 아무것도 할 수 없던 시기에, 중국 인민대학교 학과의 스타트업 팀은 자체 새로운 모델을 사용하여 중국 최초로 '모델 생성 데이터 피드 자체'를 현실화했습니다. 또한 이해 측면과 생성 측면의 두 가지 접근 방식으로 양측 모두 고품질의 다중 모드 새로운 데이터를 생성하고 모델 자체에 데이터 피드백을 제공할 수 있습니다. 모델이란 무엇입니까? Awaker 1.0은 중관촌 포럼에 최근 등장한 대형 멀티모달 모델입니다. 팀은 누구입니까? 소폰 엔진. 런민대학교 힐하우스 인공지능대학원 박사과정 학생인 Gao Yizhao가 설립했습니다.

무엇? 주토피아는 국내 AI로 현실이 되는 걸까? 영상과 함께 노출된 것은 '켈링'이라는 국산 대형 영상세대 신형 모델이다. Sora는 유사한 기술 경로를 사용하고 자체 개발한 여러 기술 혁신을 결합하여 크고 합리적인 움직임뿐만 아니라 물리적 세계의 특성을 시뮬레이션하고 강력한 개념적 결합 능력과 상상력을 갖춘 비디오를 제작합니다. 데이터에 따르면 Keling은 최대 1080p의 해상도로 30fps에서 최대 2분의 초장 영상 생성을 지원하며 다양한 화면비를 지원합니다. 또 다른 중요한 점은 Keling이 실험실에서 공개한 데모나 비디오 결과 시연이 아니라 단편 비디오 분야의 선두주자인 Kuaishou가 출시한 제품 수준 애플리케이션이라는 점입니다. 더욱이 백지 작성이 아닌 실용성에 중점을 두고, 출시되자마자 온라인에 진출하는 데 중점을 두고 있다. 콰이잉에서는 커링의 대형 모델이 출시됐다.
