목차
옵티마이저 메모리 절약 방법
2차 모멘트의 압축 방법
기술 주변기기 일체 포함 LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.

LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.

Sep 12, 2023 am 08:01 AM
ai 모델

대형 모델의 학습 및 미세 조정에는 비디오 메모리 요구 사항이 높으며 최적화 상태는 비디오 메모리의 주요 비용 중 하나입니다. 최근 Tsinghua University의 Zhu Jun과 Chen Jianfei 팀은 모델 훈련의 메모리 오버헤드를 절약하고 완전 정밀도 최적화 장치와 비슷한 정확도를 달성할 수 있는 신경망 훈련을 위한 4비트 최적화 장치를 제안했습니다.

수많은 사전 훈련 및 미세 조정 작업을 실험한 4비트 최적화 프로그램은 정확도를 유지하면서 LLaMA-7B 미세 조정의 메모리 오버헤드를 최대 57%까지 줄일 수 있습니다.

논문: https://arxiv.org/abs/2309.01507

코드: https://github.com/thu-ml/low-bit-optimizers

모델 훈련의 메모리 병목 현상

GPT-3, Gopher부터 LLaMA까지 대형 모델의 성능이 더 좋다는 것이 업계의 공감대가 되었습니다. 그러나 이와 대조적으로 단일 GPU의 비디오 메모리 크기는 느리게 증가하여 비디오 메모리가 대규모 모델 훈련의 주요 병목 현상이 되었습니다. 제한된 GPU 메모리로 대형 모델을 어떻게 훈련시킬 것인가가 중요한 문제가 되었습니다.

이를 위해서는 먼저 비디오 메모리 소비의 원인을 명확히 해야 합니다. 실제로 소스에는 세 가지 유형이 있습니다. 즉,

1. 신경망의 각 계층에서 출력되는 입력 데이터와 활성화 값을 포함하는 "데이터 메모리"의 크기는 배치 크기와 직접적인 영향을 받습니다. 이미지 해상도/컨텍스트 길이

2. 모델 매개변수, 그라디언트 및 최적화 상태를 포함하는 "모델 메모리"는 모델 매개변수 수에 비례합니다.

3. GPU 임시 메모리 및 커널 계산에 사용되는 기타 캐시입니다. 모델의 크기가 커질수록 모델의 비디오 메모리 비중이 점차 늘어나 큰 병목 현상이 발생한다.

옵티마이저 상태의 크기는 어떤 옵티마이저가 사용되는지에 따라 결정됩니다. 현재 AdamW 최적화 프로그램은 훈련 프로세스 중에 두 개의 최적화 프로그램 상태, 즉 첫 번째 순간과 두 번째 순간을 저장하고 업데이트해야 하는 Transformer를 훈련하는 데 자주 사용됩니다. 모델 매개변수의 수가 N이면 AdamW의 최적화 상태 수는 2N입니다. 이는 분명히 엄청난 그래픽 메모리 오버헤드입니다.

LLaMA-7B를 예로 들면 이 모델의 매개변수 수는 약 7B입니다. 전체 정밀도(32비트) AdamW 최적화 프로그램을 사용하여 미세 조정하는 경우 최적화 프로그램이 차지하는 메모리 크기입니다. 상태는 약 52.2GB입니다. 또한 순진한 SGD 최적화 프로그램은 추가 상태가 필요하지 않고 최적화 프로그램 상태가 차지하는 메모리를 절약하지만 모델의 성능을 보장하기 어렵습니다. 따라서 이 기사에서는 최적화 프로그램 성능이 저하되지 않도록 하면서 모델 메모리의 최적화 프로그램 상태를 줄이는 방법에 중점을 둡니다.

옵티마이저 메모리 절약 방법

현재 학습 알고리즘 측면에서 옵티마이저 메모리 오버헤드를 절약하는 세 가지 주요 방법이 있습니다. 순위 분해(인수화)

2. LoRA와 같은 작은 매개변수 세트만 학습하여 대부분의 최적화 상태를 저장하지 마세요.

3. 최적화 상태를 나타내는 정밀 숫자 형식입니다.

특히 Dettmers et al.(ICLR 2022)은 블록 단위 양자화 및 동적 지수 수치 형식(동적 지수 수치 형식) 기술을 사용하여 모멘텀 및 AdamW를 갖춘 SGD에 해당하는 8비트 최적화 프로그램을 제안했습니다. 언어 모델링, 이미지 분류, 자기 지도 학습, 기계 번역 등의 작업에서 원래의 완전 정밀도 최적화 프로그램과 일치하는 결과를 제공합니다.

이를 바탕으로 본 논문에서는 옵티마이저 상태의 수치 정확도를 4비트로 더욱 낮추고 다양한 옵티마이저 상태에 대한 양자화 방법을 제안하며 최종적으로 4비트 AdamW 옵티마이저를 제안합니다. 동시에 본 논문에서는 압축과 낮은 순위 분해 방법의 결합 가능성을 탐색하고, 우수한 성능과 더 나은 메모리 효율성을 모두 누리는 4비트 Factor 최적화 프로그램을 제안합니다. 이 문서에서는 자연어 이해, 이미지 분류, 기계 번역, 대형 모델의 명령 미세 조정 등 여러 가지 고전적인 작업에서 4비트 최적화 프로그램을 평가합니다.

모든 작업에서 4비트 최적화 프로그램은 더 적은 메모리를 차지하면서 전체 정밀도 최적화 프로그램과 비슷한 결과를 얻습니다.

문제 설정

압축 기반 메모리 효율적 최적화를 위한 프레임워크

먼저, 알고리즘 1에서 제공하는 일반적으로 사용되는 최적화 프로그램에 압축 작업을 도입하는 방법을 이해해야 합니다. 여기서 A는 기울기 기반 최적화 프로그램(예: SGD 또는 AdamW)입니다. 최적화 프로그램은 기존 매개변수 w, 그래디언트 g 및 최적화 프로그램 상태 s를 가져와 새 매개변수와 최적화 프로그램 상태를 출력합니다. 알고리즘 1에서 전체 정밀도 s_t는 일시적인 반면, 낮은 정밀도(s_t)̅는 GPU 메모리에 유지됩니다. 이 방법이 비디오 메모리를 절약할 수 있는 중요한 이유는 신경망의 매개변수가 각 레이어의 매개변수 벡터와 함께 연결되는 경우가 많기 때문입니다. 따라서 옵티마이저 업데이트도 레이어/텐서 단위로 수행됩니다. 알고리즘 1에서는 최대 하나의 매개변수에 대한 옵티마이저 상태가 최대 정밀도로 메모리에 남고, 다른 레이어에 해당하는 옵티마이저 상태는 압축되어 있습니다. 상태. .

LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.

주요 압축 방법: 양자화

양자화는 정밀도가 낮은 수치 값을 사용하여 고정밀도 데이터를 표현하는 기술입니다. 이 글에서는 양자화 연산을 정규화( 정규화) 및 매핑(mapping)을 통해 보다 경량화된 설계와 새로운 정량화 방법의 실험이 가능해졌습니다. 정규화와 매핑이라는 두 가지 작업이 요소별 방식으로 전체 정밀도 데이터에 순차적으로 적용됩니다. 정규화는 텐서의 각 요소를 단위 간격으로 투영하는 역할을 하며, 여기서 텐서 정규화(텐서별 정규화) 및 블록 단위 정규화(블록 단위 정규화)는 다음과 같이 정의됩니다.

LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.

다양한 정규화 방법 세분성이 다르면 이상값을 처리하는 능력도 다르며, 추가 메모리 오버헤드도 달라집니다. 매핑 작업은 정규화된 값을 낮은 정밀도로 표현할 수 있는 정수로 매핑하는 작업을 담당합니다. 공식적으로 말하면, 비트 너비 b(즉, 각 값은 양자화 후 b 비트로 표시됨)와 사전 정의된 함수 T

LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.

가 주어지면 매핑 작업은 다음과 같이 정의됩니다.

LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.

따라서, 적절하게 설계된 T가 양자화 오류를 줄이는 데 어떻게 중요한 역할을 하는지 알아보세요. 이 기사에서는 주로 선형 매핑(선형)과 동적 지수 매핑(동적 지수)을 고려합니다. 마지막으로 역양자화 과정은 매핑과 정규화의 역연산자를 순차적으로 적용하는 것입니다.

1차 모멘트의 압축 방법

다음은 주로 AdamW의 최적화 상태(1차 모멘트와 2차 모멘트)에 대한 다양한 양자화 방법을 제안합니다. 우선, 이 문서의 양자화 방법은 주로 Dettmers et al.(ICLR 2022)의 방법을 기반으로 하며 블록 정규화(블록 크기 2048) 및 동적 지수 매핑을 사용합니다.

사전 실험에서 비트 폭을 8비트에서 4비트로 직접 줄였고 1차 모멘트가 양자화에 매우 강력하고 많은 작업에서 매칭 효과를 달성했지만 일부 작업에서도 발생한다는 것을 발견했습니다. 성능 손실. 성능을 더욱 향상시키기 위해 우리는 첫 번째 순간의 패턴을 주의 깊게 연구한 결과 단일 텐서에 많은 이상값이 있음을 발견했습니다.

이전 작업에서는 매개변수 및 활성화 값의 이상값 패턴에 대한 연구를 수행한 반면, 활성화 값은 채널에 따라 분포됩니다. 이 기사에서는 최적화 프로그램 상태의 이상값 분포가 복잡하다는 사실을 발견했습니다. 일부 텐서는 이상값이 고정 행에 분산되어 있고 다른 텐서는 이상값이 고정 열에 분산되어 있습니다.

LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.

열 단위로 이상값이 분포된 텐서의 경우 행 우선 블록 정규화에 어려움이 있을 수 있습니다. 따라서 본 논문에서는 블록 크기가 128인 더 작은 블록을 사용하여 양자화 오류를 줄이면서 추가 메모리 오버헤드를 제어 가능한 범위 내에서 유지하는 방법을 제안합니다. 아래 그림은 다양한 블록 크기에 대한 양자화 오류를 보여줍니다.

LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.

2차 모멘트의 압축 방법

1차 모멘트에 비해 2차 모멘트의 양자화는 더 어렵고 훈련에 불안정성을 가져옵니다. 본 논문에서는 영점 문제가 2차 모멘트를 정량화하는 데 있어 주요 병목 현상임을 확인합니다. 또한 조건이 나쁜 이상치 분포에 대한 개선된 정규화 방법인 랭크-1 정규화를 제안합니다. 이 글에서는 2차 모멘트의 분해 방법(인수분해)도 시도합니다.

영점 문제

매개변수, 활성화 값, 기울기의 양자화에서 영점은 필수 불가결한 경우가 많으며, 양자화 후 가장 높은 주파수를 갖는 점이기도 합니다. 그러나 아담의 반복식에서는 업데이트의 크기가 두 번째 순간의 -1/2승에 비례하기 때문에 0을 중심으로 한 범위의 변화는 업데이트의 크기에 큰 영향을 미쳐 불안정성을 유발하게 됩니다.

LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.

다음 그림은 양자화 전후의 아담의 두 번째 모멘트 -1/2 거듭제곱의 분포를 히스토그램 형태로 나타낸 것입니다. 즉, h(v)=1/(√v+10^( -6) ) . 0이 포함되면(그림 b) 대부분의 값이 10^6까지 푸시되어 큰 근사 오류가 발생합니다. 간단한 접근 방식은 동적 지수 맵에서 0을 제거하는 것입니다. 그렇게 하면(그림 c) 두 번째 순간에 대한 근사치가 더 정확해집니다. 실제 상황에서는 정밀도가 낮은 수치의 표현력을 효과적으로 활용하기 위해 영점을 제거하는 선형 매핑을 사용하는 것을 제안하였고 실험에서 좋은 결과를 얻었습니다.

LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.

Rank-1 정규화

1차 모멘트와 2차 모멘트의 복잡한 이상치 분포를 기반으로 SM3 최적화 프로그램에서 영감을 받아 본 논문에서는 새로운 정규화를 제안합니다. 방법을 순위 1 정규화라고 합니다. 음수가 아닌 행렬 텐서 x∈R^(n×m)의 경우 1차원 통계는 다음과 같이 정의됩니다.

LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.

그런 다음 순위 1 정규화는 다음과 같이 정의할 수 있습니다. rank-1 정규화는 텐서의 1차원 정보를 보다 세분화된 방식으로 활용하고 행별 또는 열별 이상값을 보다 지능적이고 효율적으로 처리할 수 있습니다. 또한, 랭크 1 정규화는 고차원 텐서로 쉽게 일반화될 수 있으며, 텐서 크기가 커질수록 발생하는 추가 메모리 오버헤드는 블록 정규화보다 적습니다.

LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.

또한 이 기사에서는 Adafactor 옵티마이저의 2차 모멘트에 대한 하위 분해 방법이 영점 문제를 효과적으로 피할 수 있음을 발견했기 때문에 하위 분해와 양자화 방법의 조합도 탐색했습니다. 아래 그림은 2차 모멘트에 대한 일련의 절제 실험을 보여 주며, 이는 영점 문제가 2차 모멘트 정량화의 병목 현상임을 확인하며 랭크 1 정규화 및 하위 분해 방법의 효율성도 검증합니다.

실험 결과

LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.

관찰된 현상과 사용 방법을 바탕으로 최종적으로 4비트 AdamW와 4비트 Factor 두 가지 저정밀 최적화 프로그램을 제안하고 8을 포함한 다른 최적화 프로그램과 비교했습니다. -비트 AdamW, Adafactor, SM3. 자연어 이해, 이미지 분류, 기계 번역, 대형 모델의 지시 미세 조정 등 광범위한 작업에 대한 평가를 위해 연구를 선택했습니다. 아래 표는 다양한 작업에 대한 각 옵티마이저의 성능을 보여줍니다.

LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.NLU, QA, NLG를 포함한 모든 미세 조정 작업에서 4비트 최적화 프로그램은 32비트 AdamW와 일치하거나 심지어 초과할 수 있음을 알 수 있습니다. 훈련 작업, CLS, MT, 4비트 최적화 프로그램은 전체 정확도에 필적하는 수준을 달성합니다. 4비트 AdamW가 사전 훈련된 모델의 능력을 파괴하지 않고 동시에 지침을 준수하는 능력을 더 잘 얻을 수 있도록 해준다는 것은 명령 미세 조정 작업에서 볼 수 있습니다.

이후 4비트 옵티마이저의 메모리 및 계산 효율성을 테스트했으며 그 결과는 아래 표와 같습니다. 본 글에서 제안하는 4비트 옵티마이저는 8비트 옵티마이저에 비해 더 많은 메모리를 절약할 수 있으며, LLaMA-7B 미세 조정 실험에서 최대 57.7%를 절약할 수 있다. 또한 계산 효율성에 영향을 주지 않고 메모리를 절약할 수 있는 4비트 AdamW의 융합 연산자 버전을 제공합니다. LLaMA-7B의 명령 미세 조정 작업을 위해 4비트 AdamW는 캐시 압력 감소로 인해 훈련에 가속 효과도 제공합니다. 자세한 실험 설정 및 결과는 논문 링크에서 확인하실 수 있습니다.

LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.

PyTorch에서 사용하려면 한 줄의 코드를 바꾸세요

import lpmmoptimizer = lpmm.optim.AdamW (model.parameters (), lr=1e-3, betas=(0.9, 0.999))
로그인 후 복사

우리는 기본적으로 4비트 최적화 프로그램을 제공합니다. 현재 원래 최적화 프로그램을 4비트 최적화 프로그램으로 바꾸면 됩니다. Adam 및 SGD의 저정밀 버전을 지원합니다. 동시에 맞춤형 사용 시나리오를 지원하기 위해 양자화 매개변수를 수정하기 위한 인터페이스도 제공합니다.

위 내용은 LLaMA 미세 조정으로 메모리 요구 사항이 절반으로 줄어들고 Tsinghua는 4비트 최적화 프로그램을 제안합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Worldcoin (WLD) 가격 예측 2025-2031 : WLD가 2031 년까지 4 달러에 도달 할 것인가? Worldcoin (WLD) 가격 예측 2025-2031 : WLD가 2031 년까지 4 달러에 도달 할 것인가? Apr 21, 2025 pm 02:42 PM

Worldcoin (WLD)은 Cryptocurrency 시장에서 고유 한 생체 인정 및 개인 정보 보호 메커니즘으로 눈에 띄고 많은 투자자의 관심을 끌고 있습니다. WLD는 혁신적인 기술, 특히 OpenAi 인공 지능 기술과 함께 Altcoins에서 뛰어난 성과를 거두었습니다. 그러나 향후 몇 년 안에 디지털 자산은 어떻게 행동 할 것인가? WLD의 미래 가격을 함께 예측합시다. 2025 WLD 가격 예측은 2025 년 WLD에서 상당한 성장을 달성 할 것으로 예상됩니다. 시장 분석에 따르면 평균 WLD 가격은 최대 $ 1.36로 $ 1.31에 도달 할 수 있습니다. 그러나 곰 시장에서 가격은 약 $ 0.55로 떨어질 수 있습니다. 이러한 성장 기대는 주로 WorldCoin2에 기인합니다.

크로스 체인 거래는 무엇을 의미합니까? 크로스 체인 거래는 무엇입니까? 크로스 체인 거래는 무엇을 의미합니까? 크로스 체인 거래는 무엇입니까? Apr 21, 2025 pm 11:39 PM

크로스 체인 거래를 지원하는 교환 : 1. Binance, 2. Uniswap, 3. Sushiswap, 4. Curve Finance, 5. Thorchain, 6. 1inch Exchange, 7. DLN 거래,이 플랫폼은 다양한 기술을 통해 다중 체인 자산 거래를 지원합니다.

Web3 Trading Platform Ranking_Web3 글로벌 교환 상위 10 개 요약 Web3 Trading Platform Ranking_Web3 글로벌 교환 상위 10 개 요약 Apr 21, 2025 am 10:45 AM

Binance는 Global Digital Asset Trading Ecosystem의 대 군주이며, 그 특성에는 다음이 포함됩니다. 1. 평균 일일 거래량은 1,500 억 달러를 초과하여 주류 통화의 98%를 차지하며 500 개의 거래 쌍을 지원합니다. 2. 혁신 매트릭스는 파생 상품 시장, Web3 레이아웃 및 교육 시스템을 포함합니다. 3. 기술적 이점은 밀리 초에 일치하는 엔진이며, 최고 처리량은 초당 140 만 건의 트랜잭션입니다. 4. 규정 준수 진행 상황은 15 개국 라이센스를 보유하고 있으며 유럽과 미국에 준수 엔티티를 설립합니다.

가상 통화 가격의 상승 또는 하락은 왜입니까? 가상 통화 가격의 상승 또는 하락은 왜입니까? 가상 통화 가격의 상승 또는 하락은 왜입니까? 가상 통화 가격의 상승 또는 하락은 왜입니까? Apr 21, 2025 am 08:57 AM

가상 통화 가격 상승의 요인은 다음과 같습니다. 1. 시장 수요 증가, 2. 공급 감소, 3. 긍정적 인 뉴스, 4. 낙관적 시장 감정, 5. 거시 경제 환경; 감소 요인에는 다음이 포함됩니다. 1. 시장 수요 감소, 2. 공급 증가, 3. 부정적인 뉴스의 파업, 4. 비관적 시장 감정, 5. 거시 경제 환경.

Binance 전체 프로세스 전략에 대한 커널 에어 드롭 보상을받는 방법 Binance 전체 프로세스 전략에 대한 커널 에어 드롭 보상을받는 방법 Apr 21, 2025 pm 01:03 PM

암호 화폐의 번화 한 세계에서는 새로운 기회가 항상 나타납니다. 현재 Kerneldao (Kernel) 에어 드롭 활동은 많은 관심을 끌고 많은 투자자들의 관심을 끌고 있습니다. 그렇다면이 프로젝트의 기원은 무엇입니까? BNB 보유자는 어떤 이점을 얻을 수 있습니까? 걱정하지 마십시오. 다음은 당신을 위해 하나씩 공개 할 것입니다.

Aavenomics는 AAVE 프로토콜 토큰을 수정하고 쿼럼 수의 사람들에게 도달 한 토큰 재구매를 소개하는 권장 사항입니다. Aavenomics는 AAVE 프로토콜 토큰을 수정하고 쿼럼 수의 사람들에게 도달 한 토큰 재구매를 소개하는 권장 사항입니다. Apr 21, 2025 pm 06:24 PM

Aavenomics는 AAVE 프로토콜 토큰을 수정하고 Aavedao의 쿼럼을 구현 한 Token Repos를 소개하는 제안입니다. AAVE 프로젝트 체인 (ACI)의 설립자 인 Marc Zeller는 X에서 이것을 발표하여 계약의 새로운 시대를 표시한다고 지적했습니다. AAVE 체인 이니셔티브 (ACI)의 설립자 인 Marc Zeller는 AAVENOMICS 제안서에 AAVE 프로토콜 토큰 수정 및 토큰 리포지션 도입이 포함되어 있다고 X에서 AAVEDAO에 대한 쿼럼을 달성했다고 발표했습니다. Zeller에 따르면, 이것은 계약의 새로운 시대를 나타냅니다. Aavedao 회원국은 수요일에 주당 100 인 제안을지지하기 위해 압도적으로 투표했습니다.

통화에서 레버리지 교환 순위 순위 서클 통화 서클에서 상위 10 개의 레버리지 거래소의 최신 권장 사항 통화에서 레버리지 교환 순위 순위 서클 통화 서클에서 상위 10 개의 레버리지 거래소의 최신 권장 사항 Apr 21, 2025 pm 11:24 PM

2025 년에 레버리지 거래, 보안 및 사용자 경험에서 뛰어난 성능을 보이는 플랫폼은 다음과 같습니다. 1. OKX, 고주파 거래자에게 적합하여 최대 100 배의 레버리지를 제공합니다. 2. Binance, 전 세계의 다중 통화 거래자에게 적합하며 125 배 높은 레버리지를 제공합니다. 3. Gate.io, 전문 파생 상품 플레이어에게 적합하며 100 배의 레버리지를 제공합니다. 4. 초보자 및 소셜 트레이더에게 적합한 Bitget, 최대 100 배의 레버리지를 제공합니다. 5. 크라켄은 꾸준한 투자자에게 적합하며 5 배의 레버리지를 제공합니다. 6. Bybit, Altcoin Explorers에 적합하며 20 배의 레버리지를 제공합니다. 7. 저비용 거래자에게 적합한 Kucoin, 10 배의 레버리지를 제공합니다. 8. 비트 피 넥스, 시니어 플레이에 적합합니다

Top 10 Cryptocurrency Exchange 플랫폼 세계 최대의 디지털 환전 목록 Top 10 Cryptocurrency Exchange 플랫폼 세계 최대의 디지털 환전 목록 Apr 21, 2025 pm 07:15 PM

거래소는 오늘날의 cryptocurrency 시장에서 중요한 역할을합니다. 그들은 투자자들이 거래 할 수있는 플랫폼 일뿐 만 아니라 시장 유동성 및 가격 발견의 중요한 원천이기도합니다. 세계 최대의 가상 환전 거래소는 상위 10 위이며, 이러한 거래소는 거래량이 훨씬 앞서있을뿐만 아니라 사용자 경험, 보안 및 혁신적인 서비스에서 고유 한 장점이 있습니다. 목록 위에있는 교환은 일반적으로 대규모 사용자 기반과 광범위한 시장 영향을 미치며 거래량 및 자산 유형은 종종 다른 거래소에서 도달하기가 어렵습니다.

See all articles