기술 주변기기 일체 포함 새 타이틀: NVIDIA H200 출시: HBM 용량 76% 증가, 대형 모델 성능을 90% 크게 향상시키는 가장 강력한 AI 칩

새 타이틀: NVIDIA H200 출시: HBM 용량 76% 증가, 대형 모델 성능을 90% 크게 향상시키는 가장 강력한 AI 칩

Nov 14, 2023 pm 03:21 PM
엔비디아 AI 칩 홍보하다 hbm 용량 대형 모델 성능

새 타이틀: NVIDIA H200 출시: HBM 용량 76% 증가, 대형 모델 성능을 90% 크게 향상시키는 가장 강력한 AI 칩

11월 14일 뉴스, 엔비디아는 현지 시간 13일 오전 '슈퍼컴퓨팅 23' 컨퍼런스에서 새로운 H200 GPU를 공식 출시하고 GH200 제품군을 업데이트했다고 합니다

이중 H200은 기존 Hopper H100 아키텍처를 기반으로 구축되었지만, 인공지능 개발 및 구현에 필요한 대용량 데이터 세트를 더 잘 처리하기 위해 고대역폭 메모리(HBM3e)를 더 추가하여 대규모 모델 실행이 가능해졌습니다. 이전 세대 H100 대비 60~90% 개선되었습니다. 업데이트된 GH200은 또한 차세대 AI 슈퍼컴퓨터를 구동할 것입니다. 2024년에는 200엑사플롭 이상의 AI 컴퓨팅 성능이 온라인에 등장할 것입니다.

H200: HBM 용량 76% 증가, 대형 모델 성능 90% 향상

특히 새로운 H200은 최대 141GB의 HBM3e 메모리를 제공하며, 6개의 HBM3e 스택에서 GPU당 총 대역폭 4.8TB/s에 대해 약 6.25Gbps에서 효과적으로 실행됩니다. 이는 이전 세대 H100(80GB HBM3 및 3.35TB/s 대역폭)에 비해 크게 개선되었으며 HBM 용량이 76% 이상 증가했습니다. 공식 데이터에 따르면 대형 모델을 구동할 때 H200은 H100에 비해 60%(GPT3 175B)~90%(Llama 2 70B)의 성능 향상을 가져올 것으로 예상됩니다

새 타이틀: NVIDIA H200 출시: HBM 용량 76% 증가, 대형 모델 성능을 90% 크게 향상시키는 가장 강력한 AI 칩

새 타이틀: NVIDIA H200 출시: HBM 용량 76% 증가, 대형 모델 성능을 90% 크게 향상시키는 가장 강력한 AI 칩

H100의 일부 구성은 두 보드를 결합하고 총 188GB 메모리(GPU당 94GB)를 제공하는 H100 NVL과 같이 더 많은 메모리를 제공하지만, H100 SXM 변형과 비교해도 새로운 H200 SXM은 또한 76% 더 많은 메모리 용량과 43% 더 많은 대역폭을 제공합니다.

새 타이틀: NVIDIA H200 출시: HBM 용량 76% 증가, 대형 모델 성능을 90% 크게 향상시키는 가장 강력한 AI 칩

H200의 원시 컴퓨팅 성능은 크게 변하지 않은 것 같습니다. 유일한 슬라이드 Nvidia는 반영된 컴퓨팅 성능이 8개의 GPU를 사용하는 HGX 200 구성을 기반으로 하며 총 성능이 "32 PFLOPS FP8"임을 보여주었습니다. 원래 H100은 3,958테라플롭스의 FP8 컴퓨팅 성능을 제공했지만, 8개의 GPU도 약 32PFLOPS의 FP8 컴퓨팅 성능을 제공합니다

더 높은 대역폭 메모리로 인한 개선은 작업 부하에 따라 다릅니다. 대형 모델(예: GPT-3)은 HBM 메모리 용량 증가로 인해 큰 이점을 얻을 수 있습니다. Nvidia에 따르면 H200은 GPT-3를 실행할 때 원래 A100보다 최대 18배 더 나은 성능을 발휘하고 H100보다 약 11배 더 빠릅니다. 또한 곧 출시될 Blackwell B100의 티저는 검은색으로 변하는 더 큰 막대가 포함되어 있음을 보여줍니다. 이는 가장 오른쪽 H200보다 약 두 배 긴 것입니다

새 타이틀: NVIDIA H200 출시: HBM 용량 76% 증가, 대형 모델 성능을 90% 크게 향상시키는 가장 강력한 AI 칩

그뿐만 아니라 H200과 H100은 서로 호환됩니다. 즉, H100 훈련/추론 모델을 사용하는 AI 기업은 최신 H200 칩으로 원활하게 전환할 수 있다. 클라우드 서비스 제공업체는 제품 포트폴리오에 H200을 추가할 때 어떤 수정도 할 필요가 없습니다.

Nvidia는 신제품 출시를 통해 인공지능 모델과 서비스를 만드는 데 사용되는 데이터 세트 규모의 증가를 따라잡기를 희망한다고 밝혔습니다. 향상된 메모리 기능을 통해 H200은 소프트웨어에 데이터를 공급하는 과정, 즉 이미지 및 음성 인식과 같은 작업을 수행하도록 인공 지능을 훈련시키는 데 도움이 되는 과정에서 더 빨라질 것입니다.

"더 빠르고 대용량인 HBM 메모리를 통합하면 생성 AI 모델, 고성능 컴퓨팅 애플리케이션 등 계산량이 많은 작업의 성능을 향상하는 동시에 GPU 사용 및 효율성을 최적화하는 데 도움이 됩니다."라고 제품 담당 부사장인 Ian Buck이 말했습니다.

NVIDIA의 데이터 센터 제품 책임자인 Dion Harris는 다음과 같이 말했습니다. “시장 개발 추세를 살펴보면 모델 크기가 빠르게 증가하고 있습니다. 이는 NVIDIA가 최신 기술을 지속적으로 도입하는 방법을 보여주는 예입니다.”

메인프레임 컴퓨터 제조업체와 클라우드 서비스 제공업체는 2024년 2분기에 H200을 사용하기 시작할 것으로 예상됩니다. NVIDIA 서버 제조 파트너(Evergreen, Asus, Dell, Eviden, Gigabyte, HPE, Hongbai, Lenovo, Wenda, MetaVision, Wistron 및 Wiwing 포함)는 H200을 사용하여 기존 시스템을 업데이트할 수 있으며 Amazon, Google, Microsoft, Oracle 등은 H200을 채택한 최초의 클라우드 서비스 제공업체가 될 것입니다.

현재 NVIDIA AI 칩에 대한 강력한 시장 수요와 더 비싼 HBM3e 메모리를 추가하는 새로운 H200을 고려하면 H200의 가격은 확실히 더 비쌀 것입니다. Nvidia는 가격을 공개하지 않았지만 이전 세대 H100의 가격은 25,000~40,000달러였습니다.

NVIDIA 대변인 Kristin Uchiyama는 최종 가격은 NVIDIA의 제조 파트너에 의해 결정될 것이라고 말했습니다

H200 출시가 H100 생산에 영향을 미칠지 여부에 대해 Kristin Uchiyama는 "연중 총 공급량이 증가할 것으로 예상합니다"라고 말했습니다.

Nvidia의 고급 AI 칩은 대용량 데이터를 처리하고 대규모 언어 모델 및 AI 생성 도구를 교육하는 데 항상 최고의 선택으로 여겨져 왔습니다. 하지만 H200 칩이 출시됐을 때 AI 기업들은 여전히 ​​시장에서 A100/H100 칩을 필사적으로 찾고 있었습니다. 시장의 초점은 Nvidia가 시장 수요를 충족할 만큼 충분한 공급을 제공할 수 있는지 여부에 남아 있습니다. 따라서 NVIDIA는 H200 칩이 H100 칩처럼 공급이 부족할 것인지에 대한 답변을 제공하지 않았습니다

그러나 지난 8월 파이낸셜 타임즈의 보도에 따르면, 내년은 GPU 구매자에게 더 유리한 시기가 될 수 있습니다. 엔비디아는 2024년 H100 생산량을 3배로 늘릴 계획이며, 생산 목표는 2023년 약 50만 대에서 2020년으로 증가할 예정입니다. 2024년에는 200만개. 그러나 생성적 AI는 여전히 호황을 누리고 있으며 앞으로 수요는 더 커질 가능성이 높습니다.

예를 들어 새로 출시된 GPT-4는 약 10,000~25,000개의 A100 블록에 대해 학습되었습니다. Meta의 대규모 AI 모델은 훈련을 위해 약 21,000개의 A100 블록이 필요합니다. Stability AI는 약 5,000개의 A100을 사용합니다. Falcon-40B 훈련에는 384 A100

이 필요합니다.

Musk에 따르면 GPT-5에는 30,000-50,000 H100이 필요할 수 있습니다. Morgan Stanley의 견적은 25,000 GPU입니다.

Sam Altman은 GPT-5 교육을 거부했지만 "OpenAI는 GPU가 심각하게 부족하며 우리 제품을 사용하는 사람이 적을수록 좋습니다."라고 언급했습니다.

물론 NVIDIA 외에도 AMD, Intel도 NVIDIA와 경쟁하기 위해 AI 시장에 적극적으로 진출하고 있습니다. AMD가 앞서 출시한 MI300X는 192GB HBM3와 5.2TB/s 메모리 대역폭을 탑재해 용량과 대역폭 측면에서 H200을 훨씬 뛰어넘는다.

마찬가지로 인텔은 가우디 AI 칩의 HBM 용량을 늘릴 계획이다. 최근 공개된 정보에 따르면 Gaudi 3는 5nm 공정을 사용하며 BF16 워크로드에서의 성능은 Gaudi 2의 4배, 네트워크 성능도 Gaudi 2의 2배가 될 것입니다(Gaudi 2에는 24개의 100개가 내장되어 있습니다). GbE RoCE NIC). 또한 Gaudi 3의 HBM 용량은 Gaudi 2의 1.5배입니다(Gaudi 2의 HBM2E 용량은 96GB입니다). 아래 그림에서 볼 수 있듯이 Gaudi 3는 Intel의 단일 칩 솔루션을 사용하는 Gaudi 2와 달리 두 개의 컴퓨팅 클러스터가 있는 칩렛 기반 설계를 사용합니다

새 타이틀: NVIDIA H200 출시: HBM 용량 76% 증가, 대형 모델 성능을 90% 크게 향상시키는 가장 강력한 AI 칩

새로운 GH200 슈퍼 칩: 차세대 AI 슈퍼컴퓨터 구동

NVIDIA는 새로운 H200 GPU를 출시한 것 외에도 GH200 슈퍼 칩의 업그레이드 버전도 출시했습니다. 이 칩은 최신 H200 GPU와 Grace CPU를 결합한 NVIDIA NVLink-C2C 칩 상호 연결 기술을 사용합니다(업그레이드 버전인지는 확실하지 않음). 각 GH200 슈퍼 칩은 총 624GB의 메모리를 탑재합니다

새 타이틀: NVIDIA H200 출시: HBM 용량 76% 증가, 대형 모델 성능을 90% 크게 향상시키는 가장 강력한 AI 칩

비교를 위해 이전 세대 GH200은 H100 GPU 및 72코어 Grace CPU를 기반으로 하며 동일한 패키지에 통합된 96GB HBM3 및 512GB LPDDR5X를 제공합니다.

NVIDIA는 GH200 슈퍼 칩의 Grace CPU에 대한 세부 사항을 소개하지 않았지만 NVIDIA는 GH200과 "최신 듀얼 소켓 x86 CPU" 간의 몇 가지 비교를 제공했습니다. GH200은 ICON 성능을 8배 향상시켰고, MILC, Quantum Fourier Transform, RAG LLM Inference 등은 수십배, 심지어 수백배 향상을 가져온 것을 확인할 수 있습니다.

새 타이틀: NVIDIA H200 출시: HBM 용량 76% 증가, 대형 모델 성능을 90% 크게 향상시키는 가장 강력한 AI 칩

그러나 가속 시스템과 "비가속 시스템"이 언급된다는 점을 지적해야 합니다. 그게 무슨 뜻이야? 우리는 x86 서버가 완전히 최적화되지 않은 코드를 실행하고 있다고 가정할 수 있습니다. 특히 인공 지능의 세계가 빠르게 발전하고 있고 최적화의 새로운 발전이 정기적으로 나타나는 것처럼 보인다는 점을 고려하면 더욱 그렇습니다.

새로운 GH200은 새로운 HGX H200 시스템에도 사용됩니다. 이는 기존 HGX H100 시스템과 "완벽하게 호환"된다고 합니다. 즉, HGX H200을 동일한 설치에서 사용하여 인프라를 재설계할 필요 없이 성능과 메모리 용량을 늘릴 수 있다는 의미입니다.

보고에 따르면 스위스 국립 슈퍼컴퓨팅 센터의 Alpine 슈퍼컴퓨터는 내년에 사용되는 GH100 기반 Grace Hopper 슈퍼컴퓨터의 첫 번째 배치 중 하나일 수 있습니다. 미국에서 서비스를 시작하는 최초의 GH200 시스템은 로스앨러모스 국립연구소(Los Alamos National Laboratory)의 Venado 슈퍼컴퓨터가 될 것입니다. TACC(Texas Advanced Computing Center) Vista 시스템도 방금 발표된 Grace CPU 및 Grace Hopper 슈퍼칩을 사용할 예정이지만 H100을 기반으로 할지 H200을 기반으로 할지 확실하지 않습니다.

새 타이틀: NVIDIA H200 출시: HBM 용량 76% 증가, 대형 모델 성능을 90% 크게 향상시키는 가장 강력한 AI 칩

현재 설치될 최대 슈퍼컴퓨터는 율리히 슈퍼컴퓨팅 센터의 Jupiter 슈퍼컴퓨터입니다. 여기에는 "거의" 24,000개의 GH200 슈퍼칩이 탑재되어 총 93엑사플롭의 AI 컴퓨팅이 가능합니다(아마도 대부분의 AI는 BF16 또는 FP16을 사용하지만 FP8을 사용함). 또한 기존 FP64 컴퓨팅의 1엑사플롭을 제공합니다. 4개의 GH200 슈퍼칩이 포함된 "Quad GH200" 보드를 사용합니다.

NVIDIA가 내년쯤에 설치할 것으로 예상하는 이 새로운 슈퍼컴퓨터는 전체적으로 200엑사플롭 이상의 인공 지능 컴퓨팅 성능을 달성할 것입니다

원래 의미를 바꿀 필요가 없다면 내용을 중국어로 다시 작성해야 하며 원문이 나타날 필요는 없습니다

위 내용은 새 타이틀: NVIDIA H200 출시: HBM 용량 76% 증가, 대형 모델 성능을 90% 크게 향상시키는 가장 강력한 AI 칩의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
1 몇 달 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

NVIDIA, RTX HDR 기능 출시: 지원되지 않는 게임은 AI 필터를 사용하여 HDR의 화려한 시각 효과를 구현합니다. NVIDIA, RTX HDR 기능 출시: 지원되지 않는 게임은 AI 필터를 사용하여 HDR의 화려한 시각 효과를 구현합니다. Feb 24, 2024 pm 06:37 PM

2월 23일 이 웹사이트의 소식에 따르면 NVIDIA는 어젯밤 NVIDIA‏‏ 애플리케이션을 업데이트하고 출시하여 플레이어에게 새로운 통합 GPU 제어 센터를 제공하고 플레이어가 게임 내 플로팅에서 제공하는 강력한 녹화 도구를 통해 멋진 순간을 포착할 수 있도록 했습니다. 창문. 이번 업데이트에서 NVIDIA는 RTXHDR 기능도 도입했습니다. 공식 소개는 다음과 같습니다. RTXHDR은 HDR(High Dynamic Range)의 화려한 시각 효과를 게임에 원활하게 도입할 수 있는 새로운 AI 기반 프리스타일 필터입니다. HDR을 지원합니다. 다양한 DirectX 및 Vulkan 기반 게임에서 이 기능을 사용하려면 HDR 호환 모니터만 있으면 됩니다. 플레이어가 RTXHDR 기능을 활성화하면 HD를 지원하지 않더라도 게임이 실행됩니다.

Nvidia RTX 50 시리즈 그래픽 카드에는 기본적으로 16핀 PCIe Gen 6 전원 공급 장치 인터페이스가 장착되어 있는 것으로 알려졌습니다. Nvidia RTX 50 시리즈 그래픽 카드에는 기본적으로 16핀 PCIe Gen 6 전원 공급 장치 인터페이스가 장착되어 있는 것으로 알려졌습니다. Feb 20, 2024 pm 12:00 PM

2월 19일 이 웹사이트의 소식에 따르면, Moore의 LawisDead 채널 최신 영상에서 앵커 Tom은 Nvidia GeForce RTX50 시리즈 그래픽 카드에 기본적으로 PCIeGen6 16핀 전원 공급 장치 인터페이스가 탑재될 것이라고 밝혔습니다. Tom은 고급형 GeForceRTX5080 및 GeForceRTX5090 시리즈 외에도 중급형 GeForceRTX5060도 새로운 전원 공급 장치 인터페이스를 지원할 것이라고 말했습니다. Nvidia는 향후 각 GeForce RTX50 시리즈에 공급망을 단순화하기 위해 PCIeGen6 16핀 전원 공급 장치 인터페이스가 장착될 것이라는 명확한 요구 사항을 설정한 것으로 알려졌습니다. 이 사이트에 첨부된 스크린샷은 다음과 같습니다. Tom은 또한 GeForceRTX5090이

NVIDIA RTX 4070 및 4060 Ti FE 그래픽 카드는 각각 권장 소매 가격인 4599/2999위안 아래로 떨어졌습니다. NVIDIA RTX 4070 및 4060 Ti FE 그래픽 카드는 각각 권장 소매 가격인 4599/2999위안 아래로 떨어졌습니다. Feb 22, 2024 pm 09:43 PM

2월 22일 이 사이트의 뉴스에 따르면 일반적으로 NVIDIA와 AMD는 채널 가격에 제한을 두고 있으며, 개인적으로 가격을 대폭 낮추는 일부 딜러도 처벌받을 예정입니다. 예를 들어 AMD는 최근 6750GRE 그래픽 카드를 아래 가격에 판매한 딜러를 처벌했습니다. 최저 가격이 처벌되었습니다. 이 사이트에서는 NVIDIA GeForce RTX 4070 및 4060 Ti가 사상 최저 수준으로 떨어졌음을 확인했습니다. 해당 창립자 버전, 즉 그래픽 카드의 공개 버전은 현재 JD.com 자체 운영 매장에서 200위안 쿠폰을 받을 수 있습니다. 가격은 4,599위안, 2,999위안. 물론 타사 매장을 고려하면 가격이 더 낮아질 것입니다. 매개변수 측면에서 RTX4070 그래픽 카드에는 5888CUDA 코어가 있고 12GBGDDR6X 메모리를 사용하며 비트 폭은 192bi입니다.

NVIDIA 대화 모델 ChatQA는 버전 2.0으로 발전했으며 컨텍스트 길이는 128K로 언급되었습니다. NVIDIA 대화 모델 ChatQA는 버전 2.0으로 발전했으며 컨텍스트 길이는 128K로 언급되었습니다. Jul 26, 2024 am 08:40 AM

오픈 LLM 커뮤니티는 백개의 꽃이 피어 경쟁하는 시대입니다. Llama-3-70B-Instruct, QWen2-72B-Instruct, Nemotron-4-340B-Instruct, Mixtral-8x22BInstruct-v0.1 등을 보실 수 있습니다. 훌륭한 연기자. 그러나 GPT-4-Turbo로 대표되는 독점 대형 모델과 비교하면 개방형 모델은 여전히 ​​많은 분야에서 상당한 격차를 보이고 있습니다. 일반 모델 외에도 프로그래밍 및 수학을 위한 DeepSeek-Coder-V2, 시각 언어 작업을 위한 InternVL과 같이 핵심 영역을 전문으로 하는 일부 개방형 모델이 개발되었습니다.

'AI Factory”는 전체 소프트웨어 스택의 재구성을 촉진하고 NVIDIA는 사용자가 배포할 수 있도록 Llama3 NIM 컨테이너를 제공합니다. 'AI Factory”는 전체 소프트웨어 스택의 재구성을 촉진하고 NVIDIA는 사용자가 배포할 수 있도록 Llama3 NIM 컨테이너를 제공합니다. Jun 08, 2024 pm 07:25 PM

이 사이트는 6월 2일 진행 중인 Huang Jen-Hsun 2024 타이페이 컴퓨터 쇼 기조 연설에서 Huang Jen-Hsun이 생성 인공 지능이 전체 소프트웨어 스택의 재구성을 촉진할 것이라고 소개하고 NIM(Nvidia Inference Microservices) 클라우드를 시연했다고 보도했습니다. 네이티브 마이크로서비스. NVIDIA는 "AI 공장"이 새로운 산업 혁명을 일으킬 것이라고 믿습니다. Huang Renxun은 Microsoft가 개척한 소프트웨어 산업을 예로 들어 생성 인공 지능이 전체 스택 재편을 촉진할 것이라고 믿습니다. 모든 규모의 기업이 AI 서비스를 쉽게 배포할 수 있도록 NVIDIA는 올해 3월 NIM(Nvidia Inference Microservices) 클라우드 네이티브 마이크로서비스를 출시했습니다. NIM+는 출시 시간을 단축하도록 최적화된 클라우드 기반 마이크로서비스 제품군입니다.

AI 거대 엔비디아와의 여러 변신과 협력 끝에 Vanar Chain이 30일 만에 4.6배 급등한 이유는 무엇입니까? AI 거대 엔비디아와의 여러 변신과 협력 끝에 Vanar Chain이 30일 만에 4.6배 급등한 이유는 무엇입니까? Mar 14, 2024 pm 05:31 PM

최근 Layer1 블록체인 VanarChain은 높은 성장률과 AI 거대 NVIDIA와의 협력으로 시장의 주목을 받고 있습니다. VanarChain의 인기 뒤에는 여러 브랜드 변신을 거치는 것 외에도 메인 게임, 메타버스, AI 등 인기 있는 컨셉도 적용되어 많은 인기와 화제를 불러일으켰습니다. 변형 이전에 TerraVirtua로 알려진 Vanar는 유료 구독을 지원하고 가상 현실(VR) 및 증강 현실(AR) 콘텐츠를 제공하며 암호화폐 결제를 허용하는 플랫폼으로 2018년에 설립되었습니다. 이 플랫폼은 공동 창립자인 Gary Bracey와 Jawad Ashraf에 의해 만들어졌으며, Gary Bracey는 비디오 게임 제작 및 개발에 폭넓은 경험을 갖고 있습니다.

Love와 Deep Space에서 치명타율을 높이는 방법 Love와 Deep Space에서 치명타율을 높이는 방법 Mar 23, 2024 pm 01:31 PM

Love와 Deep Sky의 캐릭터들은 다양한 수치적 속성을 가지고 있습니다. 게임 내 각 속성은 고유한 역할을 가지고 있으며, 치명타율 속성은 캐릭터의 데미지에 영향을 미치며, 이는 매우 중요한 속성이라고 할 수 있습니다. 다음은 이 속성을 향상시키는 방법이므로 알고 싶은 플레이어는 살펴보십시오. 방법 1. 러브와 딥 스페이스의 치명타율을 높이는 핵심 방법 80%의 치명타율을 달성하기 위한 핵심은 손에 있는 6장의 카드의 치명타 속성의 합에 있습니다. 코로나 카드 선택: 두 개의 코로나 카드를 선택할 때 핵심 α 및 핵심 β 하위 속성 항목 중 적어도 하나가 치명타 속성인지 확인하세요. 루나 코로나 카드의 장점: 루나 코로나 카드는 기본 속성에 치명타를 포함할 뿐만 아니라 레벨 60에 도달하고 돌파하지 못한 경우 각 카드는 4.1%의 치명타를 제공할 수 있습니다.

TrendForce: Nvidia의 Blackwell 플랫폼 제품으로 TSMC의 CoWoS 생산 능력이 올해 150% 증가합니다. TrendForce: Nvidia의 Blackwell 플랫폼 제품으로 TSMC의 CoWoS 생산 능력이 올해 150% 증가합니다. Apr 17, 2024 pm 08:00 PM

4월 17일 이 사이트의 뉴스에 따르면 TrendForce는 최근 Nvidia의 새로운 Blackwell 플랫폼 제품에 대한 수요가 강세를 보이고 있으며, 이로 인해 TSMC의 전체 CoWoS 패키징 생산 능력이 2024년에 150% 이상 증가할 것으로 예상된다는 보고서를 발표했습니다. NVIDIA Blackwell의 새로운 플랫폼 제품에는 B 시리즈 GPU와 NVIDIA 자체 GraceArm CPU를 통합한 GB200 가속기 카드가 포함됩니다. TrendForce는 현재 공급망이 GB200에 대해 매우 낙관적이며, 출하량이 2025년에 100만 개를 초과할 것으로 예상되며 이는 Nvidia 고급 GPU의 40~50%를 차지할 것으로 확인했습니다. 엔비디아는 하반기에 GB200, B100 등의 제품을 출시할 계획이지만, 업스트림 웨이퍼 패키징에는 더욱 복잡한 제품을 채택해야 합니다.

See all articles