AMD의 "궁극의 무기"가 여기에 있습니다!
6월 13일(동부 표준시), AMD는 "AMD 데이터 센터 및 인공 지능 기술 프리미어"에서 ChatGPT 및 기타 생성 AI의 사용을 가속화할 수 있는 현재까지 가장 진보된 인공 지능 GPU MI300X 칩을 출시할 것이라고 발표했습니다. 처리 속도가 빠르며 최대 192GB의 메모리를 사용할 수 있습니다.
반면에 NVIDIA의 H100 칩은 120GB의 메모리만 지원합니다. 시장에서는 일반적으로 이는 신흥 시장에서 NVIDIA의 지배력이 도전받을 수 있음을 의미한다고 믿습니다. MI300X는 올해 말 일부 고객을 대상으로 배송을 시작할 예정입니다.
투자자들은 AMD가 AI 칩 분야에서 Nvidia와 경쟁할 것으로 기대하지만, 분석가들은 이러한 추세를 따르지 않고 AMD의 강력한 무기를 칭찬했지만, AMD가 인공 지능 칩 분야에서 여전히 도전하고 싶어한다는 점을 합리적으로 지적했습니다. 업계 리더가 되려면 갈 길이 멀고, 이 칩만으로는 이를 달성할 수 없습니다.
Citi 칩 분석가 Chris Danely는 최근 보고서에서 AMD의 MI300 칩이 엄청난 디자인 승리를 거둔 것 같지만 성능 한계와 실패 이력을 고려할 때 그래픽/CPU IC의 지속 가능성에 대해 의구심을 표명했습니다. 우리는 AMD가 Intel로부터 시장 점유율을 계속해서 확보할 것으로 기대하고 있으며, AMD의 새로운 Genoa 제품은 예상보다 느린 속도로 성장하고 있는 것으로 보입니다."
같은 날 Cambrian-AI Research LLC의 창립자이자 수석 분석가인 Karl Freund도 Forbes에 다음과 같이 썼습니다. AMD가 새로 출시한 칩은 Nvidia의 H100 칩과 비교할 때 시장 모든 당사자로부터 큰 관심을 불러일으켰지만 MI300X는 주로 다음 네 가지 측면에서 몇 가지 과제가 있습니다.
NVIDIA는 오늘부터 H100의 전체 배송을 시작하며, 회사는 AI 업계에서 단연 최대 규모의 소프트웨어 및 연구원 생태계를 보유하고 있습니다.
둘째, MI300X 칩은 192GB의 메모리를 제공하지만 이 시점에서는 Nvidia가 곧 따라잡을 것이며 심지어 같은 기간에 이를 추월할 수도 있으므로 이는 큰 이점이 아닙니다. MI300X는 매우 비싸며 Nvidia의 H100에 비해 비용상 큰 이점이 없습니다.
세 번째가 진짜 핵심입니다. MI300에는 H100과 같은 Transformer Engine(NVIDIA GPU에서 Transformer 모델을 가속화하기 위한 라이브러리)이 없습니다. 이는 LLM(대형 언어 모델)의 성능을 두 배로 높일 수 있습니다. 수천 개의 (NVIDIA) GPU로 새 모델을 훈련하는 데 1년이 걸린다면 AMD 하드웨어로 훈련하는 데 2~3년이 더 걸리거나 문제 해결을 위해 3배 많은 GPU를 투자할 수도 있습니다.
마지막으로 AMD는 아직 벤치마크를 공개하지 않았습니다. 그러나 LLM을 훈련하고 실행할 때의 성능은 시스템 설계와 GPU에 따라 달라지므로 올해 후반에 업계 경쟁사와 몇 가지 비교를 하게 되기를 기대합니다.
그러나 Freund는 MI300X가 Nvidia의 GH200 Grace Hopper 슈퍼 칩의 대안이 될 수도 있다고 덧붙였습니다. OpenAI 및 Microsoft와 같은 회사에는 그러한 대안이 필요하며, 그는 AMD가 이러한 회사에 거부할 수 없는 제안을 제공할 것이라고 의심하지만 AMD는 Nvidia에서 많은 시장 점유율을 빼앗지는 않을 것입니다.
AMD의 주가는 올해 초부터 94% 상승했습니다. 어제 미국 주식 시장은 3.61% 하락한 반면, 경쟁업체인 Nvidia는 3.90% 상승하여 시장 가치가 처음으로 1조 달러를 넘어섰습니다. 시간.
사실 Nvidia가 앞서는 것은 칩 때문만이 아니라 10년 넘게 AI 연구자들에게 제공해 온 소프트웨어 도구 때문이기도 합니다. Moor Insights & Strategy 분석가 Anshel Sag는 "AMD가 하드웨어 성능 측면에서 경쟁력이 있다고 해도 사람들은 여전히 자사의 소프트웨어 솔루션이 Nvidia와 경쟁할 수 있다고 확신하지 못합니다."라고 말했습니다.
기술 기업 간 건전한 경쟁을 촉진할 것으로 예상됩니다미국 기술 평론가 빌리 더버스타인(Billy Duberstein)은 12일 ChatGPT의 인기로 AI가 새로운 분야를 개척한 것 같고, 여러 산업 분야의 선두 기업들 사이에서 시장 점유율을 차지하기 위한 경쟁이 시작된 것이라고 지적했다.
NVIDIA나 AMD가 이 경쟁에서 승리하든 모든 기술 회사가 이익을 얻을 것입니다.
Duberstein은 잠재 고객이 MI300에 관심이 많다고 말했습니다. 그가 인용한 Digital Times의 6월 8일 기사에 따르면, 데이터 센터 고객은 Nvidia 제품에 대한 대안을 필사적으로 찾고 있습니다. 엔비디아는 현재 AI 서버 분야 시장점유율 60~70%를 차지하며 고수익, 고성장 인공지능 GPU 시장에서 지배적인 위치를 차지하고 있다.Duberstein은 계속해서 Nvidia H100 서버의 현재 높은 가격을 고려할 때 데이터 센터 운영자는 Nvidia가 AI 칩 가격을 낮추는 데 도움이 되는 제3자 경쟁자를 갖고 싶어한다고 지적했습니다. 따라서
이것은 AMD에게는 큰 이점이고 Nvidia에게는 도전입니다. 이는 모든 시장 참여자에게 좋은 수익성을 가져다 줄 수 있습니다.
지난 달 Morgan Stanley의 분석가 Joseph Moore는 AMD의 인공 지능 수익에 대한 예측을 조정하여 당초 예상보다 "몇 배" 더 높을 수 있다고 말했습니다.GPU AI 산업 체인을 놓고 경쟁하는 중국 기업은 계속해서 수혜를 입을 것으로 예상됩니다
현재 전 세계 주요 기술 기업들이 AI 입장권을 놓고 경쟁하고 있습니다. 해외 거대 기업에 비해 중국 거대 기술 기업은 GPU 구매가 더 시급하다.
'LatePost'에 따르면 올해 춘절 이후 클라우드 컴퓨팅 사업을 하는 중국의 주요 인터넷 기업들이 엔비디아에 대량 주문을 했다고 합니다. 바이트는 올해 엔비디아에 10억 달러 이상의 GPU를 주문했고, 또 다른 대기업의 주문도 최소 10억 위안을 넘어섰다. 그리고 Byte의 올해 주문만 해도 작년에 NVIDIA가 중국에서 판매한 상용 GPU의 총 수에 가까울 수 있습니다.
Sinolink Securities는 AMD의 새로운 움직임에 대해 계속 낙관하고 있으며 AI 산업 체인에 대해 계속 낙관하고 있습니다. 기관은 생성 AI의 지속적인 인기가 AI 칩에 대한 강력한 수요를 주도했다고 믿고 있습니다. NVIDIA의 2분기 데이터 센터 사업 지침은 기대치를 뛰어 넘었으며 TSMC의 4nm, 5nm 및 7nm 용량 활용도가 크게 증가한 것이 가장 좋은 증거입니다.
Sinolink Securities는 업계 체인 조사에 따르면, 선도적인 광학 모듈-DSP 칩 제조업체가 AI 관련 사업이 향후 빠르게 성장할 것으로 예상한다고 밝혔으며, 선도적인 CPU/GPU 방열판 회사는 AI GPU가 크게 성장했다고 밝혔습니다. 2쿼터와 3쿼터. 주요 기업들은 다음 분기에 서버 PCIe 리타이머 칩에 대한 수요가 가속화되고 점차 증가할 것이라고 말했습니다. 2024년부터 2025년까지 AI 산업의 신제품이 AI 산업 체인의 발전을 촉진하고 지속적인 경제적 이익을 가져올 것으로 예상된다.
위 내용은 NVIDIA GPU를 사용할 수 없는 대형 AI 모델을 위해 AMD 칩이 여기 있습니다!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!