Google의 슈퍼 AI 슈퍼컴퓨터가 NVIDIA A100을 압도했습니다! TPU v4 성능 10배 향상, 세부정보 최초 공개
Google은 당시 가장 강력한 AI 칩인 TPU v4를 이르면 2020년에 자체 데이터 센터에 배포했습니다.
하지만 올해 4월 4일이 되어서야 Google은 이 AI 슈퍼컴퓨터의 기술적 세부 사항을 처음으로 발표했습니다.
논문 주소: https://arxiv.org/abs/2304.01433
TPU v3에 비해 TPU v4의 성능은 2.1배 향상되었으며, 4096개의 칩을 통합한 후 성능이 향상되었습니다. 슈퍼컴퓨팅 성능이 10배 향상되었습니다.
또한 Google은 자체 칩이 NVIDIA A100보다 빠르고 에너지 효율적이라고 주장합니다.
A100과 경쟁하면 속도가 1.7배 빠릅니다
문서에서 Google은 비슷한 크기의 시스템에서 TPU v4가 Nvidia A100보다 1.7배 더 나은 성능을 제공하는 동시에 에너지 효율성도 향상시킬 수 있다고 밝혔습니다. 1.9배.
또한 Google의 슈퍼컴퓨팅 속도는 Graphcore IPU Bow보다 약 4.3~4.5배 빠릅니다.
Google은 TPU v4 패키지와 회로 기판에 탑재된 4개의 패키지를 선보였습니다.
TPU v3과 마찬가지로 각 TPU v4에는 2개의 TensorCore(TC)가 포함되어 있습니다. 각 TC에는 4개의 128x128 MXU(행렬 곱셈 장치), 128개 채널(채널당 16개의 ALU)이 있는 벡터 처리 장치(VPU) 및 16MiB 벡터 메모리(VMEM)가 포함되어 있습니다.
두 TC는 128MiB 공통 메모리(CMEM)를 공유합니다.
A100 칩이 구글의 4세대 TPU와 동시에 출시되었다는 점에 주목할 필요가 있는데 구체적인 성능을 비교하면 어떨까?
Google은 5개의 MLPerf 벤치마크에서 개별적으로 각 DSA의 가장 빠른 성능을 시연했습니다. 여기에는 BERT, ResNET, DLRM, RetinaNet 및 MaskRCNN이 포함됩니다.
그 중 Graphcore IPU는 BERT 및 ResNET에 결과를 제출했습니다.
다음은 ResNet과 BERT에서 두 시스템의 결과를 보여줍니다. 점 사이의 점선은 칩 수에 따른 보간입니다.
TPU v4 및 A100에 대한 MLPerf 결과는 IPU보다 더 큰 시스템으로 확장됩니다(4096 칩 대 256 칩).
비슷한 크기의 시스템에서 TPU v4는 BERT의 A100보다 1.15배 빠르며 IPU보다 약 4.3배 빠릅니다. ResNet의 경우 TPU v4는 각각 1.67배, 약 4.5배 더 빠릅니다.
MLPerf 벤치마크의 전력 사용량에서 A100은 평균 1.3배~1.9배 더 많은 전력을 사용했습니다.
피크 FLOPS가 실제 성능을 예측합니까? 기계 학습 분야의 많은 사람들은 초당 최대 부동 소수점 연산이 성능을 나타내는 좋은 지표라고 믿지만 실제로는 그렇지 않습니다.
예를 들어 TPU v4는 초당 최대 부동 소수점 연산에서 1.10배의 이점만 있음에도 불구하고 동일한 크기 시스템의 IPU Bow보다 2개의 MLPerf 벤치마크에서 4.3~4.5배 더 빠릅니다.
또 다른 예는 A100의 초당 최대 부동 소수점 연산이 TPU v4의 1.13배이지만 동일한 수의 칩에 대해 TPU v4가 1.15배~1.67배 더 빠르다는 것입니다.
아래에 표시된 것처럼 Roofline 모델은 최대 FLOPS/초와 메모리 대역폭 간의 관계를 보여주는 데 사용됩니다.
그래서 질문은 왜 Google이 Nvidia의 최신 H100과 비교하지 않는 걸까요?
Google은 H100이 Google 칩 출시 이후 새로운 기술을 사용하여 만들어졌기 때문에 자사의 4세대 제품을 Nvidia의 현재 주력 제품인 H100 칩과 비교하지 않았다고 밝혔습니다.
그러나 Google은 Nvidia H100과 경쟁하기 위해 새로운 TPU를 개발하고 있음을 암시했지만 자세한 내용은 제공하지 않았습니다. Google 연구원인 Jouppi는 Reuters와의 인터뷰에서 Google이 "미래 칩을 위한 생산 라인"을 보유하고 있다고 말했습니다.
TPU 대 GPU
ChatGPT와 Bard가 "싸움"을 벌이는 동안 두 거대 기업도 이를 계속 실행하기 위해 뒤에서 열심히 노력하고 있습니다. 바로 Nvidia의 CUDA 기반 GPU(그래픽 처리 장치)와 Google의 맞춤형 TPU(Tensor)입니다. 처리 장치).
즉, 이것은 더 이상 ChatGPT 대 Bard가 아니라 TPU 대 GPU와 그들이 행렬 곱셈을 얼마나 효율적으로 수행할 수 있는지에 관한 것입니다.
NVIDIA의 GPU는 뛰어난 하드웨어 아키텍처 설계로 인해 행렬 곱셈 작업에 매우 적합합니다. 즉, 여러 CUDA 코어 간의 병렬 처리를 효과적으로 달성하는 것입니다.
따라서 GPU에서의 모델 훈련은 2012년부터 딥러닝 분야에서 합의가 되었으며 오늘날까지도 변함이 없습니다.
NVIDIA DGX 출시로 NVIDIA는 지적 재산권 부족으로 경쟁업체가 제공할 수 없는 거의 모든 AI 작업에 대한 원스톱 하드웨어 및 소프트웨어 솔루션을 제공할 수 있게 되었습니다.
이에 반해 Google은 2016년에 1세대 텐서 처리 장치(TPU)를 출시했습니다. 여기에는 텐서 컴퓨팅에 최적화된 맞춤형 ASIC(Application-Specific Integrated Circuit)이 포함되었을 뿐만 아니라 자체 TensorFlow 프레임워크도 포함되어 있습니다. 최적화되었습니다. 이는 또한 행렬 곱셈 외에 다른 AI 컴퓨팅 작업에서도 TPU에 이점을 제공하고 미세 조정 및 추론 작업을 가속화할 수도 있습니다.
또한 Google DeepMind의 연구원들은 더 나은 행렬 곱셈 알고리즘인 AlphaTensor를 만드는 방법도 발견했습니다.
Google은 자체 개발한 기술과 새로운 AI 컴퓨팅 최적화 방법을 통해 좋은 결과를 얻었음에도 불구하고 Microsoft와 NVIDIA 간의 장기적인 심층 협력은 각자의 축적을 활용하여 양 당사자의 범위를 동시에 확장했습니다. 업계의 경쟁 우위.
4세대 TPU
2021년 Google I/O 컨퍼런스에서 Pichai는 Google의 최신 세대 AI 칩 TPU v4를 처음으로 발표했습니다.
"이것은 우리가 Google에 배포한 시스템 중 가장 빠른 시스템이며 우리에게 역사적인 이정표입니다."
이러한 개선은 회사가 AI 슈퍼컴퓨터를 구축하는 계기가 되었습니다. 이것이 경쟁의 핵심 포인트입니다. Google의 Bard 또는 OpenAI의 ChatGPT와 같은 대규모 언어 모델의 매개변수 크기가 폭발적으로 증가했습니다.
이는 단일 칩이 저장할 수 있는 용량보다 훨씬 크고, 컴퓨팅 파워에 대한 수요가 거대한 "블랙홀"이라는 것을 의미합니다.
따라서 이러한 대형 모델은 수천 개의 칩에 분산되어야 하며, 그런 다음 해당 칩은 모델을 훈련하기 위해 몇 주 또는 그 이상 동안 함께 작동해야 합니다.
현재 구글이 공개한 언어 모델 중 최대 규모인 PaLM은 5,400억 개의 매개변수를 갖고 있는데, 이를 4,000칩 슈퍼컴퓨터 2대로 나누어 50일 이내에 학습시킨다.
Google은 자사의 슈퍼컴퓨터가 칩 간의 연결을 쉽게 재구성하여 문제를 방지하고 성능 조정을 수행할 수 있다고 말했습니다.
Google 연구원 Norm Jouppi와 Google의 저명한 엔지니어 David Patterson은 시스템에 대한 블로그 게시물에서 다음과 같이 썼습니다.
"회로 전환을 사용하면 실패한 구성 요소를 쉽게 우회할 수 있습니다. 이러한 유연성을 통해 울트라 컴퓨팅 상호 연결 토폴로지를 변경할 수도 있습니다.
Google은 현재 슈퍼컴퓨터에 대한 세부 정보를 공개하고 있지만 2020년부터 오클라호마에 있었습니다. Mayes County 데이터 센터에서 온라인으로 접속하세요.
Google은 Midjourney가 이 시스템을 사용하여 모델을 훈련했으며 최신 버전의 V5를 사용하면 누구나 놀라운 이미지 생성을 볼 수 있다고 말했습니다.
최근 Pichai는 New York Times와의 인터뷰에서 Bard가 LaMDA에서 PaLM으로 이적할 것이라고 말했습니다.
이제 TPU v4 슈퍼컴퓨터의 축복으로 바드는 더욱 강해질 것입니다.
위 내용은 Google의 슈퍼 AI 슈퍼컴퓨터가 NVIDIA A100을 압도했습니다! TPU v4 성능 10배 향상, 세부정보 최초 공개의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











CentOS 종료 명령은 종료이며 구문은 종료 [옵션] 시간 [정보]입니다. 옵션은 다음과 같습니다. -H 시스템 중지 즉시 옵션; -P 종료 후 전원을 끕니다. -R 다시 시작; -대기 시간. 시간은 즉시 (현재), 분 (분) 또는 특정 시간 (HH : MM)으로 지정할 수 있습니다. 추가 정보는 시스템 메시지에 표시 될 수 있습니다.

CentOS 시스템에서 HDFS 구성 확인에 대한 완전한 안내서이 기사에서는 CentOS 시스템에서 HDF의 구성 및 실행 상태를 효과적으로 확인하는 방법을 안내합니다. 다음 단계는 HDF의 설정 및 작동을 완전히 이해하는 데 도움이됩니다. Hadoop 환경 변수 확인 : 먼저 Hadoop 환경 변수가 올바르게 설정되어 있는지 확인하십시오. 터미널에서 다음 명령을 실행하여 Hadoop이 올바르게 설치되고 구성되었는지 확인하십시오. Hadoopversion Check HDFS 구성 파일 : HDFS의 Core 구성 파일은/etc/hadoop/conf/directory에 있으며 Core-Site.xml 및 HDFS-Site.xml이 중요합니다. 사용

CentOS 시스템 하에서 Gitlab의 백업 및 복구 정책 데이터 보안 및 복구 가능성을 보장하기 위해 CentOS의 Gitlab은 다양한 백업 방법을 제공합니다. 이 기사는 완전한 GITLAB 백업 및 복구 전략을 설정하는 데 도움이되는 몇 가지 일반적인 백업 방법, 구성 매개 변수 및 복구 프로세스를 자세히 소개합니다. 1. 수동 백업 gitlab-rakegitlab : 백업 : 명령을 작성하여 수동 백업을 실행하십시오. 이 명령은 gitlab 저장소, 데이터베이스, 사용자, 사용자 그룹, 키 및 권한과 같은 주요 정보를 백업합니다. 기본 백업 파일은/var/opt/gitlab/backups 디렉토리에 저장됩니다. /etc /gitlab을 수정할 수 있습니다

CentOS 시스템에서 Pytorch GPU 가속도를 활성화하려면 Cuda, Cudnn 및 GPU 버전의 Pytorch를 설치해야합니다. 다음 단계는 프로세스를 안내합니다. CUDA 및 CUDNN 설치 CUDA 버전 호환성 결정 : NVIDIA-SMI 명령을 사용하여 NVIDIA 그래픽 카드에서 지원하는 CUDA 버전을보십시오. 예를 들어, MX450 그래픽 카드는 CUDA11.1 이상을 지원할 수 있습니다. Cudatoolkit 다운로드 및 설치 : NVIDIACUDATOOLKIT의 공식 웹 사이트를 방문하여 그래픽 카드에서 지원하는 가장 높은 CUDA 버전에 따라 해당 버전을 다운로드하여 설치하십시오. CUDNN 라이브러리 설치 :

Centos에 MySQL을 설치하려면 다음 단계가 필요합니다. 적절한 MySQL Yum 소스 추가. mysql 서버를 설치하려면 yum install mysql-server 명령을 실행하십시오. mysql_secure_installation 명령을 사용하여 루트 사용자 비밀번호 설정과 같은 보안 설정을 작성하십시오. 필요에 따라 MySQL 구성 파일을 사용자 정의하십시오. MySQL 매개 변수를 조정하고 성능을 위해 데이터베이스를 최적화하십시오.

Docker는 Linux 커널 기능을 사용하여 효율적이고 고립 된 응용 프로그램 실행 환경을 제공합니다. 작동 원리는 다음과 같습니다. 1. 거울은 읽기 전용 템플릿으로 사용되며, 여기에는 응용 프로그램을 실행하는 데 필요한 모든 것을 포함합니다. 2. Union 파일 시스템 (Unionfs)은 여러 파일 시스템을 스택하고 차이점 만 저장하고 공간을 절약하고 속도를 높입니다. 3. 데몬은 거울과 컨테이너를 관리하고 클라이언트는 상호 작용을 위해 사용합니다. 4. 네임 스페이스 및 CGroup은 컨테이너 격리 및 자원 제한을 구현합니다. 5. 다중 네트워크 모드는 컨테이너 상호 연결을 지원합니다. 이러한 핵심 개념을 이해 함으로써만 Docker를 더 잘 활용할 수 있습니다.

Centos 시스템에서 Gitlab 로그를보기위한 완전한 안내서이 기사에서는 메인 로그, 예외 로그 및 기타 관련 로그를 포함한 CentOS 시스템에서 다양한 Gitlab 로그를 보는 방법을 안내합니다. 로그 파일 경로는 Gitlab 버전 및 설치 방법에 따라 다를 수 있습니다. 다음 경로가 존재하지 않으면 GitLab 설치 디렉토리 및 구성 파일을 확인하십시오. 1. 기본 gitlab 로그보기 다음 명령을 사용하여 Gitlabrails 응용 프로그램의 기본 로그 파일을 보려면 다음 명령 : 명령 : sudocat/var/log/gitlab/gitlab-rails/production.log이 명령은 제품을 표시합니다.

CentOS 시스템에 대한 Pytorch 분산 교육에는 다음 단계가 필요합니다. Pytorch 설치 : 전제는 Python과 PIP가 CentOS 시스템에 설치된다는 것입니다. CUDA 버전에 따라 Pytorch 공식 웹 사이트에서 적절한 설치 명령을 받으십시오. CPU 전용 교육의 경우 다음 명령을 사용할 수 있습니다. PipinStalltorchtorchvisiontorchaudio GPU 지원이 필요한 경우 CUDA 및 CUDNN의 해당 버전이 설치되어 있는지 확인하고 해당 PyTorch 버전을 설치하려면 설치하십시오. 분산 환경 구성 : 분산 교육에는 일반적으로 여러 기계 또는 단일 기계 다중 GPU가 필요합니다. 장소
