목차
머신러닝 기술 시설이 직면한 과제
솔루션 및 목표
AI/ML 리더 커뮤니티
OpenXLA 생태계: 성능, 확장성 및 이식성
OpenXLA의 주요 특징
기술 주변기기 일체 포함 통합 AI 개발: Google OpenXLA는 오픈 소스이며 모든 프레임워크와 AI 칩을 통합합니다.

통합 AI 개발: Google OpenXLA는 오픈 소스이며 모든 프레임워크와 AI 칩을 통합합니다.

Apr 29, 2023 am 11:55 AM
기계 학습 ai

지난해 10월 Google Cloud Next 2022 행사에서 OpenXLA 프로젝트가 공식적으로 등장했습니다. Google은 Alibaba, AMD, Arm, Amazon, Intel, Nvidia 및 기타 기술 기업을 포함한 기술 기업이 추진하는 오픈소스 AI 프레임워크와 협력했습니다. 기계 학습 프레임워크를 통해 기계 학습 개발자는 프레임워크와 하드웨어를 사전에 선택할 수 있습니다.

수요일, Google은 OpenXLA 프로젝트가 공식적으로 오픈 소스라고 발표했습니다.

통합 AI 개발: Google OpenXLA는 오픈 소스이며 모든 프레임워크와 AI 칩을 통합합니다.

프로젝트 링크: https://github.com/openxla/xla

다양한 기계 학습 프레임워크 및 하드웨어 플랫폼과 작동하는 통합 기계 학습 컴파일러를 생성함으로써 OpenXLA는 기계 학습 애플리케이션을 제공하고 더 큰 코드 이식성을 제공합니다. 이는 AI 연구 및 응용을 위한 중요한 프로젝트이며 Jeff Dean도 이를 소셜 네트워크에서 홍보했습니다.

통합 AI 개발: Google OpenXLA는 오픈 소스이며 모든 프레임워크와 AI 칩을 통합합니다.

오늘날 기계 학습 개발 및 배포는 프레임워크, 하드웨어 및 사용 사례에 따라 달라질 수 있는 단편화된 인프라의 영향을 받습니다. 이러한 격리는 개발자의 작업 속도를 제한하고 모델 이식성, 효율성 및 생산에 장벽을 만듭니다.

3월 8일, Google과 다른 업체들은 XLA, StableHLO 및 IREE 리포지토리가 포함된 OpenXLA 프로젝트를 개시하면서 이러한 장벽을 제거하기 위한 중요한 조치를 취했습니다.

OpenXLA는 AI/머신러닝 업계 리더들이 공동으로 개발한 오픈 소스 ML 컴파일러 생태계입니다. 기여자에는 Alibaba, AWS, AMD, Apple, Arm, Cerebras, Google, Graphcore, Hugging Face, Intel, Meta 및 NVIDIA가 있습니다. 이를 통해 개발자는 다양한 하드웨어에서 효율적인 교육과 서비스를 제공하기 위해 모든 주요 기계 학습 프레임워크의 모델을 컴파일하고 최적화할 수 있습니다. OpenXLA를 사용하는 개발자는 교육 시간, 처리량, 서비스 대기 시간, 궁극적으로 릴리스 및 컴퓨팅 비용이 크게 향상되는 것을 확인할 수 있습니다.

머신러닝 기술 시설이 직면한 과제

AI 기술이 실용화 단계에 진입함에 따라 많은 산업 분야의 개발 팀은 머신러닝을 사용하여 질병 예측 및 예방, 개인화된 학습 경험 및 탐색과 같은 현실 세계의 과제를 해결하고 있습니다. 블랙홀 물리학.

모델 매개변수 수가 기하급수적으로 증가하고 딥 러닝 모델에 필요한 계산량이 6개월마다 두 배로 증가함에 따라 개발자는 인프라의 최대 성능과 활용도를 추구하고 있습니다. 많은 팀이 데이터 센터의 에너지 효율적인 머신 러닝 전용 ASIC부터 더 빠른 응답 시간을 제공하는 AI 에지 프로세서에 이르기까지 다양한 하드웨어 모델을 활용하고 있습니다. 따라서 이러한 하드웨어 장치는 효율성을 높이기 위해 맞춤화되고 고유한 알고리즘과 소프트웨어 라이브러리를 사용합니다.

그러나 다른 하드웨어 장치를 현재 사용 중인 여러 프레임워크(예: TensorFlow, PyTorch)에 연결하는 공통 컴파일러가 없으면 기계 학습을 효율적으로 실행하기 위해 많은 노력을 기울여야 합니다. 실제로 개발자는 각 하드웨어 대상에 대한 모델 작업을 수동으로 최적화해야 합니다. 즉, 맞춤형 소프트웨어 라이브러리를 사용하거나 장치별 코드를 작성하려면 도메인 전문 지식이 필요합니다.

특수 기술을 사용하여 효율성을 높이면 프레임워크와 하드웨어 전반에 걸쳐 사일로화되고 일반화할 수 없는 경로가 발생하여 유지 관리 비용이 높아지고 결과적으로 공급업체에 종속되고 시스템 진행 속도가 느려지는 것은 역설입니다. 학습 발달 .

솔루션 및 목표

OpenXLA 프로젝트는 ML 인프라의 복잡성 전반에 걸쳐 확장되는 최첨단 ML 컴파일러를 제공합니다. 핵심 요소는 성능, 확장성, 이식성, 유연성 및 사용 편의성입니다. OpenXLA를 통해 우리는 AI의 개발 및 제공을 가속화하여 현실 세계에서 AI의 더 큰 잠재력을 실현하고자 합니다.

OpenXLA의 목표:

  • 모든 프레임워크에서 작동하고 전용 장치 백엔드 및 최적화에 액세스하는 통합 컴파일러 API를 사용하면 개발자가 다양한 하드웨어에 대해 선호하는 프레임워크에서 모든 모델을 쉽게 컴파일하고 최적화할 수 있습니다.
  • 현재 및 신흥 모델에 업계 최고의 성능을 제공하며, 여러 호스트 및 가속기로 확장하여 엣지 배포의 제약을 충족하고 향후 새로운 모델 아키텍처로 승격할 수도 있습니다.
  • 하드웨어 맞춤형 컴파일 흐름을 위해 고유한 사용 사례에 맞게 재구성할 수 있는 MLIR 기반 구성 요소를 개발자에게 제공하는 확장 가능한 계층형 기계 학습 컴파일러 플랫폼을 구축하세요.

AI/ML 리더 커뮤니티

현재 기계 학습 인프라에서 우리가 직면한 과제는 엄청나며 어떤 조직도 혼자 효과적으로 문제를 해결할 수 없습니다. OpenXLA 커뮤니티는 프레임워크에서 컴파일러, 런타임, 칩에 이르기까지 AI 스택의 다양한 수준에서 작업하는 개발자와 업계 리더를 하나로 모으므로 ML 공간에서 볼 수 있는 단편화를 해결하는 데 이상적으로 적합합니다.

오픈 소스 프로젝트인 OpenXLA는 다음 원칙을 준수합니다.

  • 동등한 지위: 개인은 소속에 관계없이 동등하게 기여합니다. 기술 리더는 가장 많은 시간과 에너지를 투자하는 사람입니다.
  • 존중의 문화: 모든 구성원은 커뮤니티 내에서의 지위에 관계없이 프로젝트 가치와 행동 강령을 지켜야 합니다.
  • 확장 가능하고 효율적인 거버넌스: 소규모 팀은 명확하지만 거의 사용되지 않는 업그레이드 경로를 통해 합의에 기반한 결정을 내립니다.
  • 투명성: 모든 결정과 근거는 대중에게 명확하게 공개되어야 합니다.

OpenXLA 생태계: 성능, 확장성 및 이식성

OpenXLA는 공통 컴파일러 인터페이스를 통해 모든 주요 프레임워크에서 지원되는 모듈식 도구 체인을 통해 기계 학습 개발자의 장벽을 제거하고 이식성을 활용합니다. 모델 표현을 표준화하고 도메인별 컴파일러를 제공합니다. 강력한 대상 지향 및 하드웨어별 최적화를 통해 툴체인에는 XLA, StableHLO 및 IREE가 포함되어 있으며 모두 MLIR을 활용합니다. 이는 기계 학습 모델이 하드웨어에서 일관되게 표현, 최적화 및 실행될 수 있도록 하는 컴파일러 인프라입니다.

통합 AI 개발: Google OpenXLA는 오픈 소스이며 모든 프레임워크와 AI 칩을 통합합니다.

OpenXLA의 주요 특징

기계 학습 사용 사례 범위

OpenXLA의 현재 사용은 DeepMind의 AlphaFold, GPT2 및 Alibaba Cloud Wait의 Swin Transformer를 포함한 다양한 ML 사용 사례를 포괄합니다. 모델이 완전히 훈련되고 Amazon.com에서 다중 모드 LLM 훈련을 수행합니다. Waymo와 같은 고객은 차량 내 실시간 추론을 위해 OpenXLA를 활용합니다. 또한 OpenXLA는 AMD RDNA™ 3가 장착된 로컬 시스템에서 Stable Diffusion 서비스를 최적화하는 데 사용됩니다.

최고의 성능, 즉시 사용 가능

OpenXLA를 사용하면 개발자가 장치별 코드를 작성하지 않고도 모델 성능을 쉽게 가속화할 수 있습니다. 대수식 단순화, 메모리 내 데이터 레이아웃 최적화, 최대 메모리 사용량 및 통신 오버헤드를 줄이기 위한 스케줄링 개선 등 전반적인 모델 최적화 기능을 갖추고 있습니다. 고급 운영자 융합 및 커널 생성은 장치 활용도를 향상시키고 메모리 대역폭 요구 사항을 줄이는 데 도움이 됩니다.

워크로드를 쉽게 확장하세요

효율적인 병렬화 알고리즘을 개발하려면 시간이 많이 걸리고 전문 지식이 필요합니다. GSPMD와 같은 기능을 사용하면 개발자는 키 텐서의 하위 집합에만 주석을 달기만 하면 됩니다. 그러면 컴파일러에서 이를 사용하여 병렬 계산을 자동으로 생성할 수 있습니다. 이를 통해 여러 하드웨어 호스트 및 가속기에 걸쳐 모델을 분할하고 효율적으로 병렬화하는 데 필요한 상당한 노력이 필요하지 않습니다.

이식성 및 선택성

OpenXLA는 AMD 및 NVIDIA GPU, x86 CPU 및 Arm 아키텍처, Google TPU와 같은 ML 가속기를 포함한 다양한 하드웨어 장치에 대한 기본 지원을 제공합니다. AWS Trainium 및 Inferentia, Graphcore IPU, Cerebras 웨이퍼 스케일 엔진 등. OpenXLA는 또한 OpenXLA의 입력 형식으로 사용되는 휴대용 계층인 StableHLO를 통해 TensorFlow, PyTorch 및 JAX를 지원합니다.

유연성

OpenXLA는 사용자에게 모델 핫스팟을 수동으로 조정할 수 있는 유연성을 제공합니다. 사용자 정의 호출과 같은 확장 메커니즘을 통해 사용자는 CUDA, HIP, SYCL, Triton 및 기타 커널 언어로 딥 러닝 기본 요소를 작성하여 하드웨어 기능을 최대한 활용할 수 있습니다.

StableHLO

StableHLO는 ML 프레임워크와 ML 컴파일러 사이의 이식 가능한 계층으로, 역학, 양자화 및 희소성을 위한 상위 수준 연산(HLO)을 지원하는 연산 집합입니다. 또한 MLIR 바이트코드로 직렬화하여 호환성을 보장할 수 있습니다. 모든 주요 ML 프레임워크(JAX, PyTorch, TensorFlow)는 StableHLO를 생성할 수 있습니다. 2023년에 Google은 PyTorch 팀과 긴밀히 협력하여 PyTorch 버전 2.0과의 통합을 달성할 계획입니다.

위 내용은 통합 AI 개발: Google OpenXLA는 오픈 소스이며 모든 프레임워크와 AI 칩을 통합합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Centos HDFS 구성을 확인하는 방법 Centos HDFS 구성을 확인하는 방법 Apr 14, 2025 pm 07:21 PM

CentOS 시스템에서 HDFS 구성 확인에 대한 완전한 안내서이 기사에서는 CentOS 시스템에서 HDF의 구성 및 실행 상태를 효과적으로 확인하는 방법을 안내합니다. 다음 단계는 HDF의 설정 및 작동을 완전히 이해하는 데 도움이됩니다. Hadoop 환경 변수 확인 : 먼저 Hadoop 환경 변수가 올바르게 설정되어 있는지 확인하십시오. 터미널에서 다음 명령을 실행하여 Hadoop이 올바르게 설치되고 구성되었는지 확인하십시오. Hadoopversion Check HDFS 구성 파일 : HDFS의 Core 구성 파일은/etc/hadoop/conf/directory에 있으며 Core-Site.xml 및 HDFS-Site.xml이 중요합니다. 사용

Centos Shutdown 명령 줄 Centos Shutdown 명령 줄 Apr 14, 2025 pm 09:12 PM

CentOS 종료 명령은 종료이며 구문은 종료 [옵션] 시간 [정보]입니다. 옵션은 다음과 같습니다. -H 시스템 중지 즉시 옵션; -P 종료 후 전원을 끕니다. -R 다시 시작; -대기 시간. 시간은 즉시 (현재), 분 (분) 또는 특정 시간 (HH : MM)으로 지정할 수 있습니다. 추가 정보는 시스템 메시지에 표시 될 수 있습니다.

Centos에서 Gitlab의 백업 방법은 무엇입니까? Centos에서 Gitlab의 백업 방법은 무엇입니까? Apr 14, 2025 pm 05:33 PM

CentOS 시스템 하에서 Gitlab의 백업 및 복구 정책 데이터 보안 및 복구 가능성을 보장하기 위해 CentOS의 Gitlab은 다양한 백업 방법을 제공합니다. 이 기사는 완전한 GITLAB 백업 및 복구 전략을 설정하는 데 도움이되는 몇 가지 일반적인 백업 방법, 구성 매개 변수 및 복구 프로세스를 자세히 소개합니다. 1. 수동 백업 gitlab-rakegitlab : 백업 : 명령을 작성하여 수동 백업을 실행하십시오. 이 명령은 gitlab 저장소, 데이터베이스, 사용자, 사용자 그룹, 키 및 권한과 같은 주요 정보를 백업합니다. 기본 백업 파일은/var/opt/gitlab/backups 디렉토리에 저장됩니다. /etc /gitlab을 수정할 수 있습니다

Centos 설치 MySQL Centos 설치 MySQL Apr 14, 2025 pm 08:09 PM

Centos에 MySQL을 설치하려면 다음 단계가 필요합니다. 적절한 MySQL Yum 소스 추가. mysql 서버를 설치하려면 yum install mysql-server 명령을 실행하십시오. mysql_secure_installation 명령을 사용하여 루트 사용자 비밀번호 설정과 같은 보안 설정을 작성하십시오. 필요에 따라 MySQL 구성 파일을 사용자 정의하십시오. MySQL 매개 변수를 조정하고 성능을 위해 데이터베이스를 최적화하십시오.

Centos에서 Gitlab 로그를 보는 방법 Centos에서 Gitlab 로그를 보는 방법 Apr 14, 2025 pm 06:18 PM

Centos 시스템에서 Gitlab 로그를보기위한 완전한 안내서이 기사에서는 메인 로그, 예외 로그 및 기타 관련 로그를 포함한 CentOS 시스템에서 다양한 Gitlab 로그를 보는 방법을 안내합니다. 로그 파일 경로는 Gitlab 버전 및 설치 방법에 따라 다를 수 있습니다. 다음 경로가 존재하지 않으면 GitLab 설치 디렉토리 및 구성 파일을 확인하십시오. 1. 기본 gitlab 로그보기 다음 명령을 사용하여 Gitlabrails 응용 프로그램의 기본 로그 파일을 보려면 다음 명령 : 명령 : sudocat/var/log/gitlab/gitlab-rails/production.log이 명령은 제품을 표시합니다.

Centos에서 Pytorch의 분산 교육을 운영하는 방법 Centos에서 Pytorch의 분산 교육을 운영하는 방법 Apr 14, 2025 pm 06:36 PM

CentOS 시스템에 대한 Pytorch 분산 교육에는 다음 단계가 필요합니다. Pytorch 설치 : 전제는 Python과 PIP가 CentOS 시스템에 설치된다는 것입니다. CUDA 버전에 따라 Pytorch 공식 웹 사이트에서 적절한 설치 명령을 받으십시오. CPU 전용 교육의 경우 다음 명령을 사용할 수 있습니다. PipinStalltorchtorchvisiontorchaudio GPU 지원이 필요한 경우 CUDA 및 CUDNN의 해당 버전이 설치되어 있는지 확인하고 해당 PyTorch 버전을 설치하려면 설치하십시오. 분산 환경 구성 : 분산 교육에는 일반적으로 여러 기계 또는 단일 기계 다중 GPU가 필요합니다. 장소

Docker 원리에 대한 자세한 설명 Docker 원리에 대한 자세한 설명 Apr 14, 2025 pm 11:57 PM

Docker는 Linux 커널 기능을 사용하여 효율적이고 고립 된 응용 프로그램 실행 환경을 제공합니다. 작동 원리는 다음과 같습니다. 1. 거울은 읽기 전용 템플릿으로 사용되며, 여기에는 응용 프로그램을 실행하는 데 필요한 모든 것을 포함합니다. 2. Union 파일 시스템 (Unionfs)은 여러 파일 시스템을 스택하고 차이점 만 저장하고 공간을 절약하고 속도를 높입니다. 3. 데몬은 거울과 컨테이너를 관리하고 클라이언트는 상호 작용을 위해 사용합니다. 4. 네임 스페이스 및 CGroup은 컨테이너 격리 및 자원 제한을 구현합니다. 5. 다중 네트워크 모드는 컨테이너 상호 연결을 지원합니다. 이러한 핵심 개념을 이해 함으로써만 Docker를 더 잘 활용할 수 있습니다.

Centos에서 Pytorch에 대한 GPU 지원은 어떻습니까? Centos에서 Pytorch에 대한 GPU 지원은 어떻습니까? Apr 14, 2025 pm 06:48 PM

CentOS 시스템에서 Pytorch GPU 가속도를 활성화하려면 Cuda, Cudnn 및 GPU 버전의 Pytorch를 설치해야합니다. 다음 단계는 프로세스를 안내합니다. CUDA 및 CUDNN 설치 CUDA 버전 호환성 결정 : NVIDIA-SMI 명령을 사용하여 NVIDIA 그래픽 카드에서 지원하는 CUDA 버전을보십시오. 예를 들어, MX450 그래픽 카드는 CUDA11.1 이상을 지원할 수 있습니다. Cudatoolkit 다운로드 및 설치 : NVIDIACUDATOOLKIT의 공식 웹 사이트를 방문하여 그래픽 카드에서 지원하는 가장 높은 CUDA 버전에 따라 해당 버전을 다운로드하여 설치하십시오. CUDNN 라이브러리 설치 :

See all articles