> 기술 주변기기 > IT산업 > 클라우드 가속화 : 클라우드 기본

클라우드 가속화 : 클라우드 기본

Jennifer Aniston
풀어 주다: 2025-02-09 10:13:13
원래의
492명이 탐색했습니다.

Accelerating the Cloud: Going Cloud Native (Ampere 컴퓨팅 시리즈 기사 가속 클라우드 컴퓨팅, 1 부)

전통적으로, 웹 애플리케이션을 배포한다는 것은 회사의 엔터프라이즈 데이터 센터에서 x86 아키텍처를 기반으로 서버를 사용하여 대규모 모 놀리 식 애플리케이션을 실행하는 것을 의미합니다. 클라우드로 응용 프로그램을 마이그레이션하면 클라우드 리소스를 실시간 요구 사항에 따라 할당 할 수 있기 때문에 데이터 센터를 과도하게 구성 할 필요가 없습니다. 동시에, 클라우드로의 마이그레이션은 또한 구성 요소화 된 응용 프로그램 (마이크로 서비스라고도 함)으로의 전환을 의미합니다. 이 접근법을 통해 응용 프로그램은 잠재적으로 수만 또는 수백만 명의 사용자에게 쉽게 확장 할 수 있습니다. 클라우드 네이티브 접근 방식을 사용하여 응용 프로그램은 클라우드에서 완전히 작동하고 클라우드의 고유 한 기능을 활용할 수 있습니다. 예를 들어, 분산 아키텍처를 사용하여 개발자는 다른 데이터베이스를 추가하지 않고 다른 응용 프로그램 서버를 추가하는 것과 같이 더 크고 더 큰 응용 프로그램을 실행하는 대신 더 많은 응용 프로그램 구성 요소 인스턴스를 만들어 원활하게 확장 할 수 있습니다. 많은 대기업 (예 : Netflix, Wikipedia 등)은 분산 아키텍처를 다음 단계로 끌어 올려 독립형 마이크로 서비스로 응용 프로그램을 분해했습니다. 이것은 설계, 배포 및로드 밸런싱의 규모를 단순화합니다. 모노머 응용 분해 분해에 대한 자세한 내용은 Phoenix 프로젝트를 참조하고 Cloud-Native 응용 프로그램 개발에 대한 모범 사례를 참조하십시오. 12 개의 요소 애플리케이션을 참조하십시오. x86 하이퍼 스레딩 비 효율성 기존 X86 서버는 주로 개인용 컴퓨팅 플랫폼에 사용되는 공통 아키텍처에 구축되며 사용자는 단일 CPU에서 다양한 유형의 데스크탑 응용 프로그램을 동시에 실행할 수 있어야합니다. 이러한 유연성으로 인해 X86 아키텍처는 데스크탑 응용 프로그램에 유용한 고급 기능과 용량을 가능하게하지만 많은 클라우드 애플리케이션에는 이러한 기능이 필요하지 않습니다. 그러나 X86 기반 클라우드에서 애플리케이션을 실행하는 회사는 사용하지 않더라도 이러한 기능에 대한 비용을 지불해야합니다.

활용을 향상시키기 위해 X86 프로세서는 하이퍼 스레딩 기술을 사용하여 하나의 코어가 두 스레드를 실행할 수 있도록합니다. 하이퍼 스레딩은 핵심 용량을보다 완전하게 활용할 수 있지만 코어의 자원이 과도하게 사용될 때 한 스레드가 다른 스레드의 성능에 영향을 줄 수 있습니다. 구체적으로,이 두 스레드가 동일한 리소스를 놓고 경쟁 할 때마다, 이것은 작전에 중요하고 예측할 수없는 대기 시간을 제공합니다. 코어와 공유 할 앱을 모르고 제어 할 수 없을 때 앱을 최적화하기는 어렵습니다. 하이퍼 스레딩은 청구서를 지불하고 스포츠 게임을 동시에 시청하는 것으로 간주 될 수 있습니다. 청구서는 완료하는 데 시간이 오래 걸리며 게임에 정말 감사하지 않습니다. 먼저 법안을 완료 한 다음 게임에 집중하거나 두 사람 (그중 하나가 축구 팬이 아님)에게 작업을 할당하여 작업을 분리하고 분리하는 것이 가장 좋습니다.

하이퍼 스레딩은 다른 스레드의 응용 프로그램이 사이드 채널 공격을 시도하는 맬웨어 일 수 있기 때문에 응용 프로그램의 보안 공격 표면을 확장합니다. 서로 다른 스레드에 응용 프로그램을 서로 분리하여 프로세서 수준에서 오버 헤드와 추가 대기 시간이 발생합니다.

클라우드 네이티브 최적화

효율성을 향상시키고 단순성을 디자인하기 위해 개발자는 특정 데이터를 효율적으로 처리하기 위해 특별히 설계된 클라우드 리소스가 필요합니다 (다른 사람의 데이터는 아닙니다). 이를 위해 효율적인 클라우드 네이티브 플랫폼은 클라우드 네이티브 애플리케이션의 일반적인 작동 유형을 가속화 할 수 있습니다. 전반적인 성능을 향상시키기 위해 클라우드 네이티브 프로세서는 점점 더 복잡한 데스크탑 애플리케이션을 실행하기 위해 하이퍼 스레딩이 필요한 더 큰 코어를 구축하는 대신 마이크로 서비스 실행을 최적화하도록 설계된 더 많은 코어를 제공합니다. 이로 인해보다 일관되고 결정적인 대기 시간이 발생하고 투명한 스케일링을 지원하며, 응용 프로그램이 자체 핵심에서 실행될 때 자연스럽게 분리되어 있기 때문에 하이퍼 스레딩에 의해 제기 된 많은 보안 문제를 피합니다.

Ampere는 클라우드 네이티브 애플리케이션을 가속화하기 위해 Altra 및 Altra Max 64 비트 클라우드 네이티브 프로세서를 개발했습니다. 단일 IC에서 최대 128 코어의 전례없는 밀도를 제공하는 단일 1U 섀시에는 단일 랙에서 최대 256 코어를 수용 할 수있는 두 개의 슬롯이 있습니다.

Ampere Altra 및 Ampere Altra Max Cores는 ARM 명령 세트 아키텍처 (ISA) 주변에 설계되었습니다. X86 아키텍처는 원래 일반 목적 데스크탑을 위해 설계되었지만 ARM은 결정 론적 행동과 전력 효율성에 더 관심이있는 임베디드 애플리케이션의 전통에서 발전했습니다. 이 기초에서 Ampere 프로세서는 전력 소비 및 핵심 밀도가 중요한 설계 고려 사항 인 응용 프로그램을 위해 설계되었습니다. 전반적으로 Ampere 프로세서는 많은 클라우드 네이티브 애플리케이션에 매우 효율적인 기반을 제공하여 고성능, 예측 가능하고 일관된 응답 성 및 더 높은 전력 효율성을 가능하게합니다.

개발자의 경우 Ampere 프로세서가 ARM ISA를 구현한다는 사실은 이미 광범위한 소프트웨어와 개발을위한 툴링 생태계가 있음을 의미합니다. 이 시리즈의 두 번째 부분에서는 개발자가 기존 응용 프로그램을 기존 애플리케이션을 이끄는 CSP가 제공하는 Ampere Cloud 기본 플랫폼으로 원활하게 마이그레이션하여 클라우드 작업을 즉시 가속화하는 방법을 다룰 것입니다.

클라우드 네이티브의 장점 클라우드 네이티브 플랫폼에서 실행할 때의 주요 장점은 대기 시간이 낮아서보다 일관되고 예측 가능한 성능을 제공합니다. 예를 들어, 마이크로 서비스 접근법은 기본적으로 현재의 단량체 클라우드 응용 분야와 다릅니다. 따라서 서비스 품질 및 활용 효율의 최적화를 위해서는 근본적으로 다른 접근법이 필요하다는 것은 놀라운 일이 아닙니다.

마이크로 서비스는 큰 작업을 더 작은 구성 요소로 분류합니다. 장점은 마이크로 서비스가 전문화 될 수 있기 때문에 필요한 모든 작업을 수행하려는 일반적인 모 놀리 식 애플리케이션보다 작업 간의 더 높은 캐시 활용을 달성하는 것과 같이 더 높은 효율을 제공 할 수 있다는 것입니다. 그러나 마이크로 서비스는 일반적으로 구성 요소 당 컴퓨팅 리소스를 적게 사용하더라도 레이어 당 대기 시간 요구 사항은 일반적인 클라우드 애플리케이션보다 훨씬 엄격합니다. 다시 말해, 각 마이크로 서비스는 전체 응용 프로그램에 사용할 수있는 대기 시간 예산의 작은 부분 만 얻습니다.

예측 가능하고 일관된 대기 시간은 최악의 대기 시간이 각 마이크로 서비스의 응답 성이 하이퍼 스레드 x86 아키텍처만큼 다양 할 때 각각의 마이크로 서비스 조합의 최악의 시나리오의 합이기 때문에 중요합니다. 좋은 소식은 또한 마이크로 서비스 대기 시간의 적은 양의 개선조차도 상당한 개선을 초래할 수 있다는 것을 의미합니다.

그림 1은 Intel Icelake 및 AMD Milan과 비교하여 Ampere Altra Max와 같은 클라우드 기본 플랫폼에서 일반적인 클라우드 애플리케이션을 실행하는 성능 이점을 보여줍니다. Ampere Altra Max는 더 높은 성능뿐만 아니라 더 높은 성능/와트 효율을 제공합니다. 이 그림은 또한 Ampere Altra Max가 클라우드 네이티브 애플리케이션에 필요한 안정적인 성능을 제공하기 위해 인텔 아이셀레이크 (13%)보다 우위를 점하는 방법을 보여줍니다.

그림 1 : Ampere Altra Max와 같은 클라우드 네이티브 플랫폼은 인텔 아이셀레이크 및 AMD 밀라노와 비교하여 우수한 성능, 전력 효율 및 대기 시간을 제공합니다.

지속 가능성

CSP가 데이터 센터의 전력 소비를 처리하더라도 많은 개발자는 회사가 지속 가능성 문제를 해결하는 방법에 대한 대중 및 회사 이해 관계자의 우려가 증가하고 있음을 알고 있습니다. 2022 년에 클라우드 데이터 센터는 총 데이터 센터 전력 소비량의 80%를 차지하는 것으로 추정됩니다 1. 2019 년 데이터에 따르면 데이터 센터의 전력 소비는 2030 년까지 두 배가 될 것으로 예상됩니다. Accelerating the Cloud: Going Cloud Native 지속 가능성은 클라우드의 장기 개발에 중요하며 클라우드 산업은보다 효율적인 에너지 기술을 채택하기 시작해야합니다. 전력 소비를 줄이면 운영 비용이 줄어 듭니다. 어쨌든 오늘날 탄소 발자국을 최초로 줄인 회사는 그러한 조치가 의무화되면 준비 될 것입니다. 표 1 : 기존 X86 구름과 비교하여 Ampere Cloud Native 플랫폼을 사용한 클라우드 네이티브 처리의 장점.

Ampere와 같은 클라우드 네이티브 기술을 통해 CSP는 데이터 센터에서 컴퓨팅 밀도를 계속 증가시킬 수 있습니다 (표 1 참조). 한편, 클라우드 네이티브 플랫폼은 매력적인 성능/가격/전력 혜택을 제공하여 개발자가 일일 운영 비용을 줄이면서 성능을 향상시킬 수 있습니다.

이 시리즈의 두 번째 부분에서는 기존 응용 프로그램을 클라우드 네이티브 플랫폼에 배포하고 작업 속도를 높이려면 필요한 내용을 자세히 설명합니다.

보다 관련성있는 콘텐츠 및 최신 뉴스는 Ampere Computing Developer Center를 확인하십시오.

위 내용은 클라우드 가속화 : 클라우드 기본의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
저자별 최신 기사
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿