흥미로운 주제를 찾고 있다면 인공지능(AI)이 여러분을 실망시키지 않을 것입니다. 인공 지능은 체스 게임, 엉성한 필기체 해독, 음성 이해, 위성 이미지 분류 등을 수행할 수 있는 강력하고 놀라운 통계 알고리즘 세트를 포함합니다. 기계 학습 모델 훈련을 위한 대규모 데이터 세트의 가용성은 인공 지능 성공의 핵심 요소 중 하나였습니다. 하지만 이 모든 계산 작업은 무료가 아닙니다. 일부 AI 전문가들은 새로운 알고리즘 구축과 관련된 환경 영향에 대해 점점 더 우려하고 있으며, 이는 AI의 탄소 배출량을 줄이기 위해 기계가 보다 효율적으로 학습하도록 하는 방법에 대한 새로운 아이디어를 촉발시켰습니다.
세부 사항을 알아보려면 먼저 연중무휴 24시간 컴퓨팅 요청을 처리하는 수천 개의 데이터 센터(전 세계에 분산되어 있음)를 고려해야 합니다. AI 연구원의 경우 이러한 작업에는 수십억 개의 데이터 요소(또는 토큰, 4자 또는 영어 단어의 약 3/4에 해당하는 단어 비트)를 사용하여 다층 알고리즘을 교육하는 것이 포함됩니다. 관련된 계산 노력은 놀랍습니다. 인공지능 인프라 회사인 Lambda는 인간과 유사한 텍스트를 생성하기 위한 OpenAI의 강력한 자연어 모델인 GPT-3에 대한 몇 가지 흥미로운 사실을 제공합니다. Lambda의 분석에 따르면 단일 NVIDIA RTX 8000에서 GPT-3의 1,750억 매개변수 모델을 훈련하려면 665년이 걸리며, 이는 그래픽 카드에 있어서는 결코 만만한 일이 아닙니다.
간단히 말하면, 모델이 클수록 성능이 좋아집니다. 최신 언어 모델의 규모가 매년 10배씩 성장하고 있다는 점을 람다 팀은 지적했습니다. AI의 성장. 데이터 센터로 돌아가서 적어도 높은 수준에서는 논의에 더 많은 숫자를 추가하는 것이 가능합니다. 국제에너지기구(IEA)의 추산에 따르면 전 세계 데이터센터의 총 전력 소비량은 200~250TWh에 이른다. 이 숫자를 더 쉽게 시각화하기 위해 기관차와 철도 차량이 이동한 킬로미터당 평균 2.5kWh를 소비한다고 가정하면, 225테라와트시는 고속 전기 열차가 900만 킬로미터를 이동하는 데 충분합니다. AI 모델을 훈련하고 실행하는 데 데이터 센터의 일부만 사용되지만, 소스에 따르면 기계 학습 및 훈련에 대한 컴퓨팅 수요가 데이터 센터 활동의 평균 증가를 능가하고 있습니다.
이 시점에서는 데이터 센터가 에너지 수요를 잘 관리하고 있다는 점을 인정하는 것이 타당합니다. 환경 문제가 동기 부여가 되지만 전력은 모든 시설의 중요한 운영 비용이라는 점을 언급할 가치가 있습니다. 모든 시설은 모두 "임무에 중요"합니다. 2020년에만 40% 증가한 전 세계 인터넷 트래픽 급증에도 불구하고 데이터 센터 에너지 사용은 지난 10년 동안 비교적 안정적으로 유지되었습니다. IEA는 "데이터 센터 서비스에 대한 수요의 급격한 증가는 서버, 스토리지, 네트워크 스위치 및 데이터 센터 인프라의 지속적인 효율성 향상과 효율적인 클라우드 및 하이퍼스케일 데이터 센터가 제공하는 서비스 점유율 증가로 인해 계속해서 상쇄되고 있습니다."라고 말했습니다. 썼다.
또한 Amazon, Google, Facebook 등과 같은 수직적으로 통합된 데이터 센터 운영자는 곧 자신의 시설이 재생 가능 에너지로 구동된다는 점을 추가할 것입니다. 당연히 컴퓨팅 하드웨어의 랙과 난방, 냉방, 조명과 같은 필요한 보조 서비스에 전력을 공급하는 전기는 태양과 바람에서 나올 수 있으므로 데이터 처리에 따른 환경적 부담이 줄어듭니다. 그러나 Financial Times가 선택하지 않은 것처럼 데이터 센터 에너지 계약이 재생 가능 에너지를 통해 전력 소비량의 100%를 상쇄할 수 있더라도 풍력과 태양열을 사용할 수 없는 경우 시설에서는 여전히 화석 연료를 소비할 수 있습니다. 제조 방법과 구성 요소 재료 소싱 활동도 탄소 배출을 생성하므로 컴퓨팅 장치 자체에 내재된 탄소 배출을 고려할 필요도 있습니다. 이는 Microsoft가 인정한 사항입니다.
올해 초 Microsoft는 최근 블로그 게시물에서 효율적인 모델 훈련이라는 주제를 논의했습니다. 개발자들은 AI의 탄소 배출량을 줄이거 나 적어도 성장을 억제할 수 있는 방법을 모색하느라 바쁩니다. 여기의 단계에는 모델 미세 조정 중에 계산 및 메모리 요구 사항을 줄이는 방법을 찾는 것이 포함되며, 이 프로세스 단계에서 GPU 사용량을 3배 줄일 것을 권장하는 권장 사항이 포함됩니다. 모델 압축은 또한 AI 데이터의 하위 계층이 더 희박하지만 여전히 이전에 결합된 조건을 대표하는 버전으로 정리되는 가능성을 보여줍니다. 연구 결과에 따르면 모델을 압축하면 비슷한 알고리즘 결과를 얻으면서도 훈련 시간이 약 40% 단축될 수 있는 것으로 나타났습니다.
개발자는 코드 또는 데이터 호스팅 배열을 최적화하여 얻을 수 있는 이점을 정확히 찾아내는 모니터링 도구의 이점을 누릴 수도 있습니다. "CodeCarbon은 Python 코드 베이스에 원활하게 통합되는 경량 패키지입니다."라고 도구를 무료로 제공하는 발명가는 썼습니다. "코드 실행에 사용되는 클라우드 또는 개인 컴퓨팅 리소스에서 생성되는 이산화탄소(CO2)의 양을 추정합니다."
주기는 앞뒤로 진행되며, 미래에는 더 효율적인 데이터 센터 운영을 안내하여 AI의 탄소 발자국을 줄이기 위해 더 에너지 효율적인 AI가 배포될 수 있습니다. 현재 Cirrus Nexus는 데이터 센터 운영자가 탄소 비용을 할당하고 인공 지능 알고리즘을 통해 이를 전파하는 데 사용할 수 있는 소프트웨어를 제공합니다. 결과는 CO2 계산을 보여줄 뿐만 아니라 사용자가 환경적 이점을 극대화하기 위해 시설을 구성할 수 있는 방법에 대한 통찰력도 제공합니다.
오늘날의 기술을 뒷받침하는 알고리즘의 탄소 발자국을 가시화하면 여러 면에서 도움이 됩니다. 이는 미래의 인공 지능을 교육하는 가장 효과적인 방법에 대한 논의를 시작하여 IT 부서와 고객이 컴퓨팅의 환경 비용에 대해 더 많은 책임을 지도록 만들고 있습니다. 결국 사업적으로는 좋을 수도 있다. 특히 Amazon은 올해 초 고객 탄소 발자국 도구를 출시했으며 Google과 같은 다른 주요 회사에서는 고객이 현재 미리 보기로 제공되는 서비스인 클라우드 탄소 배출량 정보를 내보낼 수 있도록 허용합니다.
위 내용은 인공지능의 탄소비용 계산의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!