最近、アメリカの OpenAI 社が所有するインテリジェントなチャット ツールである ChatGPT がソーシャル メディアを席巻し、100 億ドルを超える投資を集め、資本市場における人工知能アプリケーションの大ブームを引き起こしています。一時的に脚光を浴びる。
Microsoft が OpenAI への 100 億ドルの投資を最初に発表し、その後 Amazon と米国版「Today's Headlines」BuzzFeed が発表しました。日常業務で ChatGPT が可能になるとのこと。Baidu も 3 月に ChatGPT チャットボットの「中国語版」のリリースを発表しました。多くのテクノロジー企業が火に油を注いだ後、ChatGPT は即座に世界的な注目を集めました。
データによると、Amazon が導入するロボットの数は急速に増加しており、1 日あたりの増加数は約 1,000 に達しています。さらに、Facebookの親会社Metaも2023年にデータセンターに40億~50億ドルを追加投資する予定で、その全額が人工知能に使用されると予想されている。 IBMのクリシュナCEOは、人工知能は2030年までに世界経済に16兆ドルの貢献をすると予想されていると述べた。
ChatGPT の人気により、2023 年には大手企業が人工知能の分野で新たな熾烈な戦いを開始する可能性があります。
ただし、ChatGPT-3 は次の単語を予測するときに複数の推論計算を実行する必要があるため、多くのリソースと電力を消費します。クラウド コンピューティング、ビデオ ストリーミング、5G ネットワークの爆発的な成長をサポートするためにデータ センター インフラストラクチャが拡大するにつれ、その GPU および CPU アーキテクチャは差し迫ったコンピューティング ニーズを満たすために効率的に動作できなくなり、ハイパースケール データセンター オペレーターにとって大きな課題となっています。
GPT3.5 トレーニングでは、Microsoft が特別に構築した AI コンピューティング システム、10,000 個の V100 GPU で構成される高性能ネットワーク クラスターを使用し、総コンピューティング電力消費量は約 3640 PF 日です。 (つまり、1 秒あたり 1 京回計算される場合、計算には 3640 日かかります)。このような大規模かつ長期にわたる GPU クラスターのトレーニング タスクでは、ネットワーク相互接続ベースのパフォーマンス、信頼性、コスト、その他の側面に極端な要件が課されます。
たとえば、Meta は、世界中のデータセンターの拡張を一時停止し、人工知能のデータ処理ニーズを満たすためにこれらのサーバー ファームを再構成すると発表しました。
人工知能プラットフォームにおけるデータ処理の需要は非常に大きいです。ChatGPT の OpenAI 作成者は、昨年 11 月にこのプラットフォームを立ち上げました。Microsoft が今後予定している Azure クラウド プラットフォームのアップグレードに乗らなければ、継続することはできません。 。 走る。
このデジタル変革をサポートするデータセンター インフラストラクチャは、人間の脳のように 2 つの半球、つまり葉に組織され、一方の葉は他方の葉よりもはるかに強力である必要があります。 1 つの半球は、「トレーニング」と呼ばれるものを提供します。これは、ChatGPT が生成する単語サラダを作成するために最大 300B のデータ ポイントを処理するのに必要な計算能力です。
トレーニング フラップには強力なコンピューティング能力と最先端の GPU 半導体が必要ですが、現在はクラウド コンピューティング サービスと 5G ネットワークをサポートするデータセンター クラスターで必要とされています。接続性はほとんどありません。
同時に、各 AI プラットフォームの「トレーニング」に重点を置いたインフラストラクチャにより、膨大な電力需要が発生し、ギガワットの再生可能エネルギーの近くにデータ センターを設置する必要があります。液体冷却システム、再設計されたバックアップ電源および発電機システムなどの新しい設計機能が搭載されています。
人工知能プラットフォーム 脳のもう一方の半球では、「推論」モードとして知られる高機能デジタル インフラストラクチャが、入力された質問に応答する、または入力された質問の数秒以内に応答する対話型の「生成」プラットフォームをサポートしています。命令に従うと、クエリが処理され、モデル化されたデータベースに入力され、説得力のある人間の構文で応答されます。
北米最大のデータセンタークラスターなど、今日のデータセンターネットワークはハイパーコネクトされていますが、北バージニアの「データセンター」には、人工知能の下流域に対応できる最も広範な光ファイバーネットワークもあります。脳の「推論」ローブ レベル 1 の接続が必要ですが、これらの施設も、必要な膨大な処理能力を満たすためにアップグレードする必要があり、変電所に近づける必要があります。
さらに、研究機関のデータによると、データセンターは世界最大のエネルギー消費者となっており、総電力消費量に占めるデータセンターの割合は2017年の3%から2025年には4.5%に増加すると予想されています。中国を例に挙げると、全国で稼働するデータセンターの電力消費量は2030年に4,000億kWhを超えると予想されており、同国の総電力消費量の4%を占める。
したがって、デジタル製品であっても開発と消費にはエネルギーが必要であり、ChatGPTも例外ではなく、機械学習作業における推論処理が計算電力消費量の80~90%を占めると推定されています。 ChatGPT 2022 年 11 月 30 日にオンラインになって以来、二酸化炭素排出量は 814.61 トンを超えました。
専門組織の計算によると、Microsoft の Azure クラウドでホストされている ChatGPT に 1 日あたり 100 万件のユーザー問い合わせがあると仮定して (特定の応答時間と語彙の下で 1 日あたり約 29,167 時間)、 A100 GPU の最大電力 407W (ワット) に基づくと、1 日あたりの二酸化炭素排出量は 3.82 トンに達し、月間二酸化炭素排出量は 100 トンを超えます。現在、ChatGPT には毎日 1,000 万人を超えるユーザーがおり、実際の二酸化炭素排出量は 1 か月あたり 100 トンをはるかに超えています。さらに、1,750億個のパラメーターを含むこのような大規模な言語モデルをトレーニングするには、数万のCPU/GPUが24時間データを入力する必要があり、約1,287MWhの電力を消費し、552トン以上の二酸化炭素を排出します。
これらの大規模言語モデルの二酸化炭素排出量から判断すると、ChatGPT の前身である GPT-3 が最も二酸化炭素排出量が大きくなります。アメリカ人は毎年平均16.4トンの二酸化炭素を排出し、デンマーク人は毎年平均11トンの二酸化炭素を排出していると報告されています。その結果、ChatGPT のモデルは、デンマーク人 50 人が年間排出する炭素排出量よりも多くの炭素排出量を排出するようにトレーニングされています。
クラウド コンピューティング プロバイダーも、データ センターが大量の電力を使用することを認識しており、再生可能エネルギーと自然冷却条件を利用するために北極にデータ センターを構築および運営するなど、効率を向上させるための措置を講じています。しかし、これでは AI アプリケーションの爆発的な成長に対応するには十分ではありません。
米国のローレンス バークレー国立研究所は、過去 20 年間、データセンターの効率向上によりエネルギー消費量の増加が抑制されてきたことを研究で発見しましたが、現在のエネルギー効率対策ではエネルギー消費量の増加を抑制するのに十分ではない可能性があることを研究で示しています。将来のデータセンターのニーズに応えます。
人工知能業界は現在、重要な転換点にあります。生成 AI、画像認識、データ分析における技術の進歩により、機械学習の独自の接続と用途が明らかになりつつありますが、このニーズを満たすことができるテクノロジー ソリューションをまず構築する必要があります。なぜなら、ガートナーによると、より持続可能な選択がなければ、そうでなければ 2025 年までに, AIは人間の活動よりも多くのエネルギーを消費します。
以上が警告! ChatGPT の爆発によって引き起こされたエネルギー消費危機は、データセンター運営者に大きな課題をもたらしていますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。