研究者: AI モデル推論はより多くの電力を消費し、2027 年の業界の電力消費量はオランダの電力消費量に匹敵するでしょう
IT House News 10 月 13 日、「Cell」の姉妹誌「Joule」は今週、「人工知能のエネルギーフットプリントの増大」と題する論文を掲載しました。
問い合わせの結果、この論文は科学研究機関デジコノミストの創設者であるアレックス・デ・フリース氏によって発表されたことが分かりました。同氏は、将来の人工知能の推論パフォーマンスは大量の電力を消費する可能性があり、2027 年までに人工知能の電力消費量はオランダの 1 年間の電力消費量に匹敵する可能性があると推定しています。
Alex De Vries 氏は、外部の世界では AI モデルのトレーニングが「AI で最も電力を消費する段階」であると常に信じられてきたと述べましたが、Vries 氏は SemiAnalysis と Google のレポートを引用し、「推論リンク」は電力を消費すると指摘しました。 2019 年以降、2021 年には、AI 関連のエネルギー消費の 60% がモデル推論によるものになると予想されます。
Alex De Vries 氏も、2021 年に Google が公表した 18.3 TWh の電力消費量に基づいて計算し、AI は当時の Google 全体の電力消費量の 10% ~ 15% を占めており、Google が「AI 検索」を完全に実装した後、同社の AI 用電力消費量は最大 27.4 TWh に達する可能性があり、これはアイルランドが 1 年間に使用する電力 (29.3 TWh) に近いです。
NVIDIA のパートナーである台湾積体電路製造会社 (TSMC) は 2027 年に新しい CoWoS 工場の量産開始を計画しており、市場全体が変化すると予想されます。 Alex De Vries 氏の推定によると、その時点までに、Nvidia が提供するすべての AI サーバーの総電力消費量は 85 ~ 134 TWh に達し、これはオランダの 1 年間の電力使用量に相当します。
▲ 画像出典 関連論文
Alex De Vries は、人工知能業界はハードウェア効率を向上させ、モデル アルゴリズムの効率を向上させて業界のエネルギー消費を改善する必要があると考えています。同氏はまた、開発者は人工知能の最適化に注力するだけでなく、人工知能業界でのエネルギーコストを削減するために人工知能を使用する必要性も考慮する必要があると提案しました。
元の意味を変えずに内容を書き直すには、言語を中国語に書き直す必要があります。元の文は必要ありません
以上が研究者: AI モデル推論はより多くの電力を消費し、2027 年の業界の電力消費量はオランダの電力消費量に匹敵するでしょうの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









このほど、「AIが時代をリードし、コンピューティングパワーが未来を駆動する」をテーマとした「臨港新区インテリジェントコンピューティングカンファレンス」が開催された。この会合において、新領域インテリジェントコンピューティング産業アライアンスが正式に設立され、センスタイムはコンピューティングパワープロバイダーとしてアライアンスのメンバーとなり、同時に「新領域インテリジェントコンピューティング産業チェーンマスター」企業の称号を授与されました。臨港コンピューティングパワーエコシステムへの積極的な参加者として、SenseTimeはアジア最大のインテリジェントコンピューティングプラットフォームの1つであるSenseTime AIDCを構築しました。これは合計5,000ペタフロップスのコンピューティングパワーを出力し、数千億のパラメータを持つ20の超大規模モデルをサポートできます。 . 同時にトレーニングします。 AIDC に基づいて将来を見据えて構築された大規模デバイスである SenseCore は、人工知能を強化するための高効率、低コスト、大規模な次世代 AI インフラストラクチャとサービスの作成に取り組んでいます。

IT Houseは10月13日、「Cell」の姉妹誌である「Joule」が今週、「人工知能の増大するエネルギーフットプリント(人工知能の増大するエネルギーフットプリント)」と題する論文を発表したと報じた。問い合わせの結果、この論文は科学研究機関デジコノミストの創設者アレックス・デブリーズ氏が発表したものであることが分かりました。アレックス・デブリーズ氏は、将来の人工知能の推論性能は大量の電力を消費する可能性があり、2027年までに人工知能の電力消費量はオランダの1年間の電力消費量に匹敵する可能性があると予測していると述べた。外の世界では、AI モデルのトレーニングが「AI で最も重要なこと」であると常に信じられてきました。

Transformer モデルは、2017 年に Google チームが発表した論文「Attendisalyouneed」に由来しています。この論文は、Seq2Seq モデルの循環構造を Attendance で置き換えるという概念を初めて提案し、NLP 分野に大きな影響を与えました。そして、近年の継続的な研究の進歩により、Transformer 関連技術は自然言語処理から徐々に他の分野へ流れてきました。現在まで、Transformer シリーズは、NLP、CV、ASR などの分野で主流のモデルとなっています。したがって、Transformer モデルをより迅速にトレーニングおよび推論する方法が、業界の重要な研究方向となっています。低精度の量子化技術では、

中国ニュースを牽引する2023年6月28日、上海で開催中のモバイルワールドコングレス期間中の本日、チャイナユニコムはグラフィックモデル「Honghu Graphic Model 1.0」をリリースした。チャイナユニコムは、Honghuグラフィックモデルは通信事業者の付加価値サービス向けの初の大型モデルであると述べた。 China Business Newsの記者は、Honghuのグラフィックモデルには現在、8億個のトレーニングパラメータと20億個のトレーニングパラメータの2つのバージョンがあり、テキストベースの画像、ビデオ編集、画像ベースの画像などの機能を実現できることを知りました。さらに、チャイナユニコムの劉立紅会長も本日の基調講演で、生成型AIは発展の特異点を到来させており、今後2年間で雇用の50%が人工知能によって大きな影響を受けるだろうと述べた。

ケータイサークルをフォローしている友人なら「認めなければ点数がもらえる」という言葉に馴染みがない人はいないと思います。たとえば、AnTuTu や GeekBench などの理論性能テスト ソフトウェアは、携帯電話の性能をある程度反映できるため、プレイヤーから大きな注目を集めています。同様に、PC プロセッサとグラフィックス カードのパフォーマンスを測定するための対応するベンチマーク ソフトウェアがあり、「すべてのものをベンチマークできる」ため、最も人気のある大規模な AI モデルも、特に「百モデル」以降のベンチマーク コンテストに参加し始めています。 「戦争」が始まり、毎日のようにブレークスルーがあった 各社「ランニングスコアで1位」を謳う 国産AIの大型モデルは性能スコアでほとんど負けることはなかったが、GPを超えることはできなかったユーザーエクスペリエンスの。

ITハウスは11月3日、中国科学院物理研究所の公式ウェブサイトに記事が掲載されたと報じ、このほど中国科学院物理研究所/北京国立物性物理研究センターSF10グループが発表した。中国科学院コンピュータネットワーク情報センターと協力して大規模AIモデルを材料科学に適用する現場では、数万の化学合成経路データが大規模言語モデルLLAMA2-7bに供給され、MatChatモデルが得られる、無機材料の合成経路を予測するために使用できます。 IT House は、このモデルがクエリされた構造に基づいて論理的推論を実行し、対応する準備プロセスと式を出力できることに注目しました。これはオンラインで展開されており、すべての材料研究者に公開されており、材料の研究とイノベーションに新しいインスピレーションと新しいアイデアをもたらします。この作業は、セグメント化された科学の分野における大規模な言語モデルを対象としています。

Meta Platforms の人工知能部門は最近、少量のトレーニング データのサポートを利用して AI モデルに物理世界の歩き方を学習させる方法を教えており、急速な進歩を遂げたと発表しました。この研究により、AI モデルが視覚的なナビゲーション機能を獲得するまでの時間を大幅に短縮できる可能性があります。以前は、このような目標を達成するには、大規模なデータセットを使用した「強化学習」を繰り返す必要がありました。メタ AI 研究者らは、この AI ビジュアル ナビゲーションの探求は仮想世界に大きな影響を与えるだろうと述べています。このプロジェクトの基本的なアイデアは複雑ではありません。単純に観察と探索を通じて、AI が人間と同じように物理空間を移動できるようにするというものです。メタ AI 部門は次のように説明しました。「たとえば、AR メガネに鍵を見つけるようにガイドしてもらいたい場合は、

Nvidia は最近、TensorRT-LLM と呼ばれる新しいオープンソース ソフトウェア スイートのリリースを発表しました。これは、Nvidia GPU での大規模言語モデルの最適化機能を拡張し、導入後の人工知能推論パフォーマンスの限界を突破します。生成 AI の大規模言語モデルは、その優れた機能により人気が高まっています。人工知能の可能性を広げ、さまざまな業界で広く活用されています。 Nvidia Corporation のハイパースケールおよびハイパフォーマンス コンピューティング担当バイスプレジデントである Ian Buck 氏は、ユーザーはチャットボットと会話することで情報を取得し、大規模なドキュメントを要約し、ソフトウェア コードを記述し、情報を理解するための新しい方法を発見することができます。「大規模な言語モデルの推論はますます増加しています」モデルの複雑さは増大し続け、モデルはますますインテリジェントになっていきます。
