新しい AI アルゴリズムを発表: 消費電力は従来構成の 1/50、メモリ使用量は 1/10 に削減

王林
リリース: 2024-06-27 15:54:29
オリジナル
905 人が閲覧しました

6月27日のこのサイトのニュースによると、カリフォルニア大学サンタクルーズ校の研究チームは、わずか13Wの電力(電力に相当)で10億のパラメータ規模の大規模言語を実行できる新しい方法を開発しました。現代の LED 電球の)モデル。比較のために、大規模な言語モデルのタスク用のデータセンターグレードの GPU には約 700W が必要です。

新型 AI 算法亮相:功率降至常规配置 1/50,显存占用降至 1/10

AIの波の下では、多くの企業や機関の主な研究方向は応用と推論であり、効率などの指標はほとんど考慮されていません。この状況を軽減するために、研究者は行列の乗算という集中的な手法を排除し、マイナス 1、ゼロ、プラス 1 の 3 つの値のみを持つ「三ニオン」ソリューションを提案しました。

チームはまた、フィールド プログラマブル ゲート アレイ (FPGA) と呼ばれる高度にカスタマイズされた回路を使用してカスタム ハードウェアを作成し、ニューラル ネットワークのすべての省エネ機能を最大限に活用できるようにしました。

カスタム ハードウェアで実行すると、Meta の Llama などの上位モデルと同じパフォーマンスを達成できますが、ニューラル ネットワークの能力は従来の構成の 50 分の 1 です。

このニューラル ネットワークの設計は、人工知能業界で一般的に使用されている標準的な GPU での実行にも使用できます。テスト結果では、行列乗算に基づくニューラル ネットワークと比較して、メモリ使用量がわずか 10 分の 1 であることが示されています。

参照アドレスはこのサイトに添付されています

研究者は、電球に電力を供給するのに必要なエネルギーで高性能の大規模言語モデルを実行します

スケーラブルな MatMul フリー言語モデリング

以上が新しい AI アルゴリズムを発表: 消費電力は従来構成の 1/50、メモリ使用量は 1/10 に削減の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:ithome.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート