Intel Meteor Lake プロセッサーは NPU を統合し、PC に AI 時代をもたらします

王林
リリース: 2023-09-20 20:57:06
転載
1157 人が閲覧しました

インテルは本日、最新の Meteor Lake プロセッサーをリリースし、Meteor Lake の統合 NPU を詳しく紹介しました

英特尔Meteor Lake处理器集成NPU,为PC带来AI时代

Intel は、Al は人々の生活のあらゆる側面に浸透していると述べました。 Cloud Al はスケーラブルなコンピューティング機能を提供しますが、いくつかの制限があります。これはネットワーク接続に依存しており、待ち時間が長く、実装コストも高くなりますが、プライバシーの問題もあります。 MeteorLake はクライアントのパーソナル コンピュータに Al を導入し、低遅延の Al コンピューティング機能を提供し、より低コストでデータ プライバシーの保護を強化します

Intel は、MeteorLake から始めて、Al を PC に広く導入し、数億台の PC を Al 時代に導き、巨大な x86 エコシステムが幅広いソフトウェア モデルとツールを提供すると述べました。

Intel NPU アーキテクチャの詳細な説明を含む IT ホーム:

ホスト インターフェイスとデバイス管理 - デバイス管理領域では、Microsoft Computing Driver Model (MCDM) と呼ばれる Microsoft の新しいドライバー モデルがサポートされています。これにより、Meteor Lake の NPU はセキュリティを確保しながら優れた方法で MCDM をサポートできるようになり、メモリ管理ユニット (MMU) は複数のシナリオで分離を提供し、電力とワークロードのスケジューリングをサポートして、高速な低電力状態の変換を可能にします。

マルチエンジン アーキテクチャ - NPU は、単一のワークロードを共同で処理したり、それぞれが異なるワークロードを処理したりできる 2 つのニューラル コンピューティング エンジンを備えたマルチエンジン アーキテクチャで構成されています。 Neural Compute Engine には、2 つの主要なコンピューティング コンポーネントがあります。1 つは推論パイプラインです。これはエネルギー効率の高いコンピューティングのコア ドライバーであり、データの移動を最小限に抑え、固定関数の演算を活用することで、一般的な大規模な計算を処理します。タスクはエネルギー効率を達成できます。ニューラルネットワークの実行において。計算の大部分は、標準のニューラル ネットワーク操作をサポートする固定機能パイプライン ハードウェアである推論パイプラインで発生します。パイプラインは、積和演算 (MAC) アレイ、アクティベーション関数ブロック、およびデータ変換ブロックで構成されます。 2 つ目は SHAVEDSP です。これは、Al 向けに特別に設計された、高度に最適化された VLIW DSP (超長命令ワード/デジタル シグナル プロセッサ) です。ストリーミング ハイブリッド アーキテクチャ ベクトル エンジン (SHAVE) は、推論パイプラインとダイレクト メモリ アクセス (DMA) エンジンを使用してパイプライン化することができ、NPU 上で真のヘテロジニアス コンピューティングを並列実行してパフォーマンスを最大化できます。

DMA エンジンは、データの移動を最適化し、エネルギー効率のパフォーマンスを向上させるエンジンです。

元の意味を変えずに内容を書き換えます。書き換える必要がある言語は中国語であり、元の文は表示する必要はありません

以上がIntel Meteor Lake プロセッサーは NPU を統合し、PC に AI 時代をもたらしますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:sohu.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート