インテルは本日、最新の Meteor Lake プロセッサーをリリースし、Meteor Lake の統合 NPU を詳しく紹介しました
Intel は、Al は人々の生活のあらゆる側面に浸透していると述べました。 Cloud Al はスケーラブルなコンピューティング機能を提供しますが、いくつかの制限があります。これはネットワーク接続に依存しており、待ち時間が長く、実装コストも高くなりますが、プライバシーの問題もあります。 MeteorLake はクライアントのパーソナル コンピュータに Al を導入し、低遅延の Al コンピューティング機能を提供し、より低コストでデータ プライバシーの保護を強化します
Intel は、MeteorLake から始めて、Al を PC に広く導入し、数億台の PC を Al 時代に導き、巨大な x86 エコシステムが幅広いソフトウェア モデルとツールを提供すると述べました。
Intel NPU アーキテクチャの詳細な説明を含む IT ホーム:
ホスト インターフェイスとデバイス管理 - デバイス管理領域では、Microsoft Computing Driver Model (MCDM) と呼ばれる Microsoft の新しいドライバー モデルがサポートされています。これにより、Meteor Lake の NPU はセキュリティを確保しながら優れた方法で MCDM をサポートできるようになり、メモリ管理ユニット (MMU) は複数のシナリオで分離を提供し、電力とワークロードのスケジューリングをサポートして、高速な低電力状態の変換を可能にします。
マルチエンジン アーキテクチャ - NPU は、単一のワークロードを共同で処理したり、それぞれが異なるワークロードを処理したりできる 2 つのニューラル コンピューティング エンジンを備えたマルチエンジン アーキテクチャで構成されています。 Neural Compute Engine には、2 つの主要なコンピューティング コンポーネントがあります。1 つは推論パイプラインです。これはエネルギー効率の高いコンピューティングのコア ドライバーであり、データの移動を最小限に抑え、固定関数の演算を活用することで、一般的な大規模な計算を処理します。タスクはエネルギー効率を達成できます。ニューラルネットワークの実行において。計算の大部分は、標準のニューラル ネットワーク操作をサポートする固定機能パイプライン ハードウェアである推論パイプラインで発生します。パイプラインは、積和演算 (MAC) アレイ、アクティベーション関数ブロック、およびデータ変換ブロックで構成されます。 2 つ目は SHAVEDSP です。これは、Al 向けに特別に設計された、高度に最適化された VLIW DSP (超長命令ワード/デジタル シグナル プロセッサ) です。ストリーミング ハイブリッド アーキテクチャ ベクトル エンジン (SHAVE) は、推論パイプラインとダイレクト メモリ アクセス (DMA) エンジンを使用してパイプライン化することができ、NPU 上で真のヘテロジニアス コンピューティングを並列実行してパフォーマンスを最大化できます。
DMA エンジンは、データの移動を最適化し、エネルギー効率のパフォーマンスを向上させるエンジンです。
元の意味を変えずに内容を書き換えます。書き換える必要がある言語は中国語であり、元の文は表示する必要はありません以上がIntel Meteor Lake プロセッサーは NPU を統合し、PC に AI 時代をもたらしますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。