PyTorch 2.0正式版がリリースされました! 1 行のコードで 2 倍高速化、100% 下位互換性あり
PyTorch 2.0 の正式バージョンがついに登場しました。
昨年 12 月、PyTorch Foundation は PyTorch Conference 2022 で PyTorch 2.0 の最初のプレビュー バージョンをリリースしました。
# 以前のバージョン 1.0 と比較して、2.0 には破壊的な変更が加えられています。 PyTorch 2.0 における最大の改善点は torch.compile です。
新しいコンパイラは、PyTorch 1.0 のデフォルトの「eager モード」よりもはるかに高速にコードをオンザフライで生成できるため、PyTorch のパフォーマンスがさらに向上します。
2.0 に加えて、PyTorch ドメイン ライブラリの一連のベータ更新がリリースされました。ツリー ライブラリのほか、TorchAudio、TorchVision、TorchText などのスタンドアロン ライブラリも含まれます。コミュニティ サポート モードを提供するために、TorchX のアップデートも同時にリリースされます。
-torch.compile は PyTorch 2.0 のメイン API であり、これをラップし、コンパイルされたモデルの場合、torch.compile は完全なアドオン (およびオプション) 機能であるため、バージョン 2.0 は 100% 下位互換性があります。
- torch.compile の基礎となるテクノロジーとして、Nvidia および AMD GPU を搭載した TorchInductor は、OpenAI Triton 深層学習コンパイラーに依存して、高性能コードと低レベルのハードウェアの詳細を非表示にします。 OpenAI Triton によって生成されたカーネル実装のパフォーマンスは、手書きカーネルや cublas などの特殊な CUDA ライブラリに匹敵します。
- Accelerated Transformers は、カスタム カーネル アーキテクチャを使用して Scaled Dot Product Attendance (SPDA) を実装することにより、トレーニングと推論のための高パフォーマンスのサポートを導入します。 API は torch.compile() と統合されており、モデル開発者は新しいscaled_dot_product_attention() オペレーターを呼び出すことで、スケーリングされたドット積アテンション カーネルを直接使用することもできます。
- Metal Performance Shaders (MPS) バックエンドは、Mac プラットフォーム上で GPU 高速化された PyTorch トレーニングを提供し、最も一般的に使用される上位 60 の操作のサポートを追加し、さらに多くの操作をカバーします。オペレーター数は 300 名を超えています。
- Amazon AWS は、AWS Graviton3 に基づいて C7g インスタンス上の PyTorch CPU 推論を最適化します。 PyTorch 2.0 では、Resnet50 と Bert の改善を含め、以前のバージョンと比較して Graviton の推論パフォーマンスが向上しています。
- TensorParallel、DTensor、2D 並列、TorchDynamo、AOTAutograd、PrimTorch、TorchInductor にわたる新しいプロトタイピング機能と手法。
#コンパイルしてもコンパイルします!
PyTorch 2.0 の最新のコンパイラ テクノロジには、TorchDynamo、AOTAutograd、PrimTorch、TorchInductor が含まれます。これらはすべて、C (Python と互換性がある) ではなく、Python で開発されています。
また、ダイナミック シェイプもサポートしており、再コンパイルせずにさまざまなサイズのベクトルを送信できます。
TorchDynamo- Python フレーム評価フックを使用して、PyTorch プログラムを安全に取得できます。この主要な革新は、PyTorch の安全グラフ構造のキャプチャです (安全な研究の概要)グラフキャプチャの開発結果)。
- 高度なバックワード トレースを生成するためのトレース自動差分として PyTorch autograd エンジンをオーバーロードします。
- 2000 の PyTorch 演算子は、約 250 の原始演算子閉集合に要約されており、開発者は完全な PyTorch バックエンドを構築できます。 PrimTorch は、PyTorch 関数またはバックエンドを作成するプロセスを大幅に簡素化します。
- TorchInductor
TorchInductor は、複数のアクセラレータとバックエンド用の高速コードを生成できるディープ ラーニング コンパイラーです。 NVIDIA GPU の場合、OpenAI Triton を主要な構成要素として使用します。
PyTorch Foundation は、2.0 のリリースにより「C から Python への回帰」が促進されると述べ、これが PyTorch の実質的な新しい方向性であると付け加えました。
# 「私たちは「熱心な実行」のパフォーマンスの限界を初日から知っていました。 2017 年 7 月に、私たちは最初の研究プロジェクトを開始し、PyTorch 用のコンパイラーを開発しました。コンパイラーは、研究者が探索のさまざまな段階で動的モデルとプログラムを使用できるように、柔軟性と使いやすさを維持しながら、PyTorch エクスペリエンスを犠牲にすることなく、PyTorch プログラムを迅速に実行できるようにする必要があります。 "
# もちろん、コンパイルされていない「eager モード」は動的リアルタイム コード ジェネレーターを使用しており、2.0 でも引き続き使用できます。開発者は、porch.compile コマンドを使用して、コードを 1 行追加するだけでコンパイル済みモードにすばやくアップグレードできます。
# ユーザーは、2.0 のコンパイル時間が 1.0 と比較して 43% 増加していることがわかります。
このデータは、Nvidia A100 GPU 上の PyTorch 2.0 を使用した 163 のオープン ソース モデルに対する PyTorch Foundation のベンチマーク テストから取得したものです。これには、画像分類、ターゲット検出、画像生成、および他のタスクやさまざまな NLP タスク。
これらのベンチマークは、HuggingFace Transformers、TIMM、TorchBench の 3 つのカテゴリに分類されます。
##NVIDIA A100 GPU イーガー モード torch.compile のさまざまなモデルのパフォーマンスの高速化
PyTorch Foundation によると、新しいコンパイラは、Float32 精度モードを使用すると 21% 高速に実行され、自動混合精度 (AMP) モードを使用すると 51% 高速に実行されます。
これら 163 モデルのうち、93% のモデルで torch.compile が正常に実行できます。
「PyTorch 2.x ロードマップでは、パフォーマンスとスケーラビリティの点でコンパイル モデルをさらに進化させたいと考えています。まだ作業が必要です。開始されませんでした。帯域幅が不十分なため、一部の作業を完了できませんでした。」
#LLM をトレーニングして 2 倍高速化します
#実際、新機能のハイライトの 1 つは、以前は Better Transformers として知られていた Accelerated Transformers です。
さらに、PyTorch 2.0 の正式バージョンには、新しい高パフォーマンスの PyTorch TransformAPI 実装が含まれています。
PyTorch プロジェクトの目標の 1 つは、最先端のトランスフォーマー モデルのトレーニングとデプロイをより簡単かつ迅速に行うことです。
トランスフォーマーは、GPT-3 や GPT-4 などの OpenAI モデルを含む、現代の生成人工知能の実現に役立つ基本テクノロジーです。
PyTorch 2.0 Accelerated Transformers では、カスタム カーネル アーキテクチャ アプローチ (スケーリングされたドット積アテンション SDPA とも呼ばれます) により、高いパフォーマンスを提供します。 - トレーニングと推論のパフォーマンス サポート。
Transformer をサポートできるハードウェアの種類は数多くあるため、PyTorch 2.0 は複数の SDPA カスタム カーネルをサポートできます。さらに一歩進んで、PyTorch は、特定のモデルとハードウェア タイプに対して最もパフォーマンスの高いカーネルを選択するカスタム カーネル選択ロジックを統合します。 #アクセラレーションの影響は、開発者が PyTorch の以前のイテレーションよりも速くモデルをトレーニングできるようになるため、重大です。 新バージョンでは、カスタマイズされたカーネル アーキテクチャを使用してスケーリング ドット プロダクト アテンション (SPDA) を処理し、推論の高速パスを拡張することで、トレーニングと推論の高パフォーマンスのサポートが可能になります。建築。 ファストパス アーキテクチャと同様に、カスタム カーネルは PyTorch Transformer API に完全に統合されています。そのため、ネイティブ Transformer と MultiHeadtention API を使用すると、ユーザーは次のことが可能になります。 - 大幅な速度の向上を確認します; # - の使用を含む、より多くのユースケースをサポートします。クロスアテンション モデル、トランスフォーマー デコーダー、およびトレーニング モデル; # - 固定および可変シーケンス長のトランスフォーマー エンコーダーとセルフ アテンションの高速パス推論を引き続き使用します。力のメカニズムの場合。 さまざまなハードウェア モデルと Transformer のユースケースを最大限に活用するために、複数の SDPA カスタム コアがサポートされており、特定のモデルとハードウェアに合わせてカスタム コア選択ロジックが選択されます。タイプ 最高性能のコア。 #既存の Transformer API に加えて、開発者は新しいscaled_dot_product_attention() オペレーターを呼び出すことで、スケーリングされたドット積アテンション アテンション カーネルを直接使用して PyTorch を高速化することもできます。 2 トランスフォーマーは torch.compile() と統合されています。 モデルの使用中に PT2 コンパイル (推論またはトレーニング用) をさらに高速化するには、model = torch.compile(model ) を使用できます。モデルを前処理します。 現在、カスタム カーネルと torch.compile() の組み合わせは、高速化された PyTorch 2 Transformer を使用して Transformer モデル、特に大規模な言語をトレーニングするために使用されています。大幅な加速を実現したモデルです。 カスタム カーネルと torch.compile を使用して、大規模な言語モデルのトレーニングを大幅に高速化します HuggingFace Transformers のメインメンテナである Sylvain Gugger は、PyTorch プロジェクトが発表した声明の中で、「わずか 1 行のコードで、PyTorch 2.0 はトレーニング時に 1.5 倍優れたパフォーマンスを提供できます」と述べています。 Transformers モデル。2.0 倍のスピードアップ。これは、混合精度トレーニングの導入以来、最もエキサイティングなことです!」 PyTorch と Google の TensorFlow が最も人気のある 2 つです深層学習フレームワーク。世界中の何千もの教育機関が PyTorch を使用して深層学習アプリケーションを開発しており、その使用量は増加しています。 PyTorch 2.0 のリリースは、ディープラーニングと人工知能アプリケーションの開発を加速するのに役立つと、Lightning AI の最高技術責任者であり、 PyTorch Lightning Luca Antiga 氏は次のように述べています: ## 「PyTorch 2.0 は深層学習フレームワークの未来を体現しています。PyTorch プログラムをキャプチャするためにユーザーの介入は必要なく、外部から使用できます。このボックスの生成と、デバイスの巨大な高速化により、この可能性は AI 開発者にとってまったく新しい次元を開きます。」 参考資料: https://www.php.cn/link/d6f84c02e2a54908d96f410083beb6e0 https://www.php.cn/link/89b9e0a6f6d1505fe13dea0f18a2dcfa https:// www.php.cn/link/3b2acfe2e38102074656ed938abf4ac3
以上がPyTorch 2.0正式版がリリースされました! 1 行のコードで 2 倍高速化、100% 下位互換性ありの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究

7月5日のこのウェブサイトのニュースによると、グローバルファウンドリーズは今年7月1日にプレスリリースを発行し、自動車とインターネットでの市場シェア拡大を目指してタゴール・テクノロジーのパワー窒化ガリウム(GaN)技術と知的財産ポートフォリオを買収したことを発表した。モノと人工知能データセンターのアプリケーション分野で、より高い効率とより優れたパフォーマンスを探求します。生成 AI などのテクノロジーがデジタル世界で発展を続ける中、窒化ガリウム (GaN) は、特にデータセンターにおいて、持続可能で効率的な電力管理のための重要なソリューションとなっています。このウェブサイトは、この買収中にタゴール・テクノロジーのエンジニアリングチームがGLOBALFOUNDRIESに加わり、窒化ガリウム技術をさらに開発するという公式発表を引用した。 G
